Microcredito

per le aziende

 

Musk firma “a metà” il Codice di condotta sull’AI: ok solo alla sicurezza


xAI, l’azienda di Elon Musk sviluppatrice del controverso chatbot di intelligenza artificiale Grok, firmerà il Codice di Pratica sull’AI Act dell’Ue solo nella parte relativa alla sicurezza. Lo ha annunciato xAI su X, piattaforma social in cui Grok è integrato e anch’essa di proprietà del plurimiliardario sudafricano. L’azienda ha invece criticato gli altri due capitoli del documento, in quanto “contengono requisiti profondamente dannosi per l’innovazione”, con la parte sul diritto d’autore “chiaramente eccessiva”.

Finanziamenti e agevolazioni

Agricoltura

 

Da parte sua la Commissione europea, promotrice del Codice, ha commentato tramite un portavoce che è possibile firmare solo un capitolo del Codice, ma che avrebbe preferito che xAI firmasse anche le altre due parti. In ogni caso, ha sottolineato ancora il portavoce, xAI sarà tenuta a rispettare tutte le disposizioni dell’AI Act.

Negli ultimi tempi il chatbot di Musk è stato al centro di grosse polemiche per alcuni episodi quanto meno problematici. In risposta alle più disparate domande, infatti, Grok ha risposto negando l’olocausto, esprimendosi a favore di Hitler, o rilanciando la teoria dell’estrema destra del “genocidio bianco” in Sudafrica. Secondo una ricerca di Netskope Threat Labs, il 25% delle organizzazioni europee blocca completamente Grok. Per fare un confronto, ChatGPT viene stoppato dal 9,8% delle organizzazioni europee e Gemini dal 9,2%.

La posizione delle altre aziende tecnologiche

E quanto alle altre Big Tech, il 31 luglio Microsoft ha annunciato di aver firmato il Codice di condotta, pur definendo l‘AI Act “una regolamentazione complessa che trarrebbe vantaggio da una semplificazione“. L’azienda ha anche chiesto ai responsabili politici europei di “sfruttare l’imminente pacchetto di semplificazione digitale e migliorare l’AI Act e il Codice di condotta”, in modo da “stabilire percorsi chiari, pratici e ben supportati”.

A loro volta Anthropic e Google, così come la francese Mistral e la tedesca Aleph Alpha, hanno dichiarato che firmeranno il codice. Rimane isolato Meta, che a metà luglio ha fatto sapere che non aderirà, perché il codice introdurrebbe a suo avviso “una serie di incertezze legali“. L’Europa, ha affermato l’azienda Usa, “sta seguendo la strada sbagliata in materia di intelligenza artificiale”.

Cos’è il Codice sull’AI generativa

Il Codice sull’AI generativa dell’Ue è un codice di condotta rivolto alle aziende che sviluppano o utilizzano modelli di IA generativa (detti GPAI, come Chat GPT e affini), con l’obiettivo di regolare alcuni aspetti chiave di questa nuova tecnologia e aiutare le azione a conformarsi agli standard previsti dall’AI Act, in attesa della piena entrata in vigore di quest’ultimo.

Contabilità

Buste paga

 

Si tratta di una soft law, ossia una serie di principi e impegni non vincolanti, che aziende e sviluppatori possono sottoscrivere su base volontaria. Se lo faranno, beneficeranno di certezza giuridica e procedure semplificate quando l’AI Act entrerà a pieno regime.

Il Codice, insomma, si inserisce nell’architettura dell’AI Act e rappresenta il primo tentativo concreto di tradurlo in pratica: mentre il regolamento stabilisce obblighi legali che diventeranno applicabili entro il 2027, il Codice offre una guida pratica per anticipare la conformità.

Il documento è suddiviso in tre capitoli: trasparenza, diritto d’autore e sicurezza. Quest’ultimo è l’unico che xAI abbia deciso di firmare.

IL CODICE DI CONDOTTA, SPIEGATO:

Il 2 agosto è entrata in vigore un’altra parte dell’AI Act

Intanto il 2 agosto è entrata in vigore un’altra parte dell’AI Act, la legge europea che disciplina – prima al mondo – l’uso dell’AI. Introdotto formalmente il 12 luglio 2024, Il regolamento (vincolante e direttamente applicabile negli Stati membri) è formalmente attuabile dal 1° agosto 2024, ma le sue disposizioni si stanno applicando gradualmente. L’obiettivo del provvedimento è garantire un uso sicuro, etico e trasparente dell’IA, classificando i sistemi di AI secondo un approccio basato su quattro livelli di rischio: minimo, limitato, alto e inaccettabile, cui corrispondono adempimenti sempre più stringenti.

Lo scorso 2 febbraio erano già entrati in vigore i divieti di sistemi classificati a “rischio inaccettabile (scoring sociale, manipolazione cognitivo-comportamentale, database di riconoscimento facciale, riconoscimento delle emozioni sul posto di lavoro e negli istituti scolastici, identificazione biometrica in tempo reale…)”, e l’obbligo di alfabetizzazione circa l’AI.

Il 2 agosto sono invece entrati in vigore capitoli normativi sui fornitori di modelli di IA generica (General Purpose AI) e sulla governance (notifiche, autorità competenti e sanzioni), mirati ad ottenere informazioni più chiare sulle modalità di addestramento dei modelli di IA, una migliore applicazione delle norme sul copyright e in generale uno sviluppo più responsabile dell’IA. I modelli già sul mercato prima del 2 agosto 2025 hanno tempo fino al 2 agosto 2027 per conformarsi pienamente agli obblighi.

I prossimi passi: il 2 agosto 2026 finirà il periodo transitorio di 24 mesi, con una revisione generale e l’entrata in vigore piena per la maggior parte delle disposizioni, tra cui quelle sui sistemi a rischio limitato o minimo o generici. Un anno dopo, il 2 agosto 2027, entreranno in vigore infine tutti i requisiti più stringenti per i sistemi di alto rischio.

Richiedi prestito online

Procedura celere

 

Qualche settimana fa una lettera aperta di start up, aziende e fondi di investimento europei ha chiesto alla Commissione di ritardare l’applicazione dell’Act Act: “Così non si può innovare, servono regole praticabili”. Ma la Commissione ha ribadito la tabella di marcia delle scadenze, “previste nell’atto legislativo”.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Dilazione debiti

Saldo e stralcio