Cessione crediti fiscali

procedure celeri

 

Mellano, saggista: «Ombre, rischi e punti deboli dell’AI generativa»


L’intelligenza artificiale generativa, la Gen AI, è una tecnologia dalle enormi capacità e opportunità. Ci sono molti campi in cui può già migliorare il lavoro e le prestazioni dell’Uomo. Dalla ricerca scientifica alla Sanità, finanza e sviluppo software, elaborazione dati, applicazioni digitali e molto altro ancora. «Ma la potenza della Gen AI ha anche un’altra faccia della medaglia, quella delle minacce, controindicazioni e rischi che porta con sé», dice Valter Mellano, autore del volume E tu l’hai capita l’AI?, pubblicato da Apogeo del gruppo Feltrinelli.

Opportunità unica

partecipa alle aste immobiliari.

 

Nell’utilizzare l’AI generativa per sfruttare la sua creatività nella produzione di Media e comunicazione, ad esempio, «questo mezzo è veramente rivoluzionario. Tuttavia, la sua potenza è talmente grande da costituire enormi rischi in campo sociale. Soprattutto per quanto riguarda l’autenticità delle informazioni, la privacy e il potenziale abuso da parte di chi potrebbe manipolare simili tecnologie per scopi nocivi. Le caratteristiche più pericolose, che stanno generando grandi problemi etici e legali nella società, sono infatti diverse e numerose».

Da dove si comincia e perché

A cominciare da?

«Dai possibili comportamenti scorretti dei modelli di LLM, Large language model. Quando uno di questi sistemi risponde a una richiesta, a un Prompt dell’utente, si pone il preciso obiettivo di soddisfarla. Ma non abbiamo nessun controllo sul procedimento che utilizza per trovare una risposta. Ed è possibile che comprenda azioni eticamente scorrette o pericolose, innanzitutto come la violazione dei dati personali e della Privacy».

L’AI generativa non ha alcun criterio di verità, come si affronta quindi il grande problema delle fake news?

«Per quanto riguarda le fake news, è possibile con pochissimo sforzo e in pochissimo tempo generare qualunque tipo di Media assolutamente falso su qualunque argomento. La generazione di contenuti fake è il rischio socialmente più impressionante, in quanto potenzialmente in grado di togliere ogni credibilità ai contenuti dell’informazione. Il Deepfake, in particolare, è una tecnica inquietante, in quanto permette la sintesi dell’immagine umana e il suo utilizzo. Per combinare e sovrapporre immagini e video esistenti con altri video o immagini originali. Ci sono tuttavia attive ricerche su algoritmi che riescono a identificare contenuti Fake, anche in immagini, riuscendo a svelare la struttura probabilistica con cui i prodotti sono stati ottenuti. Ciò è ottenuto utilizzando come strumento la stessa AI, che in questi ambiti è quindi l’origine del problema e anche la sua possibile soluzione».

La tua casa dei sogni ti aspetta

partecipa alle aste immobiliari!

 

Tra i contenuti della memoria e le Fake news

Un Large language model è soggetto anche alle cosiddette allucinazioni, un altro aspetto piuttosto insidioso

«L’allucinazione vera e propria consiste in un’esperienza percettiva, visiva o uditiva, che si presenta con i caratteri fisici della realtà. Nel caso dei LLM è più corretto parlare di “confabulazione”. È un termine ricavato dalla psichiatria, e definisce un disturbo in cui il paziente trasforma in modo non intenzionale i contenuti della memoria. Se le Fake news sono generate volontariamente dagli utenti e riguardano tematiche su cui si vuole creare disinformazione, le confabulazioni dipendono dalla struttura degli algoritmi, e possono emergere inaspettatamente in riferimento a qualunque argomento. Come noi abbiamo uno scopo, anche il chatbot ce l’ha, ed è quello di soddisfare al massimo le richieste combinando tutte le fonti di dati possibili, anche utilizzando informazioni lontanamente correlate all’oggetto della richiesta. Da ciò si possono generare errori, inesattezze, superficialità».

Nuove frontiere da scoprire e attraversare

La Gen AI può mentire?

«Gli umani mentono di proposito per raggiungere degli scopi. Come sappiamo, il principale scopo di una AI oggi è di rispondere bene alle richieste. Non può mentire con malizia, nel senso che intendiamo noi, per ingannare volutamente, perché questo richiede la volontà o l’obiettivo di farlo, che non è quello di un chatbot. È però possibile che per raggiungere il suo obiettivo di rispondere alle nostre richieste generi risposte che per noi sono menzogne, ma che non sono altro che il risultato statisticamente migliore per raggiungere lo scopo. È comunque un aspetto da non sottovalutare».

C’è anche l’esigenza di sviluppare e poi verificare filtri adeguati sui contenuti vietati?

«L’algoritmo ha bisogno di filtri sui contenuti vietati perché dalla rete è possibile estrarre qualunque tipo di informazione. È soggetto a Bias e polarizzazione dell’apprendimento. Significa che la conoscenza non è neutra, estraendo dalla rete le informazioni per l’addestramento essa introdurrà nella sua base di conoscenza tutti i possibili pregiudizi di razza, genere e posizioni politiche, anche non espliciti, che sono presenti in rete».

L’approccio empaticamente umano e coinvolgente

Sono importanti anche le regole di etichetta nell’interazione con l’utente…

«Le attuali applicazioni di AI generativa sono state progettate per presentarsi nel modo migliore all’utente, avere una buona interazione, delle vere e proprie regole di etichetta e di educazione per interagire con utenti di culture diverse: ma chi gestisce questi criteri? Con quali regole? L’approccio volutamente amichevole e rassicurante ha un ulteriore effetto collaterale, inducendo l’utente a fidarsi completamente delle risposte e delle soluzioni dei modelli, a delegare e non verificare le stesse mentre stiamo colloquiando con sistemi senza criterio di verità. L’approccio empaticamente umano e coinvolgente che può assumere un LLM può creare relazioni psicologicamente negative con gli utenti. È possibile creare entità che diventano amici, o amanti, che consolano e assecondano, che ti coccolano, entità che con cui creare relazioni percepite come umane, sostitutive di relazioni vere, ma che umane non sono, con tutti i pericoli sociali che implicano simili rapporti».

Assistenza per i sovraindebitati

Saldo e stralcio

 

E per quanto riguarda la proprietà dei diritti delle informazioni?

«Un altro dei problemi più spinosi da affrontare è la proprietà dei diritti dei dati utilizzati. Il problema dei diritti e del copyright ha già portato notevoli cambiamenti nella società, ma qui siamo di fronte a un passo ulteriore. Nei normali siti internet si trova ogni tipo di testo, immagini, video, ma sul web è possibile verificare se quanto pubblicato viola regole di copyright. La Gen AI, invece, accede a un’enorme quantità di informazioni e produce contenuti nuovi, e in questo processo il filo del copyright si perde nei meandri dei procedimenti oscuri con cui i modelli recuperano le informazioni, Mentre dovrebbe essere possibile verificare se le stesse sono soggette a copyright».

Concentrazioni, sistemi proprietari e intelligenza artificiale

C’è poi la forte concentrazione delle aziende produttrici di AI generativa…

«La Gen AI richiede un elevato controllo e un’etica di progettazione e distribuzione dei modelli. Ma il controllo e i criteri associati sono ora completamente a discrezione dei produttori, delle poche aziende che hanno la potenza di gestire le enormi quantità di dati e le costose esigenze di elaborazione. Finora i produttori attuali tendono a evitare il più possibile i pericoli che abbiamo elencato. Ma è facile capire – esattamente come nel caso della produzione di armi – quanto sia potente un uso non regolato e illegale, se non criminale, dell’AI generativa su tutta la società. Anche questo è un rischio molto reale, poiché il controllo dell’operato di queste aziende è difficoltoso a causa del grande vuoto legislativo e della stessa competizione tra le imprese, che può indurle a legare i controlli più a esigenze di profitto che di etica. Inoltre, si stanno diffondendo sistemi proprietari che sfruttano la conoscenza dei grandi LLM aggiungendovi conoscenze specifiche, e questo porta a potenti applicazioni ancora più difficili da controllare».

La sicurezza dell’intero sistema digitale

A che punto è la sicurezza di questi sistemi e tecnologie?

«Per esempio, sono state fatte simulazioni di attacchi hacker ad applicazioni di AI generativa in grado di alterarne il comportamento. I programmi di AI generativa sono progettati per evitare di fornire informazioni contrarie all’etica e alla legalità. Ma sono pure estremamente flessibili nell’adattarsi alle richieste dell’utente, a tal punto che ci si accorse subito che erano “ingenue”. Ponendo le domande in modo malizioso, ovvero dichiarando scopi diversi per coprire richieste pericolose, per esempio richiedere la formulazione di esplosivi al solo pretesto di scrivere un romanzo, fornivano le informazioni richieste. Di conseguenza, non è certo che le restrizioni che vengono introdotte al loro comportamento non siano aggirabili modificando il contenuto delle richieste. Sono state fatte molte prove e ora vengono introdotte e aggiornate contromisure. Occorre inoltre verificare che questo tipo di accesso volutamente malevolo non venga utilizzato da hacker per instillare informazioni o rubare dati sensibili dal sistema».

Un altro punto critico è la sostenibilità, per via del grande utilizzo di risorse energetiche

Dilazioni debiti fiscali

Assistenza fiscale

 

«Le grandi risorse di elaborazione richiedono un enorme dispendio di energia. Il consumo stimato della versione ChatGPT-3 durante la fase di apprendimento è stato di circa 1.290 MWh. Una quantità di energia che può illuminare più di 450 case per un anno. E i modelli sono sempre più potenti. Ciò richiede nuove soluzioni tecnologiche e ottimizzazione del software. Il cuore dei LLM sono i data center, se non vogliamo portare l’energia ai data center portiamo i data center all’energia. Quindi può essere importante installarli vicino a fonti di energia geotermica, o in container situati dove l’energia è immediatamente disponibile o viene sprecata». ©️

Intervista tratta dal numero del 15 giugno 2025 de Il BollettinoAbbonati!

📸 Credits: Canva





Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Mutuo 100% per acquisto in asta

assistenza e consulenza per acquisto immobili in asta

 

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Finanziamenti e agevolazioni

Agricoltura