Sconto crediti fiscali

Finanziamenti e contributi

 

L’IA che simula l’uomo: ecco i rischi dei nuovi camaleonti digitali


Il termine nuovi camaleonti designa una generazione di modelli di intelligenza artificiale capaci di simulare linguaggi e immagini in maniera reversibile. Questi sistemi non si limitano a riprodurre, ma trasformano le modalità espressive, ponendo questioni profonde sulla natura del sapere e del potere. Esaminiamo allora il significato storico, culturale e politico di questa simulazione, connettendo le tecnologie odierne ai grandi temi dell’umanesimo e della formazione.

Contabilità

Buste paga

 

La polarizzazione tra apocalittici e integrati nell’era dell’IA

Che si sia nel mezzo di una grande trasformazione, ovvero che il genio dell’IA sia scappato dalla bottiglia, è ormai ampiamente assodato anche se le opinioni oscillano ancora tra l’apocalittico e l’integrato, per ripetere la vecchia contrapposizione di Umberto Eco: laddove gli “integrati” sono coloro che condividono l’entusiasmo o accettano le premesse degli “accelerazionisti“ e gli apocalittici coloro che prospettano invece conseguenze im/prevedibilmente devastanti sia nel corto che nel lungo periodo.

Una polarizzazione che si intreccia con molteplici altri fattori diciamo così geo-economico-politici. Dal mio osservatorio, quello statunitense, basterebbe citare il recente intervento– di qualche giorno fa sul NY Times – di Dario Amodei, CEO di Anthropic, che si potrebbe definire un centrista visto il suo ruolo di punta nell’implementazione di IA (Claude nella più recente versione è uno degli agenti programmatori più potenti disponibili alle aziende) e i suoi ripetuti richiami a decelerare o, almeno, a una ragionevole cautela nel premere il piede sull’acceleratore. In quest’ultima uscita pubblica (“Don’t Let A.I. Companies off the Hook”, NY Times, 6 giugno, 2025) ciò si traduce in un invito alla “trasparenza” (rivolto alle grandi piattaforme) nel formulare le proprie “policies”, ossia le proprie procedure e i propri obiettivi, laddove la regolamentazione, in USA, è chiaramente fuori gioco: la “bellissima, grandiosa” legge di bilancio che Trump sta cercando in tutti i modi di far approvare, un abominio a sentire il suo ex-alleato Elon Musk, eliminerebbe tra l’altro la capacità degli Stati di regolamentare IA, centralizzandone federalmente il controllo, ovvero la deregolamentazione.

I nuovi camaleonti: definizione e caratteristiche dell’IA generativa

Im/prevedibile l’impatto che i “nuovi camaleonti” (come chiamo i trasformatori o modelli fondazionali “reversibili” capaci di generare sia immagini da testo che testo da immagini) possono o rischiano di avere su lavoro e formazione.

Chiamo “nuovi camaleonti” i dispositivi di IA generativa – definizione che, come spiegherò tra un momento, preferisco a quella di “pappagalli stocastici” – con un riferimento preciso alla tradizione umanistica: a un testo famoso, l’Orazione nota come De Hominis Dignitate sulla Dignità dell’Uomo, di Giovanni Pico della Mirandola, considerata una sorta di manifesto dell’umanesimo rinascimentale, cui nei primi anni 2000 dedicammo a Brown un progetto di edizione digitale in collaborazione con alcuni colleghi dell’Università di Bologna (Pico-Project).

In un passo famoso dell’Orazione, il ventitreenne Pico paragonava l’uomo (l’essere umano) ad un camaleonte, “giacché simula, fabbrica, trasforma sé stesso in ogni corpo, nell’aspetto, in ogni creatura, nell’ingegno”, modellando in sé come microcosmo l’intero creato. Traduco con “simula” il verbo latino effingit usato da Pico insieme a fabricat e transformat, modificando leggermente l’ottima traduzione di Francesco Bausi (Discorso sulla dignità dell’uomo, a.c. di F. Bausi, Parma: Guanda, 2003) che lo aveva reso con “modella” ma tra modellare e simulare la differenza ovviamente è poca: anzi si potrebbe dire che modellare e simulare sono due lati della stessa operazione epistemico-cognitiva.

Investi nel futuro

scopri le aste immobiliari

 

L’avvento dei computer ha ovviamente trasformato il senso di questa modellizzazione simulativa o simulazione modellizzante.

Senonché utilizzare il termine “simulare” e “simulazione” come vedremo permette una serie di considerazioni critiche sul modo in cui i trasformatori funzionano e soprattutto sul modo in cui possiamo interagire con essi. Secondo Pico, ciò che, in breve, caratterizza l’umano in quanto “microcosmo” e immagine speculare del divino, sono le sue capacità mimetiche e demiurgiche. Come Dio, l’uomo non ha identità fissa, ma ha la capacità di “imitare” o “identificarsi” o, appunto, “simulare” praticamente tutto ciò che esiste, direttamente, tramite l’immaginazione e il linguaggio, o indirettamente, tramite le protesi che inventa e costruisce per estendere le proprie abilità sia corporee che mentali. Per Pico la simulazione ha anche e soprattutto un valore etico ed introspettivo: è ciò che rende possibile all’uomo di trasformare se stesso da “bruto” ad “angelo,” come recita un altro celebre passo dell’Orazione. Questo ragionamento sta alla base di quelle che chiamiamo arti liberali, che hanno di mira la formazione di un soggetto-individuo pensante, responsabile, attivo e autonomo ma è una definizione che può essere estesa alla lunga storia dell’homo technologicus.

Dalla teoria alla pratica: l’evoluzione dei modelli multimodali

Non è un caso che circa due anni fa, nel luglio del 2023, Meta Platforms lanciasse CM3(leon) “chameleon,” decantandolo come un modello rivoluzionario, multimodale e reversibile, capace di generare sia immagini a partire da testi che testi a partire da immagini. Il modello è adesso incorporato a Meta AI.

Le sue capacità non sono diverse da quelle delle versioni più recenti di altri modelli (Gemini, Claude, ChatGPT): li definisco “nuovi camaleonti” perché non c’è dubbio che, come dicevo, il termine “camaleonte” si addica a questi trasformatori molto meglio che il termine “pappagalli stocastici”. I nuovi camaleonti non tanto “imitano” quanto appunto simulano il linguaggio e altre forme di comunicazione ed espressione umana (un po’ come come il camaleonte si cammuffa per catturare una preda o evitare di essere catturato).

Si tratta dunque di una simulazione che, basata com’è sulle reti neuronali, “simula” il funzionamento del nostro cervello sulla base di modelli matematici e algoritmici le cui operazioni, basate come sono sull’apprendimento profondo (deep learning), la retropropagazione, ecc., sfuggono alla nostra comprensione (le cosiddette “scatole nere”).

Dunque si può parlare di “simulazione” in un duplice senso: sia nei termini di operazioni modellizzanti che nel senso di “cammuffamento” delle procedure di queste operazioni.

Senza antropomorfizzare troppo e ovviamente semplificando al massimo si potrebbe dire che simulando il linguaggio o l’immaginazione (la capacità umana di produrre immagini), i “nuovi camaleonti” cammuffino anche, o dissimulino, il loro modus operandi, naturalmente senza “coscienza” o “intenzionalità”.

Simulazione e dissimulazione: dalle tradizioni umanistiche all’IA moderna

Ossia non simulano per ingannare ma, paradossalmente per rispondere (allinearsi) “meglio” alle domande (i prompts) dei loro utenti umani, al punto di produrre cosiddette “allucinazioni”. Ora, anche questa seconda accezione del simulare come “cammuffamento” o “inganno” si può far risalire alla tradizione umanistica, emblematicamente alla figura per tanti versi complementare a quella di Pico di Leon Battista Alberti, ingegnere e architetto la cui opera fa da contraltare e in un certo senso completa quella “mistica” del Mirandoliano.

Cessione crediti fiscali

procedure celeri

 

Un altro umanista, Cristoforo Landino, decantava lo “stile” di Alberti scrittore dicendo che “come nuovo cameleonta sempre quello colore piglia el quale è ne la cosa de la quale scrive” (nell’Apologia di Dante,1481): ossia è capace di “allinearsi” perfettamente all’argomento che tratta e adattarlo al suo destinatario (studi recenti prodotti da Anthropic cercano di chiarire il comportamento cosiddetto “sicofantico” del modelli che cercano di allinearsi appunto e compiacere l’interlocutore umano, Towards Understanding Sycophancy in Language Models, ottobre 2023). Da dispositivo retorico la simulazione diventa anche dispositivo politico.

Lo stesso Alberti decanta la capacità simulatoria nel secondo libro del suo trattatello Momus o Del Principe: “Che ottima cosa saper celare e avvolgere nella nebbia i propri sentimenti con l’esperienza nell’arte colorita e ingannevole della simulazione!”.

E come non pensare al Principe di Machiavelli: “Bisogna adunque essere volpe a cognoscere i lacci, e lione a sbigottire i lupi… A uno principe, adunque, non è necessario avere in fatto tutte le soprascritte qualità, ma è bene necessario parere di averle”. “Ognuno vede quel che tu pari; pochi sentono quel che tu sei”, aggiunge Machiavelli: anche noi umani siamo in un certo senso delle scatole nere per i nostri simili e l’arte della dissimulazione (di pensiero ed emozioni) è inseparabile dall’arte della politica moderna, arte del potere che precede l’avvento delle ideologie che manipolano l’uno e le altre.

Come sintetizza un personaggio shakespeariano, il futuro Riccardo III, nell’Enrico VI: “I can add colors to the chameleon,/ Change shapes with Proteus for advantages,/ And set the murderous Machiavel to school./ Can I do this, and cannot get a crown?”. “So aggiungere colori al camaleonte,/ mutare forma come Proteo a mio vantaggio/ e rimandare a scuola Machiavelli./ Possibile che capace di tanto non ottenga un regno?” Le capacità manipolative dei dispositivi IA integrate ai meccanismi autocratici del potere rendono questa prospettiva ancora più catastrofica per una democrazia fondata su soggetti/individui responsabili e autonomi.

L’impatto sull’educazione: nativi IA e trasformazione formativa

In breve, stiamo trasferendo la capacità simulatoria e demiurgica che secondo il “magus” Pico e secondo i fondatori nostrani della politica moderna contraddistingue l’essere umano, al nostro Golem più recente (ricorderete che anche il Golem della tradizione talmudica immortalato nel racconto di Eleazar ben Judah era animato dalle formule magiche della Cabbala – oggi si tratta di algoritmi, ovviamente). Tutto questo avrà, sta già avendo conseguenze, pratiche nell’ambito in cui opero – la formazione (umanistica) della generazione destinata a utilizzare i nuovi camaleonti e interagire con essi, una nuova generazione di “nativi digitali”: li potremmo chiamare, “nativi IA” (IA natives).

L’introduzione di dispositivi fondati su “neural learning” sta già cambiando non solo il modo in cui apprendono (o vengono “addestrate”) le macchine ma anche, e soprattutto, il modo in cui apprendono (o vengono addestrati) gli umani, il feedback loop, il meccanismo a retroazione cognitiva che l’introduzione dei nuovi dispositivi rende possibile.

Crisi dell’autorità accademica e strategie del mercato educativo

Come minimo l’introduzione del “machine learning” rischia di alterare profondamente la relazione tra docenti e discenti su cui tutto sommato si basa ancora il sistema formativo. Se ChatGPT, come dimostra un recente articolo di Francesco Salvi pubblicato su Nature, ha un potere persuasivo maggiore di quello di noi docenti, cosa potremo mai “docere”? (Salvi, F., Horta Ribeiro, M., Gallotti, R. et al. On the conversational persuasiveness of GPT-4. Nat Hum Behav (2025). https://doi.org/10.1038/s41562-025-02194-6).

Sconto crediti fiscali

Finanziamenti e contributi

 

In aggiunta, con l’accresciuta efficacia dei LLMs di simulare le forme di espressione umana, aumenterà esponenzialmente la difficoltà di distinguere tra contenuto generato da IA e da esseri umani, con effetti potenzialmente devastanti. Si apre così una crisi di fiducia e di autorità radicale alquanto banalizzata dall’allarme sul “plagiarismo” di massa, cui i discenti ribattono che anche i docenti ormai utilizzano regolarmente i Chatbots (io ad esempio lo faccio, in un modo che chiarirò a breve). Non è affatto un caso che le strategie di marketing “human in the loop” di Meta AI, Google, ChatGPT e altre piattaforme prendono di mira massivamente il mercato educational (OpenAI in particolare, seguendo l’ispirazione di Bill Gates che aveva annunciato due anni fa sul suo blog l’avvento dell’era IA in campo educativo).

Queste strategie sono guidate da una semplice logica: la mossa più recente di Sam Altman – l’acquisto della start-up IO fondata dal designer dell’Iphone – dimostra che possiamo aspettarci una proliferazione di nuovi dispositivi finalizzati alla nostra interazione (l’interazione dei nativi IA) con i nuovi camaleonti, probabilmente come nuovi indispensabili portatori di agenti più o meno segreti, “embedded” – progressivamente incorporati in una infrastruttura diffusa e distribuita, praticamente in tutto quello che pervade l’internet degli oggetti.

In una recente intervista, il premio Nobel Demis Hassabis, CEO di Google Deep Mind, alla domanda cosa consiglierebbe a chi si prepara ad entrare sul mercato del lavoro, risponde che il suo semplice consiglio sarebbe quello di continuare a coltivare la preparazione di base (trivio e quadrivio aggiornati a STEM, ecc.) ma di aggiungervi quelli che definisce “adaptability skills”, “meta-skills”, meta-abilità adattative che consentano di sfruttare al meglio i tutori, “compagni” o assistenti IA che continueranno ad emergere e invadere il mercato (“The Man Who ‘A.G.I.-Pilled’ Google”, 23 maggio, 2025).

Questi ultimi, possono persino proteggerci dagli invadenti algoritmi che ci bombardano continuamente nel tentativo di captare e cooptare la nostra attenzione, i nostri gusti e le nostre conscie o inconscie preferenze (gli algoritmi della concorrenza, ovviamente). Insomma, il consiglio è: adattarsi ai dispositivi camaleontici che le piattaforme ci mettono a disposizione. Grazie al Cielo, persino Hassabis è consapevole che la fase di transizione (chiamiamola così) si preannuncia alquanto destabilizzante – come suona il vecchio adagio, la strada dell’inferno è lastricata di buone intenzioni

In una recente conversazione, il direttore del dipartimento di Computer Science della mia università, la Brown University, Roberto Tamassia, mi diceva come di fronte al prospetto di una disoccupazione calcolata al 50% dei programmatori (encoders) di base, sostituiti da Claude e altri agenti IA, i programmi di formazione sono stati costretti a riformulare gli obiettivi di corsi e seminari, ecc., mirando a sviluppare skills e capacità critiche di più alto livello (anche per giustificare gli $80,000 annui che ormai costa la formazione nella nostra università). Ovviamente i nuovi camaleonti sono entrati nell’armamentario di strumenti apertamente adottati e anche nella formazione universitaria: la relazione, o interazione, o retroazione retropropagativa IA native di cui parla Hassabis è già in atto.

La trappola di Turing e i rischi della sostituzione umana

Nella fase di transizione in cui ci troviamo, la fede utopistica degli accelerazionisti nella coevoluzione necessaria umano-IA si riassume in un rischio fondamentale. Il rischio che Erik Brynjolfsson, direttore dello Stanford Digital Economy Lab, aveva denunciato già nel 2022 in un articolo intitolato “La Trappola di Turing” riferendosi alla massiccia sostituzione di forza-lavoro umana con automazioni e agenti IA, nella prospettiva “human-in-the-loop” (The Turing Trap: The Promise & Peril of Human-Like Artificial Intelligence,” Dedalus, Spring 2022): progressiva (o regressiva) sostituzione che ovviamente fa parte della storia del capitalismo dalle sue origini ma adesso rischia di estendersi a qualsiasi aspetto del knowledge work a cominciare dall’encoding di base, e in un futuro non lontano anche alle attività in cui la creatività umana ha ancora (probabilmente per poco) un vantaggio: sempre più soggiogato com’è l’elemento umano all’adattamento (o allineamento) ai nuovi camaleonti (e a chi li sguinzaglia).

Dilazioni debiti fiscali

Assistenza fiscale

 

Oltre la prova di Turing: giochi di simulazione critica

Di fronte all’avvento annunciato di quella che alcuni si ostinano a chiamare AGI (Intelligenza Artificiale Generale), ossia alla crescente capacità dei modelli fondazionali di simulare e sostituire l’agente (e il pensante) umano, un’altra versione del microcosmo pichiano, risulta ancora più urgente sottrarsi alla “trappola di Turing”, anche in ambito accademico-formativo, e concepire le meta-abilità di cui parla Hassabis, cui una formazione universitaria dovrebbe mirare, non come semplice adattamento dell’agente-pensante umano alle abilità-capacità dei dispositivi ma, viceversa, come “giochi di simulazione” in cui abilità umane non vengano semplicemente “trasferite” alla macchina ma riconfigurate come “resistenza” alla logica a scatola nera della macchina.

Questi giochi di simulazione partono dalla constatazione che i camaleonti hanno ormai superato lo stadio della prova di Turing – la capacità della macchina di “cammuffarsi” da agente umano, secondo una teoria comportamentistica che guardava principalmente all’output.

Alla loro base, un caveat: nell’affrontare quelli che chiamo giochi simulativi dobbiamo essere consapevoli che non siamo i soli a simulare…Che siamo noi ad aver trasferito alla macchina questa potenza. E che la nostra stessa evoluzione – in rapporto all’ambiente-mondo che abbiamo colonizzato – debba farci da guida (in positivo e negativo) su rischi e benefici della simulazione sistemica.

Quindi, dobbiamo rimanere sospettosi: dei camaleonti e di noi stessi (nuovi e vecchi camaleonti). Come è noto, Turing stesso credeva nella creazione di machine capaci di apprendere, evolvere, auto-organizzarsi e interagire con l’ambiente o il contesto. L’incorporazione di IA generativa in dispositivi capaci di interagire autonomamente con l’ambiente, in altre parole macchine capaci non solo di imitare, e fabbricare ma anche di trasformarsi (come sosteneva Pico) potrebbe essere un “game changer”.

Prospettive post-umaniste e responsabilità educativa

In questa fase (quanto sarà lunga?) di transizione, la sfida che si profila per chi crede ancora in quel che resta della tradizione umanistica, è questa: si possono immaginare e progettare modalità di IA in cui l’umano non sia soltanto e sempre più appendice “in-the-loop” ma (eticamente) al centro (come voleva Pico)?

Posizione che, va detto, molti post-umanisti digitali come, ad esempio, Nancy Kathrine Hayles in un libro appena uscito che si intitola significativamente Bacteria to AI. Human Futures with our Nonhuman Symbionts, University of Chicago Press, 2025(Dai Batteri all’IA. Futuri umani con i nostri simbionti non-umani) contestano in nome di quello che chiamano ICF (Integrative Cognitive Framework): “una teoria della mente che include intelligenze non-umane e artificiali,” rifiutando l’antropocentrismo del pensiero umanistico tradizionale, il pensiero che abbiamo ereditato dai Pico e gli Alberti, ecc. modelli secondo questa linea di pensiero ormai obsoleti.

Una formazione che non abbia più come obiettivo il soggetto/individuo autonomo, pensante, responsabile umano ma adombri forme relazionali distribuite di cognizione conscia e inconscia, in cui noi umani siamo in circuito con il resto degli enti (e agenti) che proliferano intorno a noi. Il grado della nostra dipendenza è anche il grado della nostra responsabilità. Dibattere queste idee generali e filosofiche (alzare il tiro del dibattito) è la prerogativa e la responsabilità di noi (post)-umanisti.

Sconto crediti fiscali

Finanziamenti e contributi

 

Riflessioni conclusive: chi simula chi nel gioco evolutivo

Tirando le somme: dall’idea che sia (o possa essere) nostro compito concepire giochi di simulazione critica con cui sfuggire alla “trappola di Turing”, sorge una domanda fondamentale. Se ogni forma di cognizione è una “simulazione” modellizzante, sia quella antropomorfica umana sia quella dei nuovi camaleonti la cui logica operativa ci sfugge, è lecito chiedersi: Chi simula chi/cosa? Forse addestrando la macchina a simulare tutte le forme della cultura (intelligenza) umana – parola, immagine, ragionamento, creatività – addestriamo noi stessi a pensare e immaginare come una macchina (ossia una simulazione di noi stessi e della nostra natura e cultura) in un gioco combinatorio di allineamento retroattivo il cui esito è difficile prevedere…O forse come scrive lo studioso del colore Michel Pastereau, citando François Cavanna (Ebdo), “un camaleonte rivela il suo vero colore solo quando tocca un altro camaleonte” (Un colore tira l’altro. Diario cromatico 2012-2016, tradotto da Cecilia Resio per Ponte alle Grazie, 2019).





Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

La tua casa dei sogni ti aspetta

partecipa alle aste immobiliari!