Microcredito

per le aziende

 

Guida al nuovo DDL Intelligenza Artificiale : cosa cambia per imprese, PA e ricerca


Opportunità uniche acquisto in asta

 ribassi fino al 70%

 

L’approvazione alla Camera dei Deputati del Disegno di Legge sull’Intelligenza Artificiale segna un passaggio storico per la strategia nazionale in materia di innovazione digitale. Il testo, profondamente rivisto rispetto alla versione precedente, si presenta oggi come una cornice normativa più solida, allineata all’AI Act europeo e più attenta alle esigenze e alle specificità del sistema-Paese. Ma quali sono i principali miglioramenti introdotti in questa fase e quali restano le sfide aperte?

Un quadro più chiaro e integrato

Il DDL si articola in sei capi e mira a fissare principi generali, regole settoriali, strumenti di governance e tutele per cittadini e imprese. Rispetto alla versione precedente, il testo recepisce molte delle osservazioni emerse nel dibattito parlamentare, rafforzando l’allineamento con il Regolamento europeo AI Act e chiarendo che la legge italiana si applica solo negli ambiti non coperti dalla normativa UE. Vengono precisati i principi di trasparenza, non discriminazione, tutela dei diritti fondamentali e centralità della decisione umana. Si introduce inoltre una specifica tutela della libertà del dibattito democratico da interferenze illecite tramite IA, ampliando la portata delle garanzie rispetto al testo originario. Le definizioni chiave – “sistemi di intelligenza artificiale”, “dato”, “modelli di IA” – sono state aggiornate e armonizzate con quelle dell’AI Act, riducendo il rischio di ambiguità interpretative e favorendo una maggiore coerenza applicativa.

Rafforzamento delle tutele nei settori sensibili

In ambito sanitario, il DDL ora prevede obblighi più stringenti di informazione agli utenti sull’uso dell’IA e la centralità della decisione medica, con l’obbligo di aggiornamento periodico dei sistemi per minimizzare i rischi per i pazienti

In ambito sanitario, il DDL ora prevede obblighi più stringenti di informazione agli utenti sull’uso dell’IA e la centralità della decisione medica, con l’obbligo di aggiornamento periodico dei sistemi per minimizzare i rischi per i pazienti. In ambito lavorativo, sono state potenziate le tutele contro la discriminazione e il monitoraggio dell’impatto dell’IA, con maggiore trasparenza verso i lavoratori e informative obbligatorie da parte dei datori di lavoro. Per la pubblica amministrazione, si ribadisce la necessità di garantire la tracciabilità e la spiegabilità delle decisioni automatizzate, mantenendo la responsabilità ultima in capo all’uomo. In ambito giudiziario, viene esclusa ogni possibilità di “giustizia predittiva” e rafforzata la formazione dei magistrati sui temi IA.

Governance più flessibile e inclusiva

Il ruolo degli Osservatori, in particolare quello sull’adozione dell’IA nel lavoro presso il Ministero del Lavoro, è stato meglio definito: dovranno monitorare, promuovere la formazione e proporre strategie. È prevista la possibilità di attribuire ulteriori funzioni tramite decreto ministeriale, rendendo la governance più flessibile e capace di rispondere alle esigenze emergenti. Il testo rafforza inoltre la promozione dell’IA come strumento per la competitività delle Pmi e la valorizzazione del capitale umano, esplicitando la necessità di favorire la ricerca collaborativa tra imprese, organismi di ricerca e criteri di trasferimento tecnologico. Si sottolinea il ruolo degli stakeholder come Confindustria e associazioni di categoria per la diffusione dell’IA nel tessuto produttivo italiano, ancora troppo poco coinvolto nelle dinamiche di innovazione.

Carta di credito con fido

Procedura celere

 

Semplificazione e sostegno alla ricerca

In ambito sanitario, è stata semplificata la disciplina sul trattamento dei dati per ricerca e sperimentazione: non è più richiesta l’approvazione dei comitati etici per l’uso secondario dei dati, ma solo la comunicazione al Garante Privacy, con un termine di 30 giorni per eventuali blocchi. Questa modifica snellisce le procedure, favorendo la ricerca pur mantenendo le garanzie per i diritti degli interessati.

Sicurezza nazionale e cybersicurezza

La disciplina sull’esclusione delle attività di sicurezza nazionale, difesa e cybersicurezza dal campo di applicazione della legge è stata ridefinita, con maggiore chiarezza sui limiti e sulle garanzie di tutela dei diritti fondamentali anche in questi ambiti. È stato inoltre eliminato l’obbligo generalizzato di localizzazione nazionale dei server, sostituito da un principio più coerente con la normativa europea.

Nuove misure su deepfake e trasparenza

Il testo prevede ora un’apposita fattispecie penale per la diffusione illecita di contenuti deepfake (art. 612-quater c.p.), introducendo aggravanti specifiche per danni a soggetti vulnerabili o istituzioni pubbliche.

Il testo prevede ora un’apposita fattispecie penale per la diffusione illecita di contenuti deepfake (art. 612-quater c.p.), introducendo aggravanti specifiche per danni a soggetti vulnerabili o istituzioni pubbliche. È una novità importante, che rafforza il contrasto alla manipolazione digitale e tutela il dibattito democratico. Inoltre, si stabilisce l’obbligo di identificazione dei contenuti generati da IA, allineando la normativa nazionale ai principi europei sulla trasparenza. Il DDL prevede anche l’obbligo di eseguire valutazioni d’impatto sui diritti fondamentali per i sistemi ad alto rischio, rafforzando l’approccio “risk-based” del Regolamento UE.

Le criticità ancora aperte

Nonostante i miglioramenti, permangono criticità strutturali. La clausola di invarianza finanziaria limita fortemente l’efficacia del disegno di legge. Senza risorse aggiuntive, formazione, infrastrutture digitali e strumenti per le PMI rischiano di restare sulla carta. Il testo parla della necessità di formare i lavoratori, ma non prevede strumenti concreti o finanziamenti per la riqualificazione del capitale umano. La governance, pur rafforzata, resta frammentata: manca una autorità nazionale indipendente per l’IA, con potere di indirizzo e controllo su scala sistemica. Il rischio è quello di una moltiplicazione degli attori istituzionali con ruoli sovrapposti e insufficientemente coordinati.

Di converso, l’istituzione dell’Osservatorio sull’adozione dell’IA nel mondo del lavoro rappresenta un’opportunità strategica su una tematica chiave come quella dell’impatto dell’IA sul mondo del lavoro e sulla necessità di avviare processi di reskilling e upskilling per poter massimizzare i benefici dell’applicazione della stessa in un contesto umanocentrico (Human-in-the-loop). D’altra parte, potrà diventare il fulcro per politiche evidence-based, anche in collaborazione con altri osservatori e stakeholder territoriali. In questo senso, il progetto AI4SAFETY, promosso dall’Osservatorio GAILIH promosso da Unimarconi, potrebbe favorire la condivisione di una prima direzione concreta: una piattaforma nazionale per la prevenzione e gestione della sicurezza sul lavoro tramite IA, in grado di integrare analisi predittive, sensoristica e supporto decisionale. Il progetto ha l’ambizione di trasformarsi in un modello replicabile, che coniuga innovazione tecnologica, sostenibilità sociale e competitività.

Un passo avanti significativo ma non ancora sufficiente

Il nuovo DDL rappresenta un passo avanti significativo per l’Italia, che si dota finalmente di una normativa aggiornata, coerente con l’AI Act e attenta alle sfide etiche, sociali ed economiche poste dall’IA. Ma per evitare che la legge resti un esercizio formale, è indispensabile:

  • destinare risorse adeguate a formazione, ricerca e trasferimento tecnologico;

  • rafforzare la governance con un’autorità indipendente e una maggiore integrazione tra pubblico, privato e società civile;

  • promuovere progetti strategici e replicabili come AI4SAFETY, per rendere l’IA una leva concreta di sviluppo sostenibile, inclusivo e sicuro.

Solo così l’Italia potrà cogliere appieno le opportunità dell’IA, evitando che l’innovazione rimanga confinata a una visione elitaria o a comparti specialistici. L’Intelligenza Artificiale deve diventare una tecnologia al servizio del lavoro, delle persone e del sistema-Paese.

Il Piano italiano per l’IA in una prospettiva allargata: risorse, visione e competitività

Rispetto alla versione precedente, il testo recepisce molte delle osservazioni emerse nel dibattito parlamentare, rafforzando l’allineamento con il Regolamento europeo AI Act e chiarendo che la legge italiana si applica solo negli ambiti non coperti dalla normativa UE.

Come già sottolineato, il limite più evidente del nuovo DDL sull’Intelligenza Artificiale non è contenuto nel testo, ma nella sua sostenibilità operativa: l’assenza di risorse dedicate. La clausola di invarianza finanziaria rischia di rendere inattuabili molte delle misure previste, lasciando scoperti tre ambiti chiave: la formazione del capitale umano, la modernizzazione della PA e il supporto all’adozione dell’IA da parte delle PMI. Un esempio emblematico è rappresentato dal Fondo gestito da CDP Venture Capital, che ha annunciato un investimento di 1 miliardo di euro in cinque anni per IA, robotica e tecnologie quantistiche. Pur essendo un segnale positivo, tale importo risulta frammentato su più tecnologie, e in media assegna all’IA meno di 70 milioni di euro l’anno, e anche ipotizzando ambiziosamente una leva di 3 o 4 grazia all’attivazione di partenariati pubblico-privati tale cifra rimane lontana da quanto investito in altri Paesi avanzati.

Finanziamenti e agevolazioni

Agricoltura

 

Basti guardare agli Stati Uniti, che per il biennio 2025–2026 prevedono oltre 3,4 miliardi di dollari di investimenti pubblici federali in IA, con priorità in difesa, sanità, manifattura avanzata e accesso condiviso a infrastrutture di calcolo attraverso la National AI Research Resource.

La Cina, già protagonista di una corsa agli investimenti dal 2017, ha superato i 10 miliardi di dollari annui in investimenti pubblici e infrastrutturali nel settore IA, puntando su smart cities, sanità predittiva, digital twin industriali e autonomia strategica nei chip.

Il Regno Unito ha annunciato un piano da 2,5 miliardi di sterline fino al 2026, con 500 milioni già allocati per il 2025, indirizzati a modelli fondazionali pubblici, AI Safety e formazione avanzata.

Sul fronte continentale, l’Unione Europea, con il Digital Europe Programme e Horizon Europe, investirà 1,3 miliardi di euro tra 2025 e 2026 in IA affidabile, centri di innovazione digitale e collaborazione pubblico-privato.

Tra i singoli Paesi UE, Francia e Germania si muovono con ambizioni elevate. La Francia destina 500 milioni al biennio 2025–2026 con focus su modelli linguistici pubblici, supercalcolo e applicazioni in sanità ed energia. La Germania ha stanziato 1,6 miliardi di euro per il triennio 2024–2026, destinati a manifattura intelligente, ricerca federale e centri di eccellenza.

Anche la Spagna, tramite il Recovery Plan, investirà 250 milioni di euro entro il 2026, principalmente in IA per imprese e PA, infrastrutture digitali e formazione professionale.

Questo scenario internazionale evidenzia due aspetti cruciali:

Finanziamenti personali e aziendali

Prestiti immediati

 

  1. L’IA è considerata una tecnologia strategica trasversale (non un comparto verticale), capace di abilitare trasformazioni in sanità, difesa, istruzione, industria e pubblica amministrazione.

  2. I Paesi leader hanno adottato piani strutturati, ben finanziati e pluriennali, integrando investimenti pubblici diretti, incentivi, strumenti normativi e coordinamento istituzionale.

L’Italia, pur disponendo di eccellenze accademiche e industriali, non ha ancora attivato il piano nazionale per l’IA aggiornato, dotandolo di risorse e governance adeguate. Il DDL IA approvato alla Camera fornisce una base normativa coerente con l’AI Act, ma non è ancora accompagnato da una visione sistemica e da un impegno finanziario proporzionato alla posta in gioco.

La vera sfida per l’Italia non è più solo quella di regolare l’Intelligenza Artificiale, ma di governarne l’adozione, accelerarne la diffusione responsabile e posizionarsi da protagonista nella nuova economia cognitiva. Senza risorse adeguate, rischiamo di restare spettatori della trasformazione in atto.

Un’opportunità strategica: le applicazioni duali dell’IA

Un’opzione concreta per colmare questo divario potrebbe derivare dall’impiego strategico di una parte delle risorse incrementali previste per la spesa in sicurezza e difesa, in particolare quelle legate all’impegno NATO a raggiungere il +1,5% del PIL in dieci anni per spese “non strettamente militari”.

Tradotto in cifre, significa circa 32,25 miliardi di euro aggiuntivi in 10 anni, pari a circa 3,2 miliardi l’anno. Se anche solo una parte di queste risorse – il 20% o il 30% dell’incremento annuale – fosse destinata a progetti IA dual-use, si genererebbero:

Queste risorse permetterebbero di finanziare una vera e propria strategia nazionale per l’IA duale, applicabile in ambiti ad alta rilevanza civile e strategica, quali ad esempio:

  • cybersicurezza e sorveglianza predittiva delle infrastrutture critiche;

  • digital twin e manutenzione predittiva di reti e opere pubbliche;

  • logistica di emergenza e sanità pubblica;

  • robotica collaborativa e droni autonomi;

  • protezione ambientale e risposta a eventi climatici estremi;

  • sviluppo del nucleare sostenibile, con IA per la sicurezza fisica e logica degli SMR/AMR e la progettazione di microreattori modulari a uso sia civile che militare (es. per basi isolate, difesa e resilienza energetica).

Una proposta per il Governo: un gruppo di lavoro indipendente

Per trasformare questa visione in azione, si potrebbe istituire presso la Presidenza del Consiglio dei Ministri un gruppo di lavoro interdisciplinare indipendente, composto da esperti di IA, energia, difesa, sicurezza, industria, diritto e finanza pubblica.

Assistenza e consulenza

per acquisto in asta

 

Questo gruppo dovrebbe avere il compito, tra l’altro, di:

  • predisporre un piano operativo per l’utilizzo dell’IA in applicazioni duali;

  • valutare l’impatto industriale, occupazionale, ambientale e strategico;

  • proporre meccanismi di finanziamento e partnership pubblico-private;

  • definire roadmap tecnologiche e priorità progettuali di sistema.

Una tale iniziativa consentirebbe all’Italia di iniziare ad allinearsi, anche in termini di risorse, ai più avanzati standard internazionali, promuovendo al contempo una visione integrata e lungimirante che coniughi innovazione, sicurezza e sviluppo sostenibile.

Conclusioni

La prossima Legge sull’Intelligenza Artificiale rappresenta un passo importante per il nostro Paese. Ma da solo non basta. Per cogliere davvero le opportunità dell’IA – e affrontarne i rischi – serve un piano strategico nazionale supportato da risorse adeguate, governance efficace e progettualità trasversali. Investire in applicazioni duali può trasformare una necessità – l’aumento delle spese per la sicurezza – in una leva per la crescita civile, industriale e tecnologica dell’Italia. È questa la sfida che abbiamo davanti. Ed è una sfida che non possiamo permetterci di perdere.

* Luca Manuelli è Docente di Intelligenza Artificiale e Direttore dell’Osservatorio GAILIH (GenAI Learning and Innovation Hub), UniMarconi



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Aste immobiliari

 il tuo prossimo grande affare ti aspetta!

 

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Dilazioni debiti fiscali

Assistenza fiscale