Un intervento congiunto destinato a far discutere e ad alimentare il dibattito europeo sull’intelligenza artificiale. Christian Klein e Roland Busch, Ceo rispettivamente di SAP e Siemens, due colossi dell’IT e dell’Automazione Made in Europe, hanno affidato alle pagine del quotidiano tedesco Frankfurter Allgemeine Zeitung un monito senza compromessi: l’AI Act, il regolamento europeo sull’intelligenza artificiale, deve essere assolutamente rivisto.
Secondo i vertici di due dei più grandi colossi tecnologici e industriali del Vecchio continente l’attuale impianto normativo, concepito con un approccio orientato al divieto anziché alla promozione, rischia di trasformarsi in un freno a mano per l’innovazione, relegando l’Europa a un ruolo di secondo piano rispetto a Stati Uniti e Cina.
Un quadro normativo che frena l’innovazione
Klein e Busch descrivono l’attuale AI Act come un apparato burocratico eccessivamente complesso, che genera incertezza giuridica e impone oneri sproporzionati alle imprese. Invece di creare un ambiente favorevole allo sviluppo e all’adozione di nuove tecnologie, la normativa europea si concentrerebbe quasi esclusivamente sulla mitigazione dei rischi, adottando una prospettiva che i due manager definiscono “pessimistica”. Questo approccio, sostengono i due amministratori delegati, finisce col soffocare la competitività delle aziende europee, in particolare quella delle piccole e medie imprese, che non dispongono delle risorse necessarie per navigare un labirinto di obblighi di conformità e documentazione.
La preoccupazione non è però solo per le PMI. Anche due giganti come SAP e Siemens avvertono il peso di un regolamento che minaccia di classificare come “ad alto rischio” anche applicazioni software standard, come i sistemi di pianificazione delle risorse aziendali (ERP) o le piattaforme per l’automazione industriale. Una simile etichettatura comporterebbe, per le Case produttrici, una serie di oneri aggiuntivi che finirebbero per rallentare lo sviluppo e la diffusione di tecnologie fondamentali per la digitalizzazione del tessuto produttivo europeo.
L’effetto paradossale, mettono in guardia Klein e Busch, è che l’Europa rischia di auto-sabotare la propria leadership in settori dove è storicamente forte, come l’ingegneria e il software aziendale. Un po’ come è accaduto nel settore Automotive.
L’AI Act e la sua inadeguatezza per l’era generativa
Un altro punto fondamentale sollevato dai due amministratori delegati riguarda il tempismo e la concezione stessa della legge. L’AI Act è stato ideato e strutturato prima dell’esplosione dell’intelligenza artificiale generativa, il fenomeno che ha portato tecnologie come i modelli linguistici di grandi dimensioni all’attenzione del grande pubblico e delle imprese. La struttura del regolamento, basata su categorie di rischio predefinite, si dimostra inadeguata a governare una tecnologia in così rapida e imprevedibile evoluzione. Tentare di imbrigliare l’AI generativa con regole pensate per un’era tecnologica precedente è un esercizio che, secondo Klein e Busch, è destinato a fallire e anche a danneggiare attivamente la capacità dell’Europa di partecipare a questa nuova frontiera dell’innovazione.
A essere criticata è la logica strutturale del regolamento, che si concentra sulla tecnologia di base anziché sulle sue specifiche applicazioni. Regolamentare un modello di intelligenza artificiale in astratto, senza considerare il contesto in cui viene impiegato, porta a censure illogiche. Un algoritmo utilizzato per suggerire musica in un’app di streaming non può essere soggetto allo stesso livello di controllo di uno impiegato nella diagnostica medica o nel controllo di infrastrutture critiche. Questa mancanza di granularità è uno dei difetti principali che, secondo i manager, richiede un ripensamento completo dell’architettura normativa.
La proposta: regolare le applicazioni, non la tecnologia
Klein e Busch avanzano quindi una proposta alternativa chiara e pragmatica. L’Europa dovrebbe abbandonare l’idea di regolare la tecnologia dell’intelligenza artificiale in sé e concentrarsi invece sulla regolamentazione delle sue applicazioni concrete, settore per settore. Integrare cioè i requisiti di sicurezza e affidabilità dell’AI all’interno delle normative già esistenti per i diversi ambiti industriali: automotive, dispositivi medici, finanza, energia. Un approccio di questo tipo – simile se vogliamo a quello del nuovo Regolamento Macchine – avrebbe il duplice vantaggio di essere più efficace, perché calato nelle specificità di ogni settore, e di ridurre la burocrazia, evitando di creare un nuovo, monolitico strato normativo.
Una visione che si accompagna alla richiesta di istituire profili di responsabilità chiari e di promuovere attivamente i cosiddetti “regulatory sandboxes”, spazi di sperimentazione controllata dove le aziende possano testare soluzioni innovative in un ambiente giuridico sicuro, in collaborazione con le autorità di regolamentazione. L’obiettivo è passare da una mentalità che si chiede “cosa potrebbe andare storto?” a una che domanda “come possiamo abilitare il progresso in modo responsabile?”.
L’urgenza di un ecosistema europeo per l’intelligenza artificiale
Klein e Busch fanno poi una più ampia riflessione sulla sovranità digitale europea. Non si può pensare solo alla regolamentazione: senza l’accesso a dati di alta qualità, a una potenza di calcolo adeguata e a capitali a disposizione degli investimenti, l’Europa non potrà mai sviluppare un proprio ecosistema di intelligenza artificiale capace di competere con quello americano e cinese.
La richiesta è quindi anche un monito alla politica: servono investimenti strategici in infrastrutture digitali e un mercato unico dei capitali più dinamico, capace di finanziare le startup e gli scale-up che stanno lavorando sull’AI.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link