Contributi e agevolazioni

per le imprese

 

Colmare il divario normativo sull’AI, bilanciando innovazione e sicurezza


Darren Thomson, Field CTO EMEAI di Commvault, spiega perché solo bilanciando l’innovazione con la sicurezza le aziende possono proteggersi dai lati negativi dell’AI.

La tua casa dei sogni ti aspetta

partecipa alle aste immobiliari!

 

La corsa globale all’AI si sta intensificando con nuovi sviluppi ogni settimana. Nonostante i tentativi di definire un approccio unitario con la pubblicazione dell’International AI Safety Report, i Paesi di tutto il mondo continuano a competere per la leadership.

Il nuovo governo statunitense si è mosso rapidamente annunciando 500 miliardi di dollari di investimentidel settore privato nel Project Stargate per costruire infrastrutture avanzate per l’AI, con il supporto di realtà di primo piano, tra cui OpenAI, Oracle e Softbank.

Questo annuncio era stato anticipato dal lancio nel Regno Unito dell’AI Opportunities Action Plan, beneficiario di un finanziamento di 14 miliardi di sterline da parte di principali aziende tecnologiche.

Cresce il divario normativo

Darren Thomson, Field CTO EMEAI di Commvault
Darren Thomson, Field CTO EMEAI di Commvault

In realtà, mentre il Regno Unito e gli Stati Uniti stabiliscono piani aggressivi per la crescita, il divario tra gli approcci normativi si sta ampliando. Il governo statunitense ha rapidamente revocato il suo precedente ordine esecutivo che avrebbe dovuto proteggere dai rischi che l’AI poneva a consumatori e sicurezza nazionale, che richiedeva importanti comunicazioni sulla protezione riguardanti lo sviluppo. L’inversione di rotta sottolinea l’impegno della nuova amministrazione a dare priorità all’innovazione rispetto ad aspetti come sicurezza, privacy e parzialità, considerati barriere al progresso.

Su una falsariga simile, il Regno Unito sta mantenendo un approccio più leggero alla governance rispetto all’UE. Il suo AI Action Plan stabilisce una visione ideale per il futuro, ma, probabilmente, con un’insufficiente supervisione normativa. Ciò potrebbe potenzialmente esporre il Regno Unito a minacce cyber e minare la fiducia del pubblico nei sistemi di intelligenza artificiale.

La tua casa è in procedura esecutiva?

sospendi la procedura con la legge sul sovraindebitamento

 

In netto contrasto, l’UE sta portando avanti il suo AI Act, un framework giuridico completo e vincolante che mette in primo piano regolamentazione dell’AI, trasparenza e prevenzione dei danni. Stabilisce obblighi inequivocabili per lo sviluppo e la diffusione dell’AI, tra cui l’obbligatorietà di valutazione dei rischi e sanzioni significative in caso di non conformità. In Italia, il Garante per la protezione dei dati personali ha già espresso preoccupazioni in merito all’uso indiscriminato dell’AI, avviando indagini su applicazioni come ChatGPT e sottolineando la necessità di un approccio prudente e rispettoso del GDPR.

Adattare i principi di sicurezza all’AI

Questa divergenza normativa sta creando un panorama complesso per le aziende che sviluppano e implementano sistemi di AI. La mancata coerenza crea condizioni di concorrenza ineguali e, presumibilmente, le basi per un futuro alimentato dall’AI, ma anche più rischioso.
Le aziende saranno chiamate a identificare un modo per bilanciare innovazione e mitigazione del rischio, adottando solide misure di cybersecurity e adattandole specificamente alle esigenze emergenti dell’AI. Le aree che già destano preoccupazione includono l’avvelenamento dei dati e la catena di approvvigionamento dei dati.

Avvelenamento dei modelli di dati

L’avvelenamento dei dati, in cui i malintenzionati manipolano deliberatamente le informazioni di addestramento per alterare le prestazioni dei modelli, sarà un rischio particolarmente rilevante per l’AI. Potrebbero essere modifiche sottili difficili da identificare, lievi cambiamenti sufficienti a generare risultati errati. Oppure gli attaccanti potrebbero alterare il codice al fine di poter rimanere nascosti all’interno del modello e ottenere il controllo continuo sul suo comportamento. Tale manomissione, inizialmente impercettibile, potrebbe compromettere lentamente un’azienda nel tempo, portando a decisioni sbagliate e alla rovina finanziaria. Oppure, se motivata politicamente, potrebbe promuovere pregiudizi e influenzare i comportamenti.

La natura stessa di questi attacchi, in cui i dati errati si fondono perfettamente con quelli legittimi, li rende difficili da rilevare fino a quando non è troppo tardi e il danno non può essere eliminato. Combattere l’avvelenamento delle informazioni richiede la loro solida convalida, il rilevamento di anomalie e il monitoraggio continuo dei set di dati per identificare e rimuovere le voci pericolose, poiché l’avvelenamento può essere perpetrato in qualsiasi fase. Può verificarsi durante la loro raccolta, iniettato successivamente nei repository o introdotto inavvertitamente da altre fonti infette.

Proteggere la supply chain dei dati

In prospettiva, è probabile che molte aziende dipendano da questi modelli per gestire la propria attività e operazioni quotidiane. Con i criminali che già sfruttano le capacità dell’AI per potenziare i propri attacchi, le conseguenze dell’ingresso di un’intelligenza artificiale malevola nell’ecosistema dei fornitori potrebbero essere catastrofiche, oltre che molto diffuse.

I responsabili aziendali dovranno disporre di difese forti per garantire la resilienza in tutta la loro catena di approvvigionamento e avere piani collaudati di ripristino in caso di emergenza. Ciò significa dare priorità alle applicazioni fondamentali e definire ciò che costituisce un’attività minima sostenibile e una postura di rischio accettabile. Solo allora possono essere certi che i backup critici possano essere ripristinati in modo rapido e completo in caso di compromissione.

Continua consapevolezza dei rischi

Sebbene l’AI offra un immenso potenziale di innovazione, è fondamentale considerare la sua implementazione con cautela. Le sue estese capacità comportano rischi altrettanto importanti, in particolare in termini di cybersecurity, privacy ed etica. Man mano che i modelli di AI si radicano all’interno nelle infrastrutture organizzative, la portata delle violazioni di sicurezza e degli abusi aumenterà drasticamente.

Mantenere protezioni affidabili, processi di sviluppo trasparenti e standard etici è fondamentale per mitigare questi rischi. Solo bilanciando l’innovazione con la mancanza assoluta di tolleranza per l’utilizzo improprio le aziende possono beneficiare in sicurezza dell’AI e proteggersi dai suoi pericolosi lati negativi. In parallelo, anche se sembra attualmente improbabile, una regolamentazione coordinata promossa dai governi rimane essenziale per stabilire framework applicabili per la sicurezza dell’AI in tutto il mondo.

Dilazioni debiti fiscali

Assistenza fiscale

 

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche





Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Mutuo 100% per acquisto in asta

assistenza e consulenza per acquisto immobili in asta