La facilità d’uso delle piattaforme di deepfake amplia il rischio per aziende e istituzioni: dai colloqui di assunzione ai tentativi di frode bancaria, la sofisticazione degli attacchi cresce e richiede un ripensamento delle strategie di difesa.
La rapida evoluzione della GenAI ha permesso ai cybercriminali di aumentare l’efficacia delle proprie tattiche di attacco sfruttando, fra le altre cose, manipolazione audio, video e immagini. Parliamo del fenomeno universalmente noto come deepfake, che è ormai uno strumento ordinario nel repertorio di chi compromette aziende e organizzazioni per profitto.
Trend Micro ha pubblicato una ricerca al riguardo, che è importante per fotografare la portata delle attività legate ai deepfake nel cybercrime e che accende i riflettori su un dato interessante: ad agevolare questa minaccia è la bassa barriera tecnica, ossia il fatto che le piattaforme di AI non richiedo più competenze avanzate. Strumenti facilmente reperibili consentono di generare file audio, immagini e video pronti all’uso, spesso indistinguibili dal materiale autentico. Questi artefatti vengono sfruttati per simulare identità, comunicazioni o eventi in maniera sempre più efficace. Proprio per uqesti motivi è possibile concludere che il panorama delle tecnologie di deepfake è ormai maturo e diffuso, tanto da essere ormai un elemento stabile nelle dinamiche di attacco.
Uno degli aspetti più rilevanti messi in luce da Trend Micro riguarda proprio gli impatti sulle aziende. La celebre truffa del CEO si riconferma una delle pratiche più efficaci: gli attaccanti impersonano alti dirigenti durante riunioni o comunicazioni in tempo reale. I controlli tradizionali, basati su procedure automatizzate o controlli visivi, sono spesso inefficaci con questo tipo di attacchi. Come accennato sopra, uno dei settori più colpiti è l’HR: candidati fittizi, in grado di superare i colloqui grazie a deepfake vocali e video, si infiltrano nei processi di assunzione ottenendo ruoli chiave o accessi privilegiati ai dati interni dell’azienda.
Nel settore finanziario, invece, i tentativi di utilizzo di deepfake si concentrano sull’elusione delle procedure per la prevenzione del riciclaggio e l’uso illecito di servizi finanziari. Video manipolati e immagini sintetiche permettono di creare identità completamente false o di mascherare la vera identità di chi accede a conti o strumenti di pagamento.
Uno degli elementi più preoccupanti, emerso dal monitoraggio degli ambienti underground, riguarda la crescente offerta di tutorial, toolkit e servizi pronti all’uso progettati per abbassare ancora di più le competenze necessarie a orchestrare attacchi sofisticati. Manuali dettagliati spiegano, passo dopo passo, come aggirare i sistemi di onboarding dei diversi settori; strumenti plug-and-play agevolano la creazione, modifica e scambio di volti digitali in pochi minuti.
Come si gestisce un rischio del genere? Gli esperti consigliano di agire su più livelli: rivalutare i processi di autenticazione, adottare contromisure per il rilevamento dei media sintetici e implementare percorsi formativi interni per aumentare la consapevolezza dei rischi. Solo
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link