La minaccia più urgente per l’IA non sono i robot killer o la sorveglianza di massa: è l’ondata di criminalità informatica sofisticata resa possibile dall’intelligenza artificiale generativa. Ciò è già costato agli americani 16,6 miliardi di dollari nel 2024, un aumento del 33% su base annua e un raddoppio delle perdite in tre anni. La cifra reale è probabilmente più alta, poiché meno del 20% delle vittime denunciano truffe.
Il nuovo volto del crimine informatico
Le recenti discussioni al vertice Crosscurrent dell’Aspen Institute hanno rivelato una tendenza agghiacciante: gli agenti nordcoreani stanno utilizzando sovrapposizioni di volti generate dall’intelligenza artificiale per superare colloqui di lavoro a distanza presso aziende tecnologiche occidentali. Questi agenti svolgono quindi più posizioni contemporaneamente, incanalando salari e informazioni a Pyongyang. Sfruttano l’intelligenza artificiale per creare curriculum, preparare colloqui e impersonare in modo convincente candidati legittimi.
Non si tratta solo di furto finanziario; è una nuova forma di spionaggio sponsorizzato dallo stato. La capacità di infiltrarsi nelle aziende senza essere scoperti rappresenta un rischio significativo per la sicurezza, ma non viene trattato con la stessa urgenza delle minacce IA più sensazionali.
L’intelligenza artificiale generativa potenzia la frode
Il problema sta accelerando. L’intelligenza artificiale generativa rende il crimine informatico più veloce, più economico e più convincente che mai. Le e-mail di phishing sono ora indistinguibili dalle comunicazioni legittime, grazie ai modelli linguistici basati sull’intelligenza artificiale. Le identità sintetiche, complete di foto e sfondi fittizi, vengono create facilmente, consentendo ai truffatori di aggirare i sistemi di verifica dell’identità.
La clonazione vocale ha già portato a rapine multimilionarie. In un caso, un impiegato finanziario della Arup di Hong Kong ha trasferito 25 milioni di dollari dopo una videochiamata deepfake con il direttore finanziario e i colleghi dell’azienda. Tutti i partecipanti erano falsi generati dall’intelligenza artificiale. Il Global Threat Report 2026 di CrowdStrike ha rilevato che gli attacchi basati sull’intelligenza artificiale sono aumentati dell’89% su base annua, con una violazione media che si è diffusa in una rete in meno di 30 secondi.
Perché è importante
La criminalità informatica non è una novità, ma la portata e la sofisticazione non hanno precedenti. L’industrializzazione delle operazioni di truffa nel sud-est asiatico, unita all’aumento delle criptovalute e del lavoro a distanza, ha creato una tempesta perfetta. Deloitte prevede che le perdite legate alle frodi generate dall’intelligenza artificiale negli Stati Uniti potrebbero raggiungere i 40 miliardi di dollari entro il 2027.
La manipolazione emotiva è particolarmente pericolosa. Le truffe romantiche, che spesso prendono di mira individui vulnerabili, stanno diventando più convincenti con l’assistenza dell’intelligenza artificiale. Le vittime spesso rifiutano di credere di essere state truffate anche quando vengono presentate prove evidenti.
Difesa contro attacco
Mentre le istituzioni finanziarie e le forze dell’ordine stanno impiegando l’intelligenza artificiale per combattere le frodi (l’FBI ha congelato centinaia di milioni di fondi rubati lo scorso anno), il consenso tra gli esperti è cupo. Rob Joyce, ex direttore della sicurezza informatica della NSA, avverte che stiamo entrando in un periodo in cui l’offesa supera di gran lunga la difesa. Alice Marwick, direttrice della ricerca presso Data & Society, fa eco a questo pessimismo.
Il problema è aggravato dalla sottostima e dalla normalizzazione. Le perdite record di ogni anno vengono assorbite come costo per fare affari online, oscurando la curva di irripidimento.
Il risultato finale
Le truffe basate sull’intelligenza artificiale rappresentano un pericolo chiaro e presente. A differenza dei rischi speculativi legati all’IA, questa minaccia è già qui, costa miliardi e sfrutta le vulnerabilità umane. La corsa tra attacco e difesa è fortemente sbilanciata a favore degli aggressori, e la portata del problema suggerisce che non potrà che peggiorare a meno che non vengano adottate contromisure significative.




























