La amenaza más apremiante de la IA no son los robots asesinos ni la vigilancia masiva, sino el aumento de los delitos cibernéticos sofisticados permitidos por la IA generativa. Esto ya les ha costado a los estadounidenses 16.600 millones de dólares en 2024, un aumento interanual del 33% y una duplicación de las pérdidas en tres años. La cifra real probablemente sea mayor, ya que menos del 20% de las víctimas denuncian estafas.
La nueva cara del cibercrimen
Debates recientes en la cumbre Crosscurrent del Instituto Aspen revelaron una tendencia escalofriante: los agentes norcoreanos están utilizando superposiciones faciales generadas por IA para pasar entrevistas de trabajo remotas en empresas de tecnología occidentales. Estos agentes luego trabajan en múltiples puestos simultáneamente, canalizando salarios e inteligencia de regreso a Pyongyang. Aprovechan la IA para fabricar currículums, prepararse para entrevistas y hacerse pasar por candidatos legítimos de manera convincente.
No se trata sólo de robo financiero; es una nueva forma de espionaje patrocinado por el estado. La capacidad de infiltrarse en empresas sin ser detectado es un riesgo de seguridad importante, pero no se trata con la misma urgencia que las amenazas de IA más sensacionales.
Fraude sobrealimentado por la IA generativa
El problema se está acelerando. La IA generativa hace que el ciberdelito sea más rápido, más barato y más convincente que nunca. Los correos electrónicos de phishing ahora son indistinguibles de las comunicaciones legítimas, gracias a los modelos de lenguaje basados en inteligencia artificial. Las identidades sintéticas (completas con fotografías y fondos inventados) se crean fácilmente, lo que permite a los estafadores eludir los sistemas de verificación de identidad.
La clonación de voces ya ha dado lugar a atracos multimillonarios. En un caso, un trabajador financiero de Arup en Hong Kong transfirió 25 millones de dólares después de una videollamada falsa en la que participaron el director financiero de la empresa y sus colegas. Todos los participantes eran falsificaciones generadas por IA. El Informe de amenazas globales 2026 de CrowdStrike encontró que los ataques habilitados por IA aumentaron un 89% año tras año, y la brecha promedio se propagó por una red en menos de 30 segundos.
Por qué esto es importante
El ciberdelito no es nuevo, pero su escala y sofisticación no tienen precedentes. La industrialización de las operaciones fraudulentas en el sudeste asiático, junto con el auge de las criptomonedas y el trabajo remoto, ha creado una tormenta perfecta. Deloitte proyecta que las pérdidas por fraude generado gracias a la IA en EE. UU. podrían alcanzar 40 mil millones de dólares para 2027.
La manipulación emocional es particularmente peligrosa. Las estafas románticas, que a menudo apuntan a personas vulnerables, se están volviendo más persuasivas con la ayuda de la IA. Las víctimas frecuentemente se niegan a creer que han sido estafadas incluso cuando se les presentan pruebas claras.
Defensa versus ofensiva
Si bien las instituciones financieras y las fuerzas del orden están implementando IA para combatir el fraude (el FBI congeló cientos de millones en fondos robados el año pasado), el consenso entre los expertos es desalentador. Rob Joyce, ex director de ciberseguridad de la NSA, advierte que estamos entrando en un período en el que la ofensiva supera con creces a la defensa. Alice Marwick, directora de investigación de Data & Society, se hace eco de este pesimismo.
El problema se ve agravado por la subregistro y la normalización. Las pérdidas récord de cada año se absorben como el costo de hacer negocios en línea, oscureciendo la curva cada vez más pronunciada.
El resultado final
Las estafas impulsadas por IA son un peligro claro y presente. A diferencia de los riesgos especulativos de la IA, esta amenaza ya está aquí, cuesta miles de millones y explota las vulnerabilidades humanas. La carrera entre ataque y defensa está muy sesgada a favor de los atacantes, y la magnitud del problema sugiere que sólo empeorará a menos que se implementen contramedidas significativas.



























