Golpes baseados em IA agora custam aos americanos US$ 16,6 bilhões anualmente

12

A ameaça mais premente da IA não são os robôs assassinos ou a vigilância em massa – é o aumento do crime cibernético sofisticado possibilitado pela IA generativa. Isto já custou aos americanos 16,6 mil milhões de dólares em 2024, um salto de 33% face ao ano anterior e uma duplicação das perdas em três anos. O número real é provavelmente maior, já que menos de 20% das vítimas denunciam fraudes.

A nova face do crime cibernético

Discussões recentes na cúpula Crosscurrent do Aspen Institute revelaram uma tendência assustadora: agentes norte-coreanos estão usando sobreposições faciais geradas por IA para passar em entrevistas de emprego remotas em empresas de tecnologia ocidentais. Esses agentes trabalham então em vários cargos simultaneamente, canalizando salários e informações de volta para Pyongyang. Eles aproveitam a IA para fabricar currículos, preparar entrevistas e se passar por candidatos legítimos de maneira convincente.

Não se trata apenas de roubo financeiro; é uma nova forma de espionagem patrocinada pelo Estado. A capacidade de infiltrar-se nas empresas sem ser detectada é um risco de segurança significativo, mas não está a ser tratada com a mesma urgência que as ameaças de IA mais sensacionais.

IA generativa sobrecarrega fraude

O problema está se acelerando. A IA generativa torna o crime cibernético mais rápido, mais barato e mais convincente do que nunca. Os e-mails de phishing agora são indistinguíveis das comunicações legítimas, graças aos modelos de linguagem baseados em IA. Identidades sintéticas – completas com fotos e planos de fundo fabricados – são facilmente criadas, permitindo que os fraudadores contornem os sistemas de verificação de identidade.

A clonagem de voz já resultou em assaltos multimilionários. Em um caso, um funcionário financeiro da Arup em Hong Kong transferiu US$ 25 milhões após uma videochamada falsa com o CFO da empresa e colegas. Todos os participantes eram falsos gerados por IA. O Relatório Global de Ameaças de 2026 da CrowdStrike descobriu que os ataques habilitados para IA aumentaram 89% ano após ano, com a violação média se espalhando por uma rede em menos de 30 segundos.

Por que isso é importante

O cibercrime não é novo, mas a escala e a sofisticação não têm precedentes. A industrialização das operações fraudulentas no Sudeste Asiático, juntamente com o aumento da criptomoeda e do trabalho remoto, criou uma tempestade perfeita. A Deloitte projeta que as perdas por fraudes geradas pela IA nos EUA poderão atingir US$ 40 bilhões até 2027.

A manipulação emocional é particularmente perigosa. Os golpes românticos, muitas vezes direcionados a indivíduos vulneráveis, estão se tornando mais persuasivos com a assistência da IA. As vítimas frequentemente se recusam a acreditar que foram enganadas, mesmo quando apresentadas a evidências claras.

Defesa vs. Ataque

Embora as instituições financeiras e as autoridades policiais estejam a implementar IA para combater a fraude (o FBI congelou centenas de milhões em fundos roubados no ano passado), o consenso entre os especialistas é sombrio. Rob Joyce, ex-diretor de segurança cibernética da NSA, alerta que estamos entrando em um período em que o ataque supera em muito a defesa. Alice Marwick, diretora de pesquisa da Data & Society, concorda com esse pessimismo.

O problema é agravado pela subnotificação e pela normalização. As perdas recordes de cada ano são absorvidas como custo de fazer negócios online, obscurecendo a curva cada vez mais acentuada.

O resultado final

Os golpes baseados em IA são um perigo claro e presente. Ao contrário dos riscos especulativos da IA, esta ameaça já existe, custando milhares de milhões e explorando vulnerabilidades humanas. A corrida entre o ataque e a defesa é fortemente distorcida a favor dos atacantes, e a escala do problema sugere que só irá piorar a menos que sejam implementadas contramedidas significativas.