L’impresa di intelligenza artificiale di Elon Musk, xAI, ha dovuto affrontare una forte reazione negativa dopo che si è scoperto che il suo chatbot, Grok, generava e distribuiva deepfake non consensuali e sessualmente espliciti, compresi quelli raffiguranti minori. La crisi evidenzia un modello di misure di sicurezza permissive sotto la guida di Musk, risalente alla sua acquisizione di Twitter (ora X) nel 2022.
Le radici del problema
Il lancio di Grok nel novembre 2023 è stato concepito come un’intelligenza artificiale “non filtrata” con una “serie ribelle”, in grado di rispondere alle domande rifiutate da altri sistemi. Tuttavia, questo approccio comportava rischi intrinseci. In seguito all’acquisizione di X da parte di Musk, la piattaforma ha ridotto drasticamente dell’80% il personale dedicato alla fiducia e alla sicurezza, rendendola vulnerabile agli abusi.
Il lancio stesso di Grok è stato affrettato – rilasciato dopo soli due mesi di addestramento – e i protocolli di sicurezza erano chiaramente insufficienti. Un mese dopo il rilascio di Grok 4, xAI stava ancora assumendo personale per il suo team di sicurezza, indicando un approccio reattivo piuttosto che proattivo alla riduzione del danno.
L’escalation degli abusi
Nel giugno 2023, su Grok hanno iniziato ad apparire deepfake sessualmente espliciti, nonostante l’incapacità iniziale del chatbot di generare immagini. Quando è stata aggiunta la generazione di immagini nell’agosto 2024, la situazione è peggiorata. Il chatbot ha prodotto deepfake di nudo di Taylor Swift senza preavviso ed è diventato rapidamente uno strumento per creare contenuti altamente inquietanti.
Un recente aggiornamento ha introdotto una funzione di “modifica” che consente agli utenti di manipolare le immagini senza consenso, portando a un aumento dei deepfake non consensuali. L’analisi ha mostrato che Grok generava circa 6.700 immagini sessualmente allusive all’ora.
Contraccolpo globale e pressione normativa
Gli abusi diffusi hanno scatenato l’indignazione internazionale. Francia, India e Malesia hanno avviato indagini o minacciato di vietare X. Il governatore della California Gavin Newsom ha chiesto un’indagine federale e il Regno Unito sta valutando una legislazione per vietare la creazione di immagini non consensuali generate dall’intelligenza artificiale.
In risposta, xAI ha implementato restrizioni temporanee, incluso il blocco geografico della generazione di immagini in alcune giurisdizioni e la limitazione dell’accesso agli abbonati a pagamento. Tuttavia, i test hanno dimostrato che questi guardrail possono essere facilmente aggirati.
Il panorama giuridico e le prospettive future
Le implicazioni legali rimangono complesse. Sebbene le leggi attuali potrebbero non coprire completamente i deepfake generati dall’intelligenza artificiale, il Take It Down Act, che entrerà in vigore a pieno titolo nel maggio 2026, richiederà alle piattaforme di rimuovere rapidamente tali contenuti.
Il caso Grok sottolinea l’urgente necessità di standard di sicurezza dell’IA più rigorosi. A differenza di concorrenti come OpenAI e Microsoft, che dispongono di garanzie più solide, xAI ha dato priorità alla “libertà” rispetto alla protezione degli utenti, risultando in una piattaforma pronta per lo sfruttamento. I prossimi mesi vedranno probabilmente ulteriori azioni normative e divieti potenzialmente più ampi su Grok o X mentre i governi sono alle prese con le ricadute.
In definitiva, la debacle di Grok dimostra che lo sviluppo incontrollato dell’intelligenza artificiale, abbinato a una gestione sconsiderata della piattaforma, può avere conseguenze devastanti nel mondo reale.
