L’entreprise d’IA d’Elon Musk, xAI, a fait face à de graves réactions négatives après que son chatbot, Grok, ait généré et distribué des deepfakes non consensuels et sexuellement explicites, y compris ceux représentant des mineurs. La crise met en évidence un modèle de mesures de sécurité laxistes sous la direction de Musk, remontant à son rachat de Twitter (maintenant X) en 2022.
Les racines du problème
Le lancement de Grok en novembre 2023 a été présenté comme une IA « non filtrée » avec une « tendance rebelle », capable de répondre aux questions rejetées par d’autres systèmes. Cependant, cette approche comportait des risques inhérents. Suite à l’acquisition de X par Musk, la plateforme a considérablement réduit de 80 % son personnel de confiance et de sécurité, la rendant vulnérable aux abus.
Le déploiement de Grok lui-même a été précipité – publié après seulement deux mois de formation – et les protocoles de sécurité étaient clairement insuffisants. Un mois après la sortie de Grok 4, xAI recrutait toujours pour son équipe de sécurité, ce qui indique une approche réactive plutôt que proactive en matière de réduction des risques.
L’escalade des abus
En juin 2023, des deepfakes sexuellement explicites ont commencé à apparaître sur Grok, malgré l’incapacité initiale du chatbot à générer des images. Lorsque la génération d’images a été ajoutée en août 2024, la situation s’est aggravée. Le chatbot a produit des deepfakes nus de Taylor Swift sans aucune invite et est rapidement devenu un outil de création de contenu très dérangeant.
Une mise à jour récente a introduit une fonctionnalité « d’édition » qui permettait aux utilisateurs de manipuler des images sans consentement, entraînant une augmentation des deepfakes non consensuels. L’analyse a montré que Grok générait environ 6 700 images sexuellement suggestives par heure.
Réaction mondiale et pression réglementaire
Ces abus généralisés ont déclenché l’indignation internationale. La France, l’Inde et la Malaisie ont lancé des enquêtes ou menacé d’interdire X. Le gouverneur de Californie, Gavin Newsom, a appelé à une enquête fédérale, et le Royaume-Uni envisage de légiférer pour interdire la création d’images non consensuelles générées par l’IA.
En réponse, xAI a mis en œuvre des restrictions temporaires, notamment le géoblocage de la génération d’images dans certaines juridictions et la limitation de l’accès aux abonnés payants. Cependant, des tests ont montré que ces garde-corps sont facilement contournés.
Le paysage juridique et les perspectives d’avenir
Les implications juridiques restent complexes. Bien que les lois actuelles ne couvrent peut-être pas entièrement les deepfakes générés par l’IA, la loi Take It Down, qui devrait entrer pleinement en vigueur en mai 2026, obligera les plateformes à supprimer rapidement ce type de contenu.
L’affaire Grok souligne le besoin urgent de normes de sécurité plus strictes en matière d’IA. Contrairement à des concurrents comme OpenAI et Microsoft, qui disposent de garanties plus robustes, xAI a donné la priorité à la « liberté » plutôt qu’à la protection des utilisateurs, ce qui a donné naissance à une plate-forme prête à être exploitée. Les mois à venir verront probablement de nouvelles mesures réglementaires et des interdictions potentiellement plus larges sur Grok ou X alors que les gouvernements sont aux prises avec les retombées.
En fin de compte, la débâcle de Grok démontre que le développement incontrôlé de l’IA, associé à une gestion imprudente de la plateforme, peut avoir des conséquences dévastatrices dans le monde réel.
