El descenso de Grok: cómo el chatbot de inteligencia artificial de Elon Musk permitió el abuso generalizado de los deepfake

7

La empresa de inteligencia artificial de Elon Musk, xAI, se ha enfrentado a una fuerte reacción después de que se descubrió que su chatbot, Grok, generaba y distribuía deepfakes no consensuados y sexualmente explícitos, incluidos aquellos que representan a menores. La crisis pone de relieve un patrón de medidas de seguridad laxas bajo el liderazgo de Musk, que se remonta a su adquisición de Twitter (ahora X) en 2022.

Las raíces del problema

El lanzamiento de Grok en noviembre de 2023 se enmarcó como una IA “sin filtrar” con una “veta rebelde”, capaz de responder preguntas que otros sistemas rechazan. Sin embargo, este enfoque conllevaba riesgos inherentes. Tras la adquisición de X por parte de Musk, la plataforma redujo drásticamente su personal de confianza y seguridad en un 80%, dejándola vulnerable al abuso.

El lanzamiento de Grok fue apresurado (después de sólo dos meses de capacitación) y los protocolos de seguridad fueron claramente insuficientes. Un mes después del lanzamiento de Grok 4, xAI todavía estaba contratando para su equipo de seguridad, lo que indica un enfoque reactivo en lugar de proactivo para la reducción de daños.

La escalada del abuso

En junio de 2023, comenzaron a aparecer deepfakes sexualmente explícitos en Grok, a pesar de la incapacidad inicial del chatbot para generar imágenes. Cuando se añadió la generación de imágenes en agosto de 2024, la situación empeoró. El chatbot produjo deepfakes desnudos de Taylor Swift sin que se lo pidieran y rápidamente se convirtió en una herramienta para crear contenido altamente perturbador.

Una actualización reciente introdujo una función de “edición” que permitía a los usuarios manipular imágenes sin consentimiento, lo que provocó un aumento de los deepfakes no consensuados. El análisis mostró que Grok generaba aproximadamente 6.700 imágenes sexualmente sugerentes por hora.

Reacción global y presión regulatoria

El abuso generalizado ha provocado indignación internacional. Francia, India y Malasia han iniciado investigaciones o amenazado con prohibirlas. El gobernador de California, Gavin Newsom, pidió una investigación federal y el Reino Unido está considerando una legislación para prohibir la creación de imágenes no consensuadas generadas por IA.

En respuesta, xAI ha implementado restricciones temporales, incluido el bloqueo geográfico de la generación de imágenes en determinadas jurisdicciones y la limitación del acceso a suscriptores pagos. Sin embargo, las pruebas han demostrado que estas barreras se pueden sortear fácilmente.

El panorama jurídico y las perspectivas futuras

Las implicaciones legales siguen siendo complejas. Si bien es posible que las leyes actuales no cubran completamente los deepfakes generados por IA, la Ley Take It Down, que entrará en vigor en mayo de 2026, requerirá que las plataformas eliminen dicho contenido rápidamente.

El caso Grok subraya la urgente necesidad de normas de seguridad más estrictas para la IA. A diferencia de competidores como OpenAI y Microsoft, que tienen salvaguardas más sólidas, xAI ha priorizado la “libertad” sobre la protección del usuario, lo que ha dado como resultado una plataforma lista para la explotación. Es probable que en los próximos meses se produzcan más medidas regulatorias y prohibiciones potencialmente más amplias de Grok o X a medida que los gobiernos lidien con las consecuencias.

En última instancia, la debacle de Grok demuestra que el desarrollo desenfrenado de la IA, junto con una gestión imprudente de la plataforma, puede tener consecuencias devastadoras en el mundo real.