Sora de OpenAI: El amanecer de las redes sociales generadas por IA

19

OpenAI ha lanzado Sora, una nueva aplicación de redes sociales impulsada por su último modelo de generación de videos con IA, Sora 2. La premisa principal de la aplicación es simple: una plataforma similar a TikTok completamente poblada con contenido generado por IA. Esto marca un cambio significativo para OpenAI, lo que plantea la cuestión de si los usuarios adoptarán un feed social lleno exclusivamente de vídeos sintéticos.

Una interfaz familiar, un núcleo inquietante

La interfaz de Sora imita las aplicaciones de redes sociales existentes y presenta un feed algorítmico “Para ti” con funciones de me gusta, comentarios y compartir. Los usuarios también pueden filtrar contenido según su estado de ánimo. Sin embargo, detrás de este diseño familiar se esconde la inquietante realidad de que cada vídeo es creado por IA. La característica destacada de la aplicación, Cameos, permite a los usuarios cargar su imagen y permitir que otros la usen en videos de IA.

El director ejecutivo de OpenAI, Sam Altman, se ha convertido en un tema frecuente de estos deepfakes generados por IA. Los usuarios han creado vídeos que lo representan en escenarios absurdos (incluidos arrestos, confesiones y actos físicos extraños), todos ellos representados con un realismo sorprendente. Si bien la calidad de Sora 2 es lo suficientemente alta como para hacer creíbles estos escenarios, la decisión de OpenAI de permitir dicho contenido es, en el mejor de los casos, una estrategia de marketing cuestionable.

Sora 2: un salto en la generación de vídeos con IA

Sora 2 representa un avance significativo en las capacidades de video de IA. A diferencia de los modelos anteriores, destaca en la generación de diálogos y requiere una secuencia de comandos mínima para obtener resultados coherentes. Un mensaje simple como “Altman canta una balada sobre los costos de inferencia” producirá una canción completa escrita por IA. El modelo actualizado también maneja indicaciones complejas de manera más efectiva, aunque la generación de video aún demora entre 2 y 5 minutos por clip.

A pesar de los filtros de moderación destinados a bloquear imágenes de celebridades, los usuarios han encontrado soluciones. Un vídeo muestra a Altman en un campo con Pikachu, una clara violación de los derechos de autor y una posible responsabilidad legal para OpenAI.

Las líneas borrosas de la realidad

El aspecto más sorprendente de los vídeos de Sora es que no se distinguen del contenido generado por humanos. Las señales sutiles, como cortes de salto extraños o una piel demasiado perfecta, son los únicos indicios. El audio es claro, el texto no contiene errores y la calidad general es engañosamente realista. Esto plantea serias preocupaciones sobre la difusión de información errónea y la erosión de la confianza en los medios en línea.

Si bien algunos contenidos generados por IA entran en la categoría de “desechos” (vídeos inútiles y de baja calidad), Sora 2 produce resultados de mayor calidad. Sin embargo, todavía contribuye al creciente mar de contenido inútil generado por IA que fácilmente puede malinterpretarse como realidad.

La trampa de la interacción con la IA

El diseño de Sora fomenta el desplazamiento y la participación sin sentido, similar a otras plataformas de redes sociales adictivas. Los usuarios pueden perder fácilmente horas navegando por vídeos generados por IA sin ninguna recompensa tangible, excepto quizás una distracción momentánea. La falta de herramientas de edición de la aplicación refuerza aún más este ciclo; regenerar vídeos es la única forma de realizar cambios, un proceso lento y frustrante.

OpenAI afirma que la aplicación tiene como objetivo fomentar la conexión humana, pero la experiencia parece más aislante y desorientadora. La función Cameo de Sora, que pretende ser divertida, está propicia para el abuso. Si bien los usuarios pueden optar por no utilizar su imagen, el principal atractivo de la aplicación radica en la creación de deepfakes extraños y potencialmente maliciosos.

Un futuro de realidad sintética

Los vídeos de Sora incluyen marcas de agua y exenciones de responsabilidad sobre metadatos, pero en una era de confianza cada vez menor, es poco probable que estas salvaguardas disuadan el uso indebido. La aplicación destaca la controversia más amplia que rodea a la generación de medios de IA, pero OpenAI persiste en traspasar los límites del contenido sintético.

Queda por ver si Sora representa un experimento inofensivo o un paso peligroso hacia un paisaje social totalmente artificial. Por ahora, constituye un crudo recordatorio del poder (y los peligros potenciales) de la IA en la era de las redes sociales.