OpenAI a lancé Sora, une nouvelle application de médias sociaux alimentée par son dernier modèle de génération de vidéo IA, Sora 2. Le principe de base de l’application est simple : une plate-forme de type TikTok entièrement remplie de contenu généré par l’IA. Cela marque un changement important pour OpenAI, soulevant la question de savoir si les utilisateurs adopteront un flux social exclusivement rempli de vidéos synthétiques.
Une interface familière, un noyau troublant
L’interface de Sora imite les applications de médias sociaux existantes, avec un flux algorithmique « Pour vous » avec des fonctionnalités « J’aime, commentaires et partage ». Les utilisateurs peuvent également filtrer le contenu en fonction de leur humeur. Cependant, derrière cette conception familière se cache la réalité troublante : chaque vidéo est créée par l’IA. La fonctionnalité remarquable de l’application, Cameos, permet aux utilisateurs de télécharger leur image et de permettre à d’autres de l’utiliser dans des vidéos IA.
Sam Altman, PDG d’OpenAI, est devenu un sujet fréquent de ces deepfakes générés par l’IA. Les utilisateurs ont créé des vidéos le représentant dans des scénarios absurdes – comprenant des arrestations, des aveux et des actes physiques bizarres – le tout rendu avec un réalisme surprenant. Bien que la qualité de Sora 2 soit suffisamment élevée pour rendre ces scénarios crédibles, la décision d’OpenAI d’autoriser un tel contenu est, au mieux, une stratégie marketing discutable.
Sora 2 : un bond en avant dans la génération de vidéos IA
Sora 2 représente une avancée significative dans les capacités vidéo de l’IA. Contrairement aux modèles précédents, il excelle dans la génération de dialogues, nécessitant un minimum de scripts pour des résultats cohérents. Une simple invite comme « Altman chante une ballade sur les coûts d’inférence » donnera une chanson complète écrite par l’IA. Le modèle mis à niveau gère également plus efficacement les invites complexes, même si la génération vidéo prend toujours 2 à 5 minutes par clip.
Malgré les filtres de modération destinés à bloquer les ressemblances avec des célébrités, les utilisateurs ont trouvé des solutions. Une vidéo montre Altman dans un champ avec Pikachu, une violation flagrante du droit d’auteur et une responsabilité légale potentielle pour OpenAI.
Les lignes floues de la réalité
L’aspect le plus frappant des vidéos Sora est qu’elles ne peuvent pas être distinguées du contenu généré par l’homme. Des indices subtils comme des coupes bizarres ou une peau trop parfaite sont les seuls indices. L’audio est clair, le texte est sans erreur et la qualité globale est d’un réalisme trompeur. Cela suscite de sérieuses inquiétudes quant à la propagation de la désinformation et à l’érosion de la confiance dans les médias en ligne.
Alors que certains contenus générés par l’IA entrent dans la catégorie des « slops » – des vidéos inutiles et de mauvaise qualité – Sora 2 produit des résultats de meilleure qualité. Cependant, cela contribue toujours à la mer croissante de contenus inutiles générés par l’IA qui peuvent facilement être interprétés à tort comme étant la réalité.
Le piège de l’engagement de l’IA
La conception de Sora encourage le défilement et l’engagement insensés, à l’instar d’autres plateformes de médias sociaux addictives. Les utilisateurs peuvent facilement perdre des heures à parcourir des vidéos générées par l’IA sans aucune récompense tangible, à l’exception peut-être d’une distraction momentanée. Le manque d’outils d’édition de l’application renforce encore ce cycle ; la régénération des vidéos est le seul moyen d’apporter des modifications, un processus lent et frustrant.
OpenAI affirme que l’application vise à favoriser la connexion humaine, mais l’expérience semble plus isolante et désorientante. La fonctionnalité Cameo de Sora, destinée à être ludique, est prête à être abusée. Bien que les utilisateurs puissent refuser que leur image soit utilisée, le principal attrait de l’application réside dans la création de deepfakes étranges et potentiellement malveillants.
Un avenir de réalité synthétique
Les vidéos Sora incluent des filigranes et des clauses de non-responsabilité concernant les métadonnées, mais à une époque de déclin de la confiance, il est peu probable que ces garanties dissuadent les abus. L’application met en lumière la controverse plus large entourant la génération de médias par l’IA, mais OpenAI persiste à repousser les limites du contenu synthétique.
Reste à savoir si Sora représente une expérience inoffensive ou une étape dangereuse vers un paysage social entièrement artificiel. Pour l’instant, cela constitue un rappel brutal du pouvoir – et des dangers potentiels – de l’IA à l’ère des médias sociaux.
