Sora van OpenAI: het begin van door AI gegenereerde sociale media

22

OpenAI heeft Sora gelanceerd, een nieuwe sociale-mediatoepassing die wordt aangedreven door het nieuwste AI-videogeneratiemodel, Sora 2. Het uitgangspunt van de app is simpel: een TikTok-achtig platform dat volledig is gevuld met door AI gegenereerde inhoud. Dit markeert een belangrijke stap voor OpenAI, waardoor de vraag rijst of gebruikers een sociale feed zullen omarmen die uitsluitend gevuld is met synthetische video’s.

Een vertrouwde interface, een verontrustende kern

De interface van Sora bootst bestaande sociale-media-apps na, met een algoritmische “For You”-feed met like-, commentaar- en deelfunctionaliteit. Gebruikers kunnen inhoud ook filteren op basis van stemming. Onder dit vertrouwde ontwerp schuilt echter de verontrustende realiteit dat elke video door AI is gemaakt. Met de opvallende functie van de app, Cameos, kunnen gebruikers hun beeltenis uploaden en anderen toestaan ​​deze in AI-video’s te gebruiken.

OpenAI-CEO Sam Altman is een veelvuldig onderwerp geworden van deze door AI gegenereerde deepfakes. Gebruikers hebben video’s gemaakt waarin hij wordt afgebeeld in absurde scenario’s – inclusief arrestaties, bekentenissen en bizarre fysieke handelingen – allemaal weergegeven met een verrassend realisme. Hoewel de kwaliteit van Sora 2 hoog genoeg is om deze scenario’s geloofwaardig te maken, is de beslissing van OpenAI om dergelijke inhoud toe te staan ​​op zijn best een twijfelachtige marketingstrategie.

Sora 2: een sprong in het genereren van AI-video’s

Sora 2 vertegenwoordigt een aanzienlijke vooruitgang in AI-videomogelijkheden. In tegenstelling tot eerdere modellen blinkt het uit in het genereren van dialogen, waarbij minimale scripting nodig is voor coherente resultaten. Een eenvoudige prompt als “Altman zingt een ballad over inferentiekosten” levert een compleet door AI geschreven nummer op. Het geüpgradede model verwerkt complexe aanwijzingen ook effectiever, hoewel het genereren van video’s nog steeds 2 tot 5 minuten per clip duurt.

Ondanks moderatiefilters die bedoeld zijn om gelijkenissen met beroemdheden te blokkeren, hebben gebruikers oplossingen gevonden. Eén video toont Altman in een veld met Pikachu, een duidelijke schending van het auteursrecht en een mogelijke wettelijke aansprakelijkheid voor OpenAI.

De vervagende lijnen van de werkelijkheid

Het meest opvallende aspect van Sora-video’s is dat ze niet te onderscheiden zijn van door mensen gegenereerde inhoud. Subtiele aanwijzingen zoals vreemde jump-cuts of een te perfecte huid zijn de enige weggeefacties. De audio is helder, de tekst is foutloos en de algehele kwaliteit is bedrieglijk realistisch. Dit roept ernstige zorgen op over de verspreiding van desinformatie en de erosie van het vertrouwen in onlinemedia.

Hoewel sommige door AI gegenereerde inhoud in de categorie ‘slop’ valt – zinloze video’s van lage kwaliteit – levert Sora 2 resultaten van hogere kwaliteit. Het draagt ​​echter nog steeds bij aan de groeiende zee van nutteloze, door AI gegenereerde inhoud die gemakkelijk verkeerd kan worden geïnterpreteerd als realiteit.

De valkuil van AI-betrokkenheid

Het ontwerp van Sora moedigt gedachteloos scrollen en betrokkenheid aan, vergelijkbaar met andere verslavende sociale-mediaplatforms. Gebruikers kunnen gemakkelijk uren verliezen door door AI-gegenereerde video’s te bladeren zonder enige tastbare beloning, behalve misschien een tijdelijke afleiding. Het gebrek aan bewerkingstools van de app versterkt deze cyclus verder; het regenereren van video’s is de enige manier om wijzigingen aan te brengen, een langzaam en frustrerend proces.

OpenAI beweert dat de app de menselijke verbinding wil bevorderen, maar de ervaring voelt meer isolerend en desoriënterend aan. Sora’s Cameo-functie, bedoeld om speels te zijn, is rijp voor misbruik. Hoewel gebruikers zich kunnen afmelden voor het gebruik van hun beeltenis, ligt de kern van de aantrekkingskracht van de app in het creëren van vreemde en potentieel kwaadaardige deepfakes.

Een toekomst van synthetische realiteit

Sora-video’s bevatten watermerken en disclaimers voor metadata, maar in een tijdperk van afnemend vertrouwen is het onwaarschijnlijk dat deze waarborgen misbruik zullen tegengaan. De app benadrukt de bredere controverse rond AI-mediageneratie, maar OpenAI blijft de grenzen van synthetische inhoud verleggen.

Of Sora een onschuldig experiment vertegenwoordigt of een gevaarlijke stap in de richting van een volledig kunstmatig sociaal landschap valt nog te bezien. Voorlopig blijft het een grimmige herinnering aan de kracht – en potentiële gevaren – van AI in het tijdperk van sociale media.