OpenAI’s Sora: Úsvit sociálních médií poháněných umělou inteligencí

26

OpenAI spustila Sora, novou aplikaci pro sociální média poháněnou jejím nejnovějším modelem pro generování videa AI, Sora 2. Základní myšlenka aplikace je jednoduchá: platforma podobná TikTok plná obsahu generovaného AI. To znamená významný odklon pro OpenAI, což vyvolává otázky, zda uživatelé přijmou zdroj vytvořený výhradně ze syntetických videí.

Známé rozhraní, rušivá esence

Rozhraní Sora napodobuje stávající aplikace sociálních médií a nabízí algoritmický zdroj „For You“ s funkcemi lajkování, komentáře a sdílení. Uživatelé mohou také filtrovat obsah podle své nálady. Pod tímto známým designem se však skrývá znepokojivá realita: každé video je vytvořeno umělou inteligencí. Hlavní funkcí aplikace jsou Cameos, které uživatelům umožňují nahrávat vlastní obrázky a umožňují ostatním je používat ve videích generovaných umělou inteligencí.

Generální ředitel OpenAI Sam Altman se stal častým cílem těchto deepfakes generovaných AI. Uživatelé vytvořili videa zachycující jej v absurdních scénářích – včetně zatčení, doznání a podivných fyzických akcí – vše provedeno s překvapivým realismem. Zatímco kvalita Sora 2 je dostatečně vysoká, aby tyto scénáře byly věrohodné, rozhodnutí OpenAI povolit takový obsah je přinejmenším sporná marketingová strategie.

Sora 2: Průlom v generování AI videa

Sora 2 představuje významný pokrok ve schopnostech AI videa. Na rozdíl od předchozích modelů vyniká v generování dialogů a vyžaduje minimální skriptování pro konzistentní výsledky. Jednoduchý dotaz jako „Altman zpívá baladu o nákladech na výpočetní techniku“ vrátí celou skladbu napsanou umělou inteligencí. Vylepšený model také efektivněji zpracovává složité dotazy, ačkoli generování videa stále trvá 2–5 minut na klip.

Navzdory filtrům moderování navrženým tak, aby blokovaly obrázky celebrit, uživatelé našli způsoby, jak je obejít. Jedno video ukazuje Altmana v poli s Pikachu, což je jasné porušení autorských práv a potenciální právní odpovědnost za OpenAI.

Rozostření hranic reality

Nejvýraznějším aspektem Soraových videí je jejich nerozlišitelnost od obsahu vytvořeného lidmi. Jemná vodítka, jako jsou podivné střihy nebo příliš dokonalá kůže, jsou jedinými vodítky. Zvuk je čistý, psaní je bezvadné a celková kvalita je klamně realistická. To vyvolává vážné obavy z šíření dezinformací a narušení důvěry v online média.

Zatímco některý obsah generovaný umělou inteligencí spadá do kategorie „junk“ – nekvalitní, nesmyslná videa – Sora 2 produkuje kvalitnější výsledky. To však stále přispívá k rostoucímu proudu zbytečného obsahu generovaného umělou inteligencí, který lze snadno zaměnit za realitu.

Past na zapojení AI

Design Sora podporuje bezduché posouvání a zapojení, podobně jako u jiných návykových platforem sociálních médií. Uživatelé mohou snadno ztratit hodiny sledováním videí generovaných umělou inteligencí bez jakékoli jiné hmatatelné výhody, než je možná chvilkové rozptýlení. Nedostatek nástrojů pro úpravy v aplikaci tento cyklus dále posiluje; jediný způsob, jak provést změny, je obnovit video, což je pomalý a frustrující proces.

OpenAI říká, že cílem aplikace je posílit mezilidské vztahy, ale tato zkušenost je více izolovaná a dezorientující. Funkce Cameo společnosti Sora, navržená tak, aby byla zábavná, je náchylná ke zneužití. I když se uživatelé mohou rozhodnout, že svůj obrázek nebudou používat, hlavní přitažlivost aplikace spočívá ve vytváření podivných a potenciálně škodlivých deepfakes.

Budoucnost syntetické reality

Videa Sora obsahují vodoznaky a metadata s prohlášením o vyloučení odpovědnosti, ale v éře klesající důvěry je nepravděpodobné, že by tyto záruky odradily od zneužití. Aplikace zdůrazňuje širší konverzaci o vytváření médií AI, ale OpenAI nadále posouvá hranice syntetického obsahu.

Zda Sora zůstane neškodným experimentem nebo nebezpečným krokem ke zcela umělé sociální krajině, se teprve uvidí. Prozatím slouží jako ostrá připomínka síly – a potenciálních nebezpečí – AI ve věku sociálních médií.