OpenAI uruchomiło Sora, nową aplikację do mediów społecznościowych opartą na najnowszym modelu generowania wideo AI, Sora 2. Podstawowa idea aplikacji jest prosta: platforma przypominająca TikTok, wypełniona w całości treściami generowanymi przez sztuczną inteligencję. Oznacza to znaczące odejście od OpenAI i rodzi pytania o to, czy użytkownicy zaakceptują kanał składający się wyłącznie z syntetycznych filmów.
Znajomy interfejs, niepokojąca esencja
Interfejs Sory naśladuje istniejące aplikacje mediów społecznościowych, oferując algorytmiczny kanał „For You” z funkcjami polubienia, komentowania i udostępniania. Użytkownicy mogą także filtrować treści na podstawie swojego nastroju. Jednak pod tym znajomym projektem kryje się niepokojąca rzeczywistość: każdy film jest tworzony przez sztuczną inteligencję. Wyróżniającą się funkcją aplikacji są Cameos, które umożliwiają użytkownikom przesyłanie własnych zdjęć i pozwalają innym używać ich w filmach generowanych przez sztuczną inteligencję.
Dyrektor generalny OpenAI, Sam Altman, stał się częstym celem deepfakes generowanych przez sztuczną inteligencję. Użytkownicy stworzyli filmy przedstawiające go w absurdalnych sytuacjach – obejmujących aresztowania, zeznania i dziwne działania fizyczne – a wszystko to wykonane z zaskakującym realizmem. Chociaż jakość Sory 2 jest wystarczająco wysoka, aby usprawiedliwić te scenariusze, decyzja OpenAI o dopuszczeniu takiej zawartości jest, delikatnie mówiąc, wątpliwą strategią marketingową.
Sora 2: Przełom w generowaniu wideo AI
Sora 2 stanowi znaczący postęp w możliwościach wideo AI. W przeciwieństwie do poprzednich modeli, wyróżnia się generowaniem dialogów, wymagając minimalnej liczby skryptów, aby uzyskać spójne wyniki. Proste zapytanie, takie jak „Altman śpiewa balladę o kosztach komputerów” zwróci pełny utwór napisany przez sztuczną inteligencję. Ulepszony model skuteczniej obsługuje również złożone zapytania, chociaż generowanie wideo w dalszym ciągu zajmuje 2–5 minut na klip.
Pomimo filtrów moderacyjnych zaprojektowanych do blokowania wizerunków gwiazd, użytkownicy znaleźli sposoby na ich ominięcie. Jeden film pokazuje Altmana na polu z Pikachu, co stanowi wyraźne naruszenie praw autorskich i potencjalną odpowiedzialność prawną dla OpenAI.
Zacieranie granic rzeczywistości
Najbardziej uderzającym aspektem filmów Sory jest ich nieodróżnialność od treści stworzonych przez człowieka. Jedynymi wskazówkami są subtelne wskazówki, takie jak dziwne cięcia redakcyjne lub zbyt idealna skóra. Dźwięk jest wyraźny, tekst jest nienaganny, a ogólna jakość jest zwodniczo realistyczna. Budzi to poważne obawy dotyczące rozprzestrzeniania się dezinformacji i erozji zaufania do mediów internetowych.
Chociaż niektóre treści generowane przez sztuczną inteligencję należą do kategorii „śmieci” — filmów o niskiej jakości i pozbawionych znaczenia — Sora 2 zapewnia rezultaty wyższej jakości. Jednak nadal przyczynia się to do rosnącego strumienia bezużytecznych treści generowanych przez sztuczną inteligencję, które można łatwo pomylić z rzeczywistością.
Pułapka angażująca sztuczną inteligencję
Projekt Sory zachęca do bezmyślnego przewijania i zaangażowania, podobnie jak inne uzależniające platformy mediów społecznościowych. Użytkownicy mogą z łatwością tracić godziny na oglądaniu filmów generowanych przez sztuczną inteligencję bez żadnych wymiernych korzyści poza być może chwilową odskocznią. Brak narzędzi do edycji w aplikacji dodatkowo wzmacnia ten cykl; Jedynym sposobem na wprowadzenie zmian jest ponowne wygenerowanie wideo, co jest procesem powolnym i frustrującym.
OpenAI twierdzi, że aplikacja ma na celu wzmacnianie więzi międzyludzkich, ale doświadczenie jest bardziej izolujące i dezorientujące. Funkcja Cameo Sory, zaprojektowana tak, aby była zabawą, jest podatna na nadużycia. Chociaż użytkownicy mogą zdecydować o nieużywaniu ich obrazu, główna zaleta aplikacji polega na tworzeniu dziwnych i potencjalnie szkodliwych deepfakes.
Przyszłość rzeczywistości syntetycznej
Filmy Sora zawierają znaki wodne i metadane z zastrzeżeniami, ale w dobie spadku zaufania jest mało prawdopodobne, aby te zabezpieczenia powstrzymały nadużycia. Aplikacja podkreśla szerszą dyskusję na temat generowania multimediów AI, ale OpenAI w dalszym ciągu przesuwa granice treści syntetycznych.
Czas pokaże, czy Sora pozostanie nieszkodliwym eksperymentem, czy niebezpiecznym krokiem w kierunku całkowicie sztucznego krajobrazu społecznego. Na razie służy jako wyraźne przypomnienie o potędze – i potencjalnych zagrożeniach – sztucznej inteligencji w dobie mediów społecznościowych.
