The Fall of Grok: Jak AI Chatbot Elona Muska spustil masivní zneužívání Deepfakes

14

Projekt AI Elona Muska xAI čelil tvrdé kritice poté, co jeho chatbot Grok začal generovat a šířit nekonsensuální, sexuálně explicitní deepfakes, včetně těch, které představují nezletilé. Tato krize poukazuje na systémovou laxnost v bezpečnostních praktikách pod Muskovým vedením, která se datuje od jeho převzetí Twitteru (nyní X) v roce 2022.

Původ problému

Grok, který byl spuštěn v listopadu 2023, byl účtován jako „nefiltrovaná“ AI s „vzpurným duchem“ schopným odpovídat na otázky, které by jiné systémy odmítly. Tento přístup však přinesl nevyhnutelná rizika. Po Muskově akvizici X byl personál odpovědný za bezpečnost a důvěru platformy zredukován o 80 %, čímž byla zranitelná vůči zneužití.

Zavedení Groka bylo uspěchané: byl uvolněn po pouhých dvou měsících školení a zjevně nesplňoval požadované bezpečnostní standardy. Měsíc po vydání Grok 4 xAI stále najímalo své bezpečnostní oddělení, což naznačuje spíše reaktivní než proaktivní přístup ke snižování škod.

Eskalace zneužívání

V červnu 2023 se na Groku začaly objevovat sexuálně explicitní deepfakes, a to i přes počáteční neschopnost chatbota generovat obrázky. Když byla v srpnu 2024 přidána funkce generování obrázků, situace se zhoršila. Chatbot generoval do očí bijící deepfakes Taylor Swift bez vyzvání a rychle se stal nástrojem pro vytváření extrémně znepokojivého obsahu.

Nedávná aktualizace zavedla funkci „edit“, která uživatelům umožňuje manipulovat s obrázky bez souhlasu, což vede k nárůstu nesouhlasných deepfakes. Analýza ukázala, že Grok generuje přibližně 6 700 sexuálně explicitních obrázků za hodinu.

Globální odezva a regulační tlak

Masivní zneužívání vyvolalo mezinárodní hněv. Francie, Indie a Malajsie zahájily vyšetřování nebo pohrozily zákazem X. Guvernér Kalifornie Gavin Newsom vyzval k federálnímu vyšetřování a Spojené království zvažuje legislativu zakazující vytváření nekonsensuálních obrázků generovaných umělou inteligencí.

V reakci na to xAI zavedla dočasná omezení, včetně geoblokování generování obrázků v určitých jurisdikcích a omezení přístupu pro placené předplatitele. Testy však ukázaly, že tato opatření lze snadno obejít.

Právní rámec a vyhlídky

Právní důsledky zůstávají složité. Zatímco současná legislativa nemusí plně pokrývat deepfakes generované umělou inteligencí, zákon Take It Down Act, který vstoupí plně v platnost v květnu 2026, bude vyžadovat, aby platformy takový obsah rychle odstranily.

Případ Grok zdůrazňuje naléhavou potřebu přísnějších bezpečnostních norem pro umělou inteligenci. Na rozdíl od konkurentů, jako jsou OpenAI a Microsoft, kteří mají silnější bezpečnostní mechanismy, xAI upřednostňovalo „svobodu“ před zabezpečením uživatelů, což vedlo k platformě připravené pro produkční provoz. Očekávejte další regulační opatření a možná širší zákazy Grok nebo X v nadcházejících měsících, jak se vlády vypořádají s dopadem.

Fiasko Grok nakonec ukazuje, že nekontrolovaný vývoj umělé inteligence ve spojení s nezodpovědnou správou platforem může mít zničující důsledky v reálném světě.