AI Control: Bipartisan Call for Control

11

Nový rámec pro zodpovědný vývoj umělé inteligence, nazvaný Pro-Human Declaration, vzešel z koalice odborníků, bývalých úředníků a veřejných činitelů, když se Washington snaží nastavit pravidla pro umělou inteligenci. Iniciativa přichází v kritickém okamžiku, zvýrazněným nedávným napětím mezi Pentagonem a společnostmi s umělou inteligencí, jako jsou Anthropic a OpenAI, což odhaluje nedostatek účinného dohledu v rychle se vyvíjející oblasti.

Rostoucí poptávka po regulaci umělé inteligence

Nedávné průzkumy veřejného mínění ukazují drtivé odmítnutí – 95 % Američanů – bezhlavého závodu o superinteligenci. Tento sentiment podtrhuje naléhavost deklarace, která varuje, že lidstvo je na rozcestí: jedna cesta vede k vytlačení lidí nekontrolovanou AI, zatímco druhá představuje AI jako nástroj pro posílení lidského potenciálu. Hlavním argumentem je, že bez jasných hranic se moc soustředí v rukou nezodpovědných aktérů a jejich strojů.

Pět pilířů odpovědného vývoje AI

Pro-Human Deklarace je založena na pěti klíčových principech:

  • Human Control: Udržování maximální moci nad systémy AI.
  • Decentralizace moci: Zabránění tomu, aby umělá inteligence byla ovládána jednou entitou.
  • Ochrana lidské zkušenosti: Zajištění ochrany základních lidských hodnot ve věku umělé inteligence.
  • Svoboda jednotlivce: Zajišťuje, že umělá inteligence neporušuje osobní svobody.
  • Právní odpovědnost: Přidělení právní odpovědnosti vývojářům AI za jejich výtvory.

Tyto principy se promítly do konkrétních návrhů, včetně moratoria na rozvoj superinteligence, dokud se neprokáže, že je bezpečná, povinných přepínačů kill pro výkonné systémy a zákazu sebereplikujících se nebo autonomně vylepšujících architektur AI.

Postoj Pentagonu a naléhavá potřeba politiky

Zveřejnění prohlášení se shoduje s rostoucím napětím mezi americkou vládou a předními společnostmi zabývajícími se umělou inteligencí. V únoru ministerstvo obrany označilo Anthropic za „riziko dodavatelského řetězce“ poté, co společnost odmítla poskytnout neomezený přístup ke své technologii, což je označení obvykle vyhrazené pro subjekty spojené s geopolitickými protivníky. OpenAI následně souhlasila s dohodou s Pentagonem, což vyvolalo právní obavy ohledně její použitelnosti.

Tyto události zdůrazňují vysokou cenu nečinnosti Kongresu. Dean Ball z Nadace pro americkou inovaci to nazval „první rozhovor, který jsme jako země vedli o ovládání systémů AI“. Situace odráží regulační rámec pro léčiva: stejně jako FDA brání uvolňování nebezpečných léků, deklarace obhajuje předběžné testování produktů umělé inteligence před jejich širokým použitím.

Bezpečnost dětí jako katalyzátor změn

Deklarace konkrétně vyzývá k povinnému testování produktů umělé inteligence zaměřených na děti, které se zabývají riziky, jako jsou sebevražedné myšlenky, zhoršující se problémy duševního zdraví a emoční manipulace. Argument je jednoduchý: pokud je lidské vykořisťování dítěte nezákonné, pak by se stejný standard měl použít na systémy umělé inteligence, které způsobují podobné škody. Tento přístup je považován za potenciální tlakový bod pro vynucení regulačních opatření, přičemž zastánci věří, že přísnější požadavky na testování budou přirozeně následovat.

Neuvěřitelná aliance

Pro-lidská deklarace přilákala podpisy napříč politickým spektrem, včetně bývalého Trumpova poradce Steva Bannona a Obamovy poradkyně pro národní bezpečnost Susan Riceové. Toto nepravděpodobné spojenectví podtrhuje společnou obavu: budoucnost lidstva závisí na kontrole AI, bez ohledu na ideologické rozdíly.

Jak výstižně vyjádřil Max Tegmark, organizátor této akce: „Pokud jde o to, zda chceme budoucnost pro lidi nebo budoucnost pro stroje, budou samozřejmě na stejné straně.“

Deklarace představuje významné úsilí o vytvoření záruk pro AI, ale její úspěch bude záviset na překonání politické setrvačnosti a převedení těchto principů do platných zákonů.