Nowe ramy odpowiedzialnego rozwoju sztucznej inteligencji, zwane Deklaracją Proludzką, wyłoniły się z koalicji ekspertów, byłych urzędników i osób publicznych, podczas gdy Waszyngton próbuje ustalić zasady dotyczące sztucznej inteligencji. Inicjatywa pojawia się w krytycznym momencie, uwydatnionym przez niedawne napięcia między Pentagonem a firmami zajmującymi się sztuczną inteligencją, takimi jak Anthropic i OpenAI, ujawniając brak skutecznego nadzoru w szybko rozwijającej się dziedzinie.
Rosnące zapotrzebowanie na regulacje dotyczące sztucznej inteligencji
Ostatnie sondaże pokazują przytłaczającą odmowę społeczną – 95% Amerykanów – dla zawziętego wyścigu do superinteligencji. To zdanie podkreśla pilność deklaracji, która ostrzega, że ludzkość znalazła się na rozdrożu: jedna ścieżka prowadzi do wypierania człowieka przez niekontrolowaną sztuczną inteligencję, druga zaś przedstawia sztuczną inteligencję jako narzędzie wzmacniania ludzkiego potencjału. Głównym argumentem jest to, że bez wyraźnych granic władza zostanie skoncentrowana w rękach niezliczonych aktorów i ich maszyn.
Pięć filarów odpowiedzialnego rozwoju AI
Deklaracja Proludzka opiera się na pięciu kluczowych zasadach:
- Kontrola człowieka: Utrzymywanie najwyższej władzy nad systemami AI.
- Decentralizacja władzy: Zapobieganie zdominowaniu sztucznej inteligencji przez jakikolwiek pojedynczy podmiot.
- Ochrona ludzkiego doświadczenia: Zapewnienie ochrony podstawowych wartości ludzkich w epoce sztucznej inteligencji.
- Wolność indywidualna: Zapewnia, że sztuczna inteligencja nie narusza wolności osobistych.
- Odpowiedzialność prawna: Przypisywanie odpowiedzialności prawnej twórcom AI za ich dzieła.
Zasady te przełożyły się na konkretne propozycje, w tym moratorium na rozwój superinteligencji do czasu udowodnienia, że jest ona bezpieczna, obowiązkowe wyłączniki awaryjne dla potężnych systemów oraz zakaz samoreplikacji lub autonomicznego ulepszania architektur AI.
Stanowisko Pentagonu i pilna potrzeba polityczna
Publikacja deklaracji zbiega się z rosnącymi napięciami pomiędzy rządem USA a wiodącymi firmami zajmującymi się sztuczną inteligencją. W lutym Departament Obrony uznał Anthropic za „ryzyko w łańcuchu dostaw” po tym, jak firma odmówiła zapewnienia nieograniczonego dostępu do swojej technologii – określenia zwykle zarezerwowanego dla podmiotów powiązanych z przeciwnikami geopolitycznymi. Następnie OpenAI zgodziło się na umowę z Pentagonem, budząc wątpliwości prawne dotyczące jej zastosowania.
Wydarzenia te uwydatniają wysokie koszty bierności Kongresu. Dean Ball z Fundacji na rzecz Amerykańskich Innowacji nazwał to „pierwszą rozmową, jaką odbyliśmy jako kraj na temat kontrolowania systemów sztucznej inteligencji”. Sytuacja odzwierciedla ramy regulacyjne dotyczące produktów farmaceutycznych: tak jak FDA zapobiega uwalnianiu niebezpiecznych leków, w deklaracji zaleca się wstępne testowanie produktów AI przed ich powszechnym zastosowaniem.
Bezpieczeństwo dzieci jako katalizator zmian
W deklaracji w szczególności wzywa się do obowiązkowych testowania produktów sztucznej inteligencji przeznaczonych dla dzieci, mających na celu wyeliminowanie takich zagrożeń, jak myśli samobójcze, pogłębiające się problemy ze zdrowiem psychicznym i manipulacja emocjonalna. Argument jest prosty: jeśli wykorzystywanie dziecka przez człowieka jest nielegalne, to ten sam standard należy zastosować do systemów sztucznej inteligencji, które powodują podobne szkody. Podejście to jest postrzegane jako potencjalny punkt nacisku, aby wymusić działania regulacyjne, a zwolennicy uważają, że w sposób naturalny nastąpią bardziej rygorystyczne wymagania dotyczące testów.
Niesamowity sojusz
Pod Deklaracją Proludzką zebrały się podpisy przedstawicieli całego spektrum politycznego, w tym byłego doradcy Trumpa Steve’a Bannona i doradcy ds. bezpieczeństwa narodowego Obamy Susan Rice. Ten nieprawdopodobny sojusz podkreśla wspólną troskę: przyszłość ludzkości zależy od kontroli sztucznej inteligencji, niezależnie od różnic ideologicznych.
Jak zwięźle ujął to Max Tegmark, organizator tego wydarzenia: „Jeśli chodzi o to, czy chcemy przyszłości dla ludzi, czy przyszłości dla maszyn, oczywiście oni będą po tej samej stronie”.
Deklaracja stanowi znaczący wysiłek na rzecz ustanowienia zabezpieczeń dla sztucznej inteligencji, ale jej powodzenie będzie zależeć od przezwyciężenia inercji politycznej i przełożenia tych zasad na obowiązujące przepisy.



























