Управління ІІ: Двопартійний Заклик до Контролю

6

Нова основа для відповідальної розробки ІІ, що отримала назву «Про-Людська Декларація», виникла з коаліції експертів, колишніх чиновників та громадських діячів, оскільки Вашингтон намагається визначити правила для штучного інтелекту. Ця ініціатива з’являється в критичний момент, який підкреслюється недавнім натягом між Пентагоном і компаніями ІІ, такими як Anthropic і OpenAI, оголюючи відсутність ефективного нагляду в області, що швидко розвивається.

Зростання Попит на Регулювання ІІ

Недавні опитування показують переважне суспільне неприйняття – 95% американців – нестримних перегонів до надінтелекту. Цей настрій наголошує на терміновості декларації, яка попереджає, що людство стоїть на роздоріжжі: один шлях веде до витіснення людини безконтрольною ІІ, а інший представляє ІІ як інструмент для посилення людського потенціалу. Основний аргумент у тому, що без чітких кордонів влада буде зосереджена до рук безвідповідальних суб’єктів та його машин.

П’ять Стовпів Відповідальної Розробки ІІ

Про-Людська Декларація спирається на п’ять ключових принципів:

  • Людський Контроль: Підтримка кінцевої влади над системами ІІ.
  • Децентралізація Влади: Запобігання домінуванню ІІ будь-яким одним суб’єктом.
  • Захист Людського Досвіду: Забезпечення захисту фундаментальних людських цінностей за доби ІІ.
  • Індивідуальна Свобода: Гарантія того, що ІІ не порушує особисті свободи.
  • Правова Відповідальність: Покладання юридичної відповідальності на розробників ІІ за їх створення.

Ці принципи переведені в конкретні пропозиції, включаючи мораторій на розробку надінтелекту доти, доки він не буде визнаний безпечним, обов’язкові вимикачі для потужних систем та заборона на самовідтворювані або архітектури, що самовідтворюються, ІІ.

Позиція Пентагону та Настійна Необхідність у Політиці

Публікація декларації збігається зі зростаючим тертям між урядом США та провідними компаніями ІІ. У лютому Міністерство оборони означило Anthropic як «ризик для ланцюжка поставок», після того, як компанія відмовилася надати необмежений доступ до своїх технологій — позначення, зазвичай зарезервоване для суб’єктів, пов’язаних із геополітичними супротивниками. OpenAI згодом погодилася на угоду з Пентагоном, викликавши юридичні побоювання з приводу її застосування.

Ці події підкреслюють високу ціну бездіяльності Конгресу. Дін Болл із Фонду американських інновацій назвав це «першою розмовою, яку ми вели як країна про контроль над системами ІІ». Ситуація відображає нормативно-правову базу для фармацевтичних препаратів: так само, як FDA запобігає випуску небезпечних ліків, декларація виступає за попереднє тестування продуктів ІІ перед їх широким використанням.

Безпека Дітей як Каталізатор Змін

Декларація безпосередньо закликає до обов’язкового тестування продуктів ІІ, призначених для дітей, вирішуючи такі ризики, як суїцидальні думки, посилення проблем із психічним здоров’ям та емоційна маніпуляція. Аргумент простий: якщо експлуатація дитини людиною є незаконною, то той самий стандарт має застосовуватись до систем ІІ, які завдають аналогічної шкоди. Цей підхід розглядається як потенційна точка тиску, щоб змусити до вжиття нормативних заходів, прихильники вважають, що більш суворі вимоги до тестування будуть природними.

Неймовірний Альянс

Про-Людська Декларація зібрала підписи з різних верств політичного спектру, включаючи колишнього радника Трампа Стіва Беннона та радника Обами з національної безпеки Сьюзен Райс. Цей малоймовірний альянс наголошує на загальному занепокоєнні: майбутнє людства залежить від контролю над ІІ, незалежно від ідеологічних розбіжностей.

Як лаконічно висловився Макс Тегмарк, організатор цього заходу: «Якщо справа дійде до того, чи хочемо ми майбутнього для людей, чи майбутнього для машин, звичайно, вони виявляться на одному боці».

Декларація являє собою значне зусилля щодо встановлення гарантій для ІІ, але її успіх залежатиме від подолання політичної інерції та перетворення цих принципів у застосовні закони.