Канада наполягає на тому, щоб OpenAI пояснила, чому компанія не попередила владу про обліковий запис користувача, заблокований за кілька місяців до того, як вона здійснила масовий розстріл у Тамблер-Рідж, Британська Колумбія. Цей інцидент порушує важливі питання щодо відповідальності компаній, які розробляють штучний інтелект, коли користувачі висловлюють насильницькі наміри.
Розстріл і Підозрювана
[Дата розстрілу] Джессі Ван Рутселаар, 18 років, смертельно застрелила свою матір і зведеного брата, перш ніж поїхати до місцевої школи і вбити п’ятьох дітей та одного вчителя. Ще двох учнів було поранено, один із них перебуває у критичному стані. Ван Рутселаар наклала на себе руки в школі, коли прибула поліція. Ця атака потрясла невелике сільське містечко та знову загострила дебати про доступ до небезпечної інформації в Інтернеті.
Роль OpenAI Під Причепом
За словами канадських чиновників, OpenAI заблокувала обліковий запис Ван Рутселаар за кілька місяців до розстрілу, що говорить про те, що компанія зафіксувала поведінку, що викликає занепокоєння. Попри це правоохоронні органи не були попереджені. Міністр з питань штучного інтелекту Еван Соломон назвав цей недогляд “глибоко тривожним”.
Чому це важливо
Цей випадок підкреслює пропуск у поточних протоколах безпеки ІІ: компанії часто ставлять конфіденційність користувачів вище за потенційну громадську безпеку. OpenAI, як і інші розробники ІІ, може вагатися, звертатися до влади через юридичні побоювання або бажання уникнути шкоди репутації. Однак приховування інформації про неминучі загрози може мати смертельні наслідки.
Зустріч у Оттаві
Соломон зустрінеться зі старшими співробітниками OpenAI з безпеки в Оттаві у вівторок, щоб вимагати пояснень. Обговорення зосередиться на порогових значеннях, за яких компанії, які розробляють ІІ, повинні ділитися даними користувачів з поліцією. Канадський уряд розглядає нові правила для вирішення цієї проблеми, потенційно вимагаючи обов’язкового повідомлення про користувачів із високим рівнем ризику.
Цей інцидент наголошує на необхідності більш чітких керівних принципів щодо того, як компанії, які займаються ІІ, балансують між конфіденційністю, безпекою та юридичними зобов’язаннями. Поки незрозуміло, чи OpenAI повною мірою співпрацюватиме, але цей випадок, ймовірно, стане прецедентом для того, як уряди в усьому світі регулюють загрози, породжені ІІ.







































