Канада настаивает на том, чтобы OpenAI объяснила, почему компания не предупредила власти о учетной записи пользователя, заблокированной за несколько месяцев до того, как она совершила массовый расстрел в Тамблер-Ридж, Британская Колумбия. Этот инцидент поднимает важные вопросы об ответственности компаний, разрабатывающих искусственный интеллект, когда пользователи выражают насильственные намерения.
Расстрел и Подозреваемая
[Дата расстрела] Джесси Ван Рутселаар, 18 лет, смертельно застрелила свою мать и сводного брата, прежде чем поехать в местную школу и убить пятерых детей и одного учителя. Еще два ученика были ранены, один из них находится в критическом состоянии. Ван Рутселаар покончила с собой в школе, когда прибыла полиция. Эта атака потрясла небольшой сельский городок и вновь обострила дебаты о доступе к опасной информации в Интернете.
Роль OpenAI Под Прицепом
По словам канадских чиновников, OpenAI заблокировала учетную запись Ван Рутселаар за несколько месяцев до расстрела, что говорит о том, что компания зафиксировала вызывающее беспокойство поведение. Несмотря на это, правоохранительные органы не были предупреждены. Министр по вопросам искусственного интеллекта Эван Соломон назвал это упущение «глубоко тревожным».
Почему Это Важно
Этот случай подчеркивает пробел в текущих протоколах безопасности ИИ: компании часто ставят конфиденциальность пользователей выше потенциальной общественной безопасности. OpenAI, как и другие разработчики ИИ, может колебаться, обращаться к властям из-за юридических опасений или желания избежать ущерба репутации. Однако сокрытие информации об неминуемых угрозах может иметь смертельные последствия.
Встреча в Оттаве
Соломон встретится со старшими сотрудниками OpenAI по безопасности в Оттаве во вторник, чтобы потребовать объяснений. Обсуждение сосредоточится на пороговых значениях, при которых компании, разрабатывающие ИИ, должны делиться данными пользователей с полицией. Канадское правительство рассматривает новые правила для решения этой проблемы, потенциально требуя обязательного сообщения о пользователях с высоким уровнем риска.
Этот инцидент подчеркивает необходимость более четких руководящих принципов относительно того, как компании, занимающиеся ИИ, балансируют между конфиденциальностью, безопасностью и юридическими обязательствами. Пока неясно, будет ли OpenAI в полной мере сотрудничать, но этот случай, вероятно, станет прецедентом для того, как правительства во всем мире регулируют угрозы, порожденные ИИ.



























