Kanada naléhá na OpenAI, aby vysvětlila, proč společnost nedokázala upozornit úřady na uživatelský účet, který byl pozastaven měsíce předtím, než provedla hromadnou střelbu v Tumbler Ridge v Britské Kolumbii. Incident vyvolává důležité otázky ohledně odpovědnosti společností zabývajících se umělou inteligencí, když uživatelé projeví násilné úmysly.
Střelba a podezřelý
[Datum natáčení] Jessie Van Rootselaarová, 18 let, smrtelně zastřelila svou matku a nevlastního bratra, než odjela do místní školy a zabila pět dětí a jednoho učitele. Další dva studenti byli zraněni, jeden z nich je v kritickém stavu. Van Rootselaar spáchal sebevraždu ve škole, když přijela policie. Útok šokoval malé venkovské město a znovu podnítil debatu o přístupu k nebezpečným informacím online.
Role OpenAI pod trailerem
OpenAI pozastavila Van Rootselaarův účet měsíce před střelbou, uvedli kanadští představitelé, což naznačuje, že společnost zaznamenala znepokojivé chování. Navzdory tomu nebyly orgány činné v trestním řízení upozorněny. Ministr pro umělou inteligenci Evan Solomon označil toto opomenutí za „hluboce znepokojivé“.
Proč je to důležité
Případ poukazuje na mezeru v současných bezpečnostních protokolech AI: Společnosti často upřednostňují soukromí uživatelů před potenciální veřejnou bezpečností. OpenAI, stejně jako ostatní vývojáři AI, může váhat kontaktovat úřady kvůli právním obavám nebo touze vyhnout se poškození pověsti. Zamlčování informací o bezprostředních hrozbách však může mít smrtelné následky.
Setkání v Ottawě
Solomon se v úterý v Ottawě setká s vedoucími bezpečnostními pracovníky OpenAI, aby požadoval vysvětlení. Diskuse se zaměří na prahové hodnoty, při kterých společnosti AI musí sdílet uživatelská data s policií. Kanadská vláda zvažuje nové předpisy k řešení tohoto problému, které mohou vyžadovat povinné hlášení vysoce rizikových uživatelů.
Incident zdůrazňuje potřebu jasnějších pokynů o tom, jak společnosti využívající umělou inteligenci vyvažují soukromí, bezpečnost a právní povinnosti. Není jasné, zda bude OpenAI plně spolupracovat, ale případ pravděpodobně vytvoří precedens pro to, jak vlády po celém světě regulují hrozby, které AI představuje.




























