Kanada żąda wyjaśnień od OpenAI w związku z masowymi strzelaninami

11

Kanada naciska na OpenAI, aby wyjaśniła, dlaczego firma nie powiadomiła władz o koncie użytkownika, które zostało zawieszone na kilka miesięcy przed masową strzelaniną w Tumbler Ridge w Kolumbii Brytyjskiej. Incydent rodzi ważne pytania dotyczące odpowiedzialności firm zajmujących się sztuczną inteligencją, gdy użytkownicy wyrażają agresywne zamiary.

Strzelanina i podejrzany

[Data strzelaniny] Jessie Van Rootselaar, lat 18, śmiertelnie postrzeliła swoją matkę i przyrodniego brata, po czym pojechała do lokalnej szkoły, zabijając pięcioro dzieci i jednego nauczyciela. Rannych zostało dwóch kolejnych uczniów, jeden z nich jest w stanie krytycznym. Kiedy przybyła policja, Van Rootselaar popełnił samobójstwo w szkole. Atak zszokował małe wiejskie miasteczko i wznowił debatę na temat dostępu do niebezpiecznych informacji w Internecie.

Rola OpenAI w zwiastunie

Według kanadyjskich urzędników OpenAI zawiesiło konto Van Rootselaara na kilka miesięcy przed strzelaniną, sugerując, że firma wykryła niepokojące zachowanie. Mimo to nie zaalarmowano organów ścigania. Minister sztucznej inteligencji Evan Solomon nazwał to pominięcie „głęboko niepokojącym”.

Dlaczego to jest ważne

Sprawa uwypukla lukę w obecnych protokołach bezpieczeństwa sztucznej inteligencji: firmy często przedkładają prywatność użytkowników nad potencjalne bezpieczeństwo publiczne. OpenAI, podobnie jak inni twórcy sztucznej inteligencji, może wahać się przed skontaktowaniem się z władzami ze względów prawnych lub chęci uniknięcia szkody dla reputacji. Jednak zatajanie informacji o zbliżających się zagrożeniach może mieć śmiertelne konsekwencje.

Spotkanie w Ottawie

Solomon spotka się we wtorek ze starszymi pracownikami ochrony OpenAI w Ottawie, aby zażądać wyjaśnień. Dyskusja skupi się na progach, przy których firmy AI muszą udostępniać policji dane użytkowników. Rząd Kanady rozważa wprowadzenie nowych przepisów mających rozwiązać ten problem, potencjalnie wymagających obowiązkowego zgłaszania użytkowników wysokiego ryzyka.

Incydent uwypuklił potrzebę jaśniejszych wytycznych dotyczących sposobu, w jaki firmy zajmujące się sztuczną inteligencją równoważą prywatność, bezpieczeństwo i zobowiązania prawne. Nie jest jasne, czy OpenAI będzie w pełni współpracować, ale sprawa ta prawdopodobnie ustanowi precedens dla sposobu, w jaki rządy na całym świecie regulują zagrożenia stwarzane przez sztuczną inteligencję.