Kanada menekan OpenAI untuk menjelaskan mengapa perusahaan tersebut tidak memberi tahu pihak berwenang mengenai akun pengguna yang ditangguhkan beberapa bulan sebelum dia melakukan penembakan massal di Tumbler Ridge, British Columbia. Insiden ini menimbulkan pertanyaan kritis tentang tanggung jawab perusahaan AI ketika pengguna mengungkapkan niat melakukan kekerasan.
Penembakan dan Tersangka
Pada [tanggal penembakan], Jesse Van Rootselaar, 18, menembak mati ibu dan saudara tirinya sebelum berkendara ke sekolah setempat dan membunuh lima anak dan satu guru. Dua siswa lainnya terluka, dan satu orang masih dalam kondisi kritis. Van Rootselaar meninggal karena bunuh diri di sekolah saat penegak hukum tiba. Serangan tersebut membuat komunitas kecil pedesaan terguncang dan menghidupkan kembali perdebatan mengenai akses terhadap informasi berbahaya secara online.
Peran OpenAI Dalam Pengawasan
Menurut pejabat Kanada, OpenAI menangguhkan akun Van Rootselaar beberapa bulan sebelum penembakan, menunjukkan bahwa perusahaan tersebut telah melaporkan adanya perilaku yang mencurigakan. Meskipun demikian, tidak ada peringatan yang diberikan kepada penegak hukum. Menteri Intelijen Buatan, Evan Solomon, menyebut kelalaian tersebut “sangat meresahkan”.
Mengapa Ini Penting
Kasus ini menyoroti kesenjangan dalam protokol keamanan AI saat ini: perusahaan sering kali memprioritaskan privasi pengguna dibandingkan potensi keselamatan publik. OpenAI, seperti pengembang AI lainnya, mungkin ragu untuk melibatkan pihak berwenang karena masalah hukum atau keinginan untuk menghindari kerusakan reputasi. Namun, menyembunyikan informasi tentang ancaman yang akan terjadi dapat menimbulkan konsekuensi yang mematikan.
Pertemuan di Ottawa
Solomon akan bertemu dengan pejabat keamanan senior OpenAI di Ottawa pada hari Selasa untuk meminta penjelasan. Diskusi ini akan fokus pada batasan kapan perusahaan AI harus membagikan data pengguna kepada polisi. Pemerintah Kanada sedang mempertimbangkan peraturan baru untuk mengatasi masalah ini, yang mungkin mewajibkan pelaporan wajib bagi pengguna berisiko tinggi.
Insiden ini menggarisbawahi perlunya pedoman yang lebih jelas tentang bagaimana perusahaan AI menyeimbangkan privasi, keselamatan, dan kewajiban hukum. Masih harus dilihat apakah OpenAI akan bekerja sama sepenuhnya, namun kasus ini kemungkinan akan menjadi preseden mengenai bagaimana pemerintah di seluruh dunia mengatur ancaman yang disebabkan oleh AI.
