Le Canada fait pression sur OpenAI pour qu’elle explique pourquoi l’entreprise n’a pas alerté les autorités d’un compte d’utilisateur suspendu des mois avant qu’elle ne commette une fusillade de masse à Tumbler Ridge, en Colombie-Britannique. L’incident soulève des questions cruciales sur les responsabilités des entreprises d’IA lorsque les utilisateurs expriment des intentions violentes.
La fusillade et le suspect
Le [date de la fusillade], Jesse Van Rootselaar, 18 ans, a tué par balle sa mère et son demi-frère avant de se rendre dans une école locale, tuant cinq enfants et un enseignant. Deux autres étudiants ont été blessés, dont un toujours dans un état critique. Van Rootselaar s’est suicidé à l’école à l’arrivée des forces de l’ordre. L’attaque a ébranlé la petite communauté rurale et a relancé le débat sur l’accès aux informations dangereuses en ligne.
Le rôle d’OpenAI sous surveillance
Selon des responsables canadiens, OpenAI a suspendu le compte de Van Rootselaar des mois avant la fusillade, suggérant que l’entreprise avait signalé un comportement préoccupant. Malgré cela, aucun avertissement n’a été donné aux forces de l’ordre. Le ministre de l’Intelligence artificielle, Evan Solomon, a qualifié cette omission de “profondément troublante”.
Pourquoi c’est important
Cette affaire met en évidence une lacune dans les protocoles actuels de sécurité de l’IA : les entreprises donnent souvent la priorité à la confidentialité des utilisateurs plutôt qu’à la sécurité publique potentielle. OpenAI, comme d’autres développeurs d’IA, peut hésiter à impliquer les autorités en raison de problèmes juridiques ou du désir d’éviter toute atteinte à sa réputation. Cependant, dissimuler des informations sur des menaces imminentes pourrait avoir des conséquences mortelles.
La réunion à Ottawa
Solomon rencontrera mardi les hauts responsables de la sécurité d’OpenAI à Ottawa pour exiger une explication. La discussion se concentrera sur les seuils à partir desquels les entreprises d’IA devraient partager les données des utilisateurs avec la police. Le gouvernement canadien envisage de nouvelles réglementations pour résoudre ce problème, exigeant potentiellement la déclaration obligatoire des utilisateurs à haut risque.
L’incident souligne la nécessité de directives plus claires sur la manière dont les entreprises d’IA équilibrent la confidentialité, la sécurité et les obligations légales. Il reste à voir si OpenAI coopérera pleinement, mais cette affaire créera probablement un précédent dans la manière dont les gouvernements du monde entier réglementent les menaces liées à l’IA.
