Il Canada chiede risposte a OpenAI sul link per le sparatorie di massa

12

Il Canada sta spingendo OpenAI a spiegare perché la società non ha avvisato le autorità di un account utente sospeso mesi prima che avvenisse una sparatoria di massa a Tumbler Ridge, nella Columbia Britannica. L’incidente solleva interrogativi critici sulle responsabilità delle aziende di intelligenza artificiale quando gli utenti esprimono intenzioni violente.

La sparatoria e il sospettato

Il [data della sparatoria], Jesse Van Rootselaar, 18 anni, ha sparato a morte a sua madre e al fratellastro prima di recarsi in una scuola locale e uccidere cinque bambini e un insegnante. Altri due studenti sono rimasti feriti, uno dei quali è ancora in condizioni critiche. Van Rootselaar è morto suicida a scuola all’arrivo delle forze dell’ordine. L’attacco ha lasciato vacillante la piccola comunità rurale e ha riacceso il dibattito sull’accesso a informazioni pericolose online.

Il ruolo di OpenAI sotto esame

Secondo i funzionari canadesi, OpenAI ha sospeso l’account di Van Rootselaar mesi prima della sparatoria, suggerendo che la società avesse segnalato comportamenti preoccupanti. Nonostante ciò non è stato dato alcun avvertimento alle forze dell’ordine. Il ministro dell’Intelligenza Artificiale, Evan Solomon, ha definito l’omissione “profondamente inquietante”.

Perché è importante

Questo caso evidenzia una lacuna negli attuali protocolli di sicurezza dell’IA: le aziende spesso danno priorità alla privacy degli utenti rispetto alla potenziale sicurezza pubblica. OpenAI, come altri sviluppatori di intelligenza artificiale, potrebbe esitare a coinvolgere le autorità a causa di preoccupazioni legali o del desiderio di evitare danni alla reputazione. Tuttavia, nascondere informazioni su minacce imminenti potrebbe avere conseguenze mortali.

L’incontro di Ottawa

Martedì Solomon incontrerà gli alti funzionari della sicurezza di OpenAI a Ottawa per chiedere spiegazioni. La discussione si concentrerà sulle soglie entro le quali le aziende di intelligenza artificiale dovrebbero condividere i dati degli utenti con la polizia. Il governo canadese sta valutando nuove normative per affrontare questo problema, che potrebbero richiedere la segnalazione obbligatoria degli utenti ad alto rischio.

L’incidente sottolinea la necessità di linee guida più chiare su come le aziende di intelligenza artificiale bilanciano privacy, sicurezza e obblighi legali. Resta da vedere se OpenAI coopererà pienamente, ma è probabile che il caso costituisca un precedente per il modo in cui i governi di tutto il mondo regolano le minacce guidate dall’intelligenza artificiale.