Anthropic, una società di intelligenza artificiale, sfiderà legalmente il Dipartimento della Difesa (DOD) dopo essere stata designata come rischio per la catena di approvvigionamento. La mossa arriva dopo settimane di disaccordo sull’accesso dei militari ai sistemi di intelligenza artificiale, impedendo potenzialmente ad Anthropic di collaborare con il Pentagono e i suoi appaltatori. L’amministratore delegato Dario Amodei definisce la decisione del DOD “legalmente malsana” e afferma che Anthropic non consentirà che la sua intelligenza artificiale venga utilizzata per la sorveglianza di massa o per armi completamente autonome, una posizione che il Pentagono considera inaccettabile.
La controversia principale
Il DOD cerca un accesso illimitato all’intelligenza artificiale di Anthropic per “tutti gli scopi legittimi”, mentre Anthropic insiste sulle limitazioni. Amodei ha chiarito che la designazione riguarda solo i contratti con il DOD, non un uso più ampio della sua IA da parte dei clienti. Sostiene inoltre che la legge richiede i mezzi meno restrittivi per proteggere la catena di approvvigionamento, il che implica che l’approccio del DOD è eccessivamente aggressivo.
Memo trapelato e accordo OpenAI
Il conflitto si è intensificato dopo che è trapelata una nota interna di Amodei che criticava la partnership DOD di OpenAI definendola “teatro della sicurezza”. Da allora OpenAI ha firmato un accordo per sostituire Anthropic, scatenando una reazione negativa all’interno dei suoi stessi ranghi. Amodei si è scusato per la fuga di notizie, attribuendola a una serie di annunci a raffica, inclusa una dichiarazione presidenziale sulla rimozione di Anthropic dai sistemi federali. Afferma che il promemoria è stata una reazione affrettata a questi eventi e non riflette più la sua attuale valutazione.
Preoccupazioni per la sicurezza nazionale e operazioni in corso
Anthropic attualmente supporta le operazioni statunitensi in Iran, fornendo i suoi modelli di intelligenza artificiale al DOD a un costo ridotto durante le “importanti operazioni di combattimento in corso”. La società intende continuare questo supporto durante il periodo di transizione.
Sfide legali e ricorso limitato
Contestare la designazione in tribunale sarà difficile a causa delle leggi che garantiscono al Pentagono un’ampia discrezionalità in materia di sicurezza nazionale. I tribunali esitano a prevalere sul governo su queste questioni, richiedendo una soglia legale molto elevata per ribaltare la decisione. Come ha affermato Dean Ball, ex consigliere AI della Casa Bianca, “i tribunali sono piuttosto riluttanti a indovinare il governo su cosa sia e cosa non sia una questione di sicurezza nazionale”.
In conclusione, Anthropic è pronta a combattere l’etichetta del DOD in tribunale pur continuando a sostenere le operazioni militari in corso. La controversia evidenzia la crescente tensione tra gli sviluppatori di intelligenza artificiale e il governo sul controllo e le limitazioni delle tecnologie avanzate, con battaglie legali che probabilmente diventeranno più frequenti man mano che l’integrazione dell’intelligenza artificiale si approfondisce nella sicurezza nazionale.


























