Anthropic, une société d’intelligence artificielle, contestera légalement le ministère de la Défense (DOD) après avoir été désignée comme présentant un risque pour la chaîne d’approvisionnement. Cette décision intervient après des semaines de désaccord sur l’accès de l’armée aux systèmes d’IA, empêchant potentiellement Anthropic de travailler avec le Pentagone et ses sous-traitants. Le PDG Dario Amodei qualifie la décision du DOD de « juridiquement mal fondée » et affirme qu’Anthropic ne permettra pas que son IA soit utilisée pour la surveillance de masse ou pour des armes entièrement autonomes, une position que le Pentagone considère comme inacceptable.
Le différend principal
Le DOD recherche un accès illimité à l’IA d’Anthropic à « toutes fins légales », tandis qu’Anthropic insiste sur les limitations. Amodei a précisé que cette désignation n’affecte que les contrats avec le DOD, et non l’utilisation plus large de son IA par les clients. Il affirme en outre que la loi exige les moyens les moins restrictifs pour protéger la chaîne d’approvisionnement, ce qui implique que l’approche du DOD est trop agressive.
Fuite de mémo et accord OpenAI
Le conflit s’est intensifié après la fuite d’une note interne d’Amodei critiquant le partenariat OpenAI avec le DOD comme un « théâtre de sécurité ». OpenAI a depuis signé un accord pour remplacer Anthropic, déclenchant des réactions négatives dans ses propres rangs. Amodei s’est excusé pour la fuite, l’attribuant à une série d’annonces rapides, notamment une déclaration présidentielle sur le retrait d’Anthropic des systèmes fédéraux. Il affirme que la note était une réaction précipitée à ces événements et ne reflète plus son évaluation actuelle.
Préoccupations en matière de sécurité nationale et opérations en cours
Anthropic soutient actuellement les opérations américaines en Iran, en fournissant ses modèles d’IA au DOD à un coût réduit lors des « opérations de combat majeures en cours ». L’entreprise entend poursuivre ce soutien pendant la période de transition.
Contestations juridiques et recours limité
Contester cette désignation devant les tribunaux sera difficile en raison des lois accordant au Pentagone un large pouvoir discrétionnaire sur les questions de sécurité nationale. Les tribunaux hésitent à infirmer la décision du gouvernement sur ces questions, exigeant un seuil juridique très élevé pour annuler la décision. Comme l’a dit Dean Ball, ancien conseiller en IA de la Maison Blanche : « Les tribunaux sont plutôt réticents à remettre en question le gouvernement sur ce qui est ou n’est pas une question de sécurité nationale ».
En conclusion, Anthropic est prêt à combattre l’étiquette du DOD devant les tribunaux tout en continuant à soutenir les opérations militaires en cours. Le différend met en évidence la tension croissante entre les développeurs d’IA et le gouvernement sur le contrôle et les limites des technologies avancées, les batailles juridiques étant susceptibles de devenir plus fréquentes à mesure que l’intégration de l’IA dans la sécurité nationale s’approfondit.
