Anthropic luchará ante los tribunales contra la etiqueta de riesgo de la cadena de suministro del Pentágono

26

Anthropic, una empresa de inteligencia artificial, desafiará legalmente al Departamento de Defensa (DOD) después de ser designada como un riesgo para la cadena de suministro. La medida se produce después de semanas de desacuerdo sobre el acceso del ejército a los sistemas de inteligencia artificial, lo que podría impedir que Anthropic trabaje con el Pentágono y sus contratistas. El director ejecutivo, Dario Amodei, califica la decisión del Departamento de Defensa de “legalmente errónea” y afirma que Anthropic no permitirá que su IA se utilice para vigilancia masiva o armas totalmente autónomas, una postura que el Pentágono considera inaceptable.

La disputa central
El DOD busca acceso sin restricciones a la IA de Anthropic para “todos los fines legales”, mientras que Anthropic insiste en limitaciones. Amodei aclaró que la designación sólo afecta a los contratos con el DOD, no al uso más amplio de su IA por parte de los clientes. Sostiene además que la ley exige los medios menos restrictivos para proteger la cadena de suministro, lo que implica que el enfoque del Departamento de Defensa es demasiado agresivo.

Memorando filtrado y oferta de OpenAI
El conflicto se intensificó después de que se filtrara un memorando interno de Amodei que criticaba la asociación con el Departamento de Defensa de OpenAI como un “teatro de seguridad”. Desde entonces, OpenAI firmó un acuerdo para reemplazar a Anthropic, lo que provocó una reacción violenta dentro de sus propias filas. Amodei se disculpó por la filtración, atribuyéndola a una serie de anuncios rápidos, incluida una declaración presidencial sobre la eliminación de Anthropic de los sistemas federales. Afirma que el memorando fue una reacción precipitada a estos acontecimientos y ya no refleja su evaluación actual.

Preocupaciones de seguridad nacional y operaciones en curso
Anthropic actualmente apoya las operaciones estadounidenses en Irán, proporcionando sus modelos de IA al Departamento de Defensa a un costo reducido durante “operaciones de combate importantes en curso”. La empresa tiene la intención de continuar con este apoyo durante el período de transición.

Desafíos legales y recursos limitados
Impugnar la designación ante los tribunales será difícil debido a las leyes que otorgan al Pentágono amplia discreción en asuntos de seguridad nacional. Los tribunales se muestran reacios a anular la decisión del gobierno en estas cuestiones, por lo que se requiere un umbral legal muy alto para revocar la decisión. Como dijo Dean Ball, ex asesor de inteligencia artificial de la Casa Blanca, “los tribunales son bastante reacios a cuestionar al gobierno sobre lo que es y lo que no es una cuestión de seguridad nacional”.

En conclusión, Anthropic está preparado para luchar contra la etiqueta del DOD en los tribunales mientras continúa apoyando las operaciones militares en curso. La disputa pone de relieve la creciente tensión entre los desarrolladores de IA y el gobierno sobre el control y las limitaciones de las tecnologías avanzadas, y es probable que las batallas legales se vuelvan más frecuentes a medida que la integración de la IA se profundice en la seguridad nacional.