Funcionarios estadounidenses instan a los principales bancos a probar el nuevo modelo de inteligencia artificial de Anthropic para detectar riesgos de seguridad

9

En un cambio notable en la forma en que el gobierno de EE. UU. interactúa con el sector de la IA, funcionarios de alto rango están alentando activamente a la industria bancaria a adoptar inteligencia artificial de vanguardia para la defensa de la ciberseguridad.

Según informes de Bloomberg, el Secretario del Tesoro Scott Bessent y el Presidente de la Reserva Federal Jerome Powell se reunieron con altos ejecutivos bancarios esta semana para discutir la integración del nuevo modelo “Mythos” de Anthropic en sus marcos de seguridad. El objetivo es aprovechar las capacidades del modelo para identificar y mitigar las vulnerabilidades digitales dentro del sector financiero.

Un rápido despliegue entre los gigantes financieros

Si bien el acceso al modelo Mythos está actualmente restringido, la magnitud del interés del sector bancario es significativa. Aunque JPMorgan Chase fue la única institución oficialmente incluida como socio inicial con acceso directo, se informa que otros actores importantes se encuentran en la fase de prueba, entre ellos:

  • Goldman Sachs
  • grupo Citi
  • Banco de América
  • Morgan Stanley

Este interés generalizado pone de relieve una tendencia creciente: las principales instituciones financieras se están moviendo rápidamente para integrar modelos de lenguaje grande (LLM) en sus operaciones defensivas centrales, considerando la IA no solo como una herramienta de productividad, sino como una capa crítica de protección de la infraestructura.

La paradoja de los “mitos”: alto rendimiento frente a acceso controlado

Anthropic, la startup de inteligencia artificial detrás del modelo, ha adoptado un enfoque cauteloso en su lanzamiento. A pesar de haber sido diseñado como un modelo de propósito general en lugar de una herramienta de ciberseguridad especializada, Mythos ha demostrado una capacidad inesperada y altamente eficiente para descubrir fallas de seguridad.

Esta capacidad ha creado un dilema único para el desarrollador:
Competencia no deseada: El modelo es “demasiado bueno” para encontrar vulnerabilidades, lo que genera preocupaciones sobre su posible uso indebido si se publica de manera demasiado amplia.
Escasez estratégica: Si bien algunos observadores de la industria sugieren que este lanzamiento controlado es una estrategia inteligente de ventas empresariales, la realidad técnica sigue siendo que la capacidad del modelo para probar las debilidades del sistema es excepcionalmente alta.

Navegando por un panorama político complejo

El respaldo de los líderes del Tesoro y de la Reserva Federal es particularmente sorprendente dada la fricción legal actual entre la administración Trump y Anthropic.

Actualmente, la empresa está inmersa en una batalla legal con el Departamento de Defensa, que ha designado a Anthropic como un riesgo de la cadena de suministro. Esta designación surgió de negociaciones fallidas sobre la capacidad del gobierno para utilizar los modelos de Anthropic. La tensión pone de relieve un conflicto sistémico más amplio: el gobierno de EE.UU.