Una violazione della sicurezza colpisce il modello di intelligenza artificiale “Mythos” ad alto rischio di Anthropic

8

Secondo quanto riferito, un gruppo di utenti non autorizzati ha ottenuto l’accesso a Mythos, un nuovo potente modello di intelligenza artificiale sviluppato da Anthropic. La violazione è particolarmente significativa perché Anthropic ha esplicitamente classificato la tecnologia come “troppo pericolosa” per il rilascio al pubblico a causa del suo potenziale di porre rischi senza precedenti per la sicurezza informatica.

La violazione: una vulnerabilità di terze parti

Secondo quanto riportato da Bloomberg e Euronews Next, l’accesso non autorizzato non deriva da un attacco diretto all’infrastruttura centrale di Anthropic. Invece, gli hacker sono riusciti a aggirare la sicurezza attraverso un ambiente di fornitori di terze parti.

Secondo quanto riferito, il gruppo coinvolto fa parte di una comunità Discord privata dedita alla scoperta e al test di modelli di intelligenza artificiale inediti. Una volta entrati, i membri di questo gruppo avrebbero utilizzato regolarmente il modello Mythos per i propri scopi.

Anthropic ha risposto all’incidente, affermando:

“Stiamo indagando su un rapporto che sostiene l’accesso non autorizzato a Claude Mythos Preview attraverso uno dei nostri ambienti di fornitori di terze parti.”

La società ha sottolineato che attualmente non ci sono prove che i sistemi interni di Anthropic siano stati compromessi o che la violazione si sia estesa oltre l’ambiente specifico del fornitore.

Cos’è Mythos e perché è limitato?

Mythos non è un chatbot consumer standard come Claude. Si tratta di uno strumento specializzato progettato per la sicurezza aziendale, creato appositamente per identificare le vulnerabilità e rafforzare le difese della sicurezza informatica.

Grazie alla sua sofisticata capacità di comprendere e sfruttare le debolezze digitali, Anthropic ha implementato una strategia di lancio altamente controllata nota come Progetto Glasswing. Questo progetto limita l’accesso a un gruppo selezionato di grandi istituzioni che possono sia trarre vantaggio dallo strumento sia gestirne i rischi intrinseci.

I tester attuali includono:
Giganti della tecnologia: Amazon e Apple.
Istituti finanziari: JPMorgan Chase, Goldman Sachs, Citigroup, Bank of America e Morgan Stanley.

L’importanza strategica dei miti nel settore bancario

L’elevato livello di interesse da parte del settore finanziario sottolinea il potenziale impatto del modello sulla sicurezza economica globale. Ad aprile, il segretario al Tesoro americano Scott Bessent avrebbe convocato un incontro con alcuni banchieri americani di alto livello a Washington per discutere il modello Mythos.

L’obiettivo di tali discussioni è incoraggiare le principali banche a integrare il modello nelle loro operazioni per rilevare e mitigare le vulnerabilità sistemiche. Ciò evidenzia una tendenza in crescita nel settore: utilizzare l’intelligenza artificiale avanzata come “arma a doppio taglio”, impiegando modelli altamente capaci per difendersi dagli stessi tipi di attacchi informatici che quegli stessi modelli potrebbero teoricamente facilitare.

Conclusione

La violazione di Mythos evidenzia una tensione critica nel settore dell’intelligenza artificiale: quanto più un modello di sicurezza diventa efficace, tanto più pericoloso è se cade nelle mani sbagliate. Anche se la fuga di notizie sembra limitata a un fornitore terzo, solleva domande urgenti sulla sicurezza delle catene di approvvigionamento utilizzate per implementare tecnologie di intelligenza artificiale ad alto rischio.