La minaccia di Mythos AI spinge Bessent e Powell a convocare i ceo delle banche per colloqui urgenti
- 10 Aprile 2026
- Posted by: Tony
- Categoria: Crypto, Mercati
Regolatori statunitensi hanno convocato un incontro urgente per valutare le implicazioni dell’intelligenza artificiale avanzata nota come Mythos per il settore bancario. All’incontro, tenutosi martedì, hanno partecipato il segretario al Tesoro Scott Bessent e il presidente della Federal Reserve (Fed) Jerome Powell insieme ai chief executive di grandi banche di Wall Street, tra cui Citigroup Inc, Morgan Stanley, Bank of America Corp., Wells Fargo & Co. e Goldman Sachs Group Inc.. Queste istituzioni sono considerate systemically important, il che significa che interruzioni significative delle loro attività potrebbero avere ripercussioni a livello globale.
Cos’è Mythos e come funziona
Mythos è un modello di intelligenza artificiale sviluppato da Anthropic con capacità mirate all’individuazione e allo sfruttamento di vulnerabilità nei sistemi software quando riceve richieste specifiche. A differenza degli strumenti IA rivolti ai consumatori, Mythos è orientato all’ingegneria della sicurezza informatica e ad attività offensive e difensive: può identificare bug critici e costruire exploit sofisticati su indicazione.
Preoccupazioni per il settore bancario e la finanza decentralizzata
La diffusione di strumenti capaci di scoprire e sfruttare vulnerabilità in tempo reale solleva questioni di natura sistemica. I regolatori ora interpretano il rischio legato all’IA non solo come un problema tecnologico, ma come un potenziale fattore scatenante di eventi sistemici. In particolare, si temono scenari nei quali attacchi automatizzati e a basso costo possano compromettere infrastrutture critiche e flussi finanziari globali.
Particolare attenzione è stata espressa anche per la finanza decentralizzata (DeFi). Poiché i protocolli DeFi si basano su contratti intelligenti e infrastrutture pubbliche, una scoperta tempestiva di vulnerabilità zero-day e il loro sfruttamento potrebbero causare perdite immediate, fuoriuscite di capitale e effetti di contagio estesi, vista l’elevata integrazione con servizi di scambio, custodia e mercato.
Risposta di Anthropic e limiti al rilascio
Per mitigare rischi immediati, Anthropic ha adottato un approccio di rilascio controllato: Mythos è stato reso disponibile solo a un gruppo ristretto di grandi aziende tecnologiche e finanziarie nell’ambito di un programma denominato Project Glasswing. L’obiettivo dichiarato è valutare impatti operativi e testare controlli di sicurezza in ambienti limitati prima di un’eventuale diffusione più ampia.
Anthropic ha inoltre riferito di aver consultato funzionari statunitensi prima del lancio per discutere sia le capacità offensive sia quelle difensive del modello. Questa interlocuzione è parte di un più ampio tentativo di bilanciare innovazione e sicurezza, coinvolgendo le autorità preposte alla sicurezza nazionale e alla supervisione finanziaria.
Contenzioso e rischi di catena di fornitura
Anthropic è anche coinvolta in una disputa legale con il Pentagon, che ha qualificato l’azienda come un rischio per la catena di approvvigionamento. Tale classificazione può incidere sull’accesso a contratti governativi e sulle relazioni commerciali con soggetti soggetti a vincoli di sicurezza nazionale; Anthropic sta contestando questa valutazione in sede giudiziaria, sostenendo la necessità di un approccio basato su evidenze tecniche e processi di mitigazione concordati.
Valutazioni regolamentari e misure di mitigazione
Nel corso dell’incontro le autorità e i dirigenti bancari hanno esaminato una serie di aree chiave che potrebbero richiedere interventi: valutazioni tecniche approfondite dei modelli IA, rafforzamento dei protocolli di gestione del rischio terze parti, requisiti di disclosure in caso di incidenti e l’eventuale integrazione di scenari di stress specifici per minacce AI nei test di resilienza.
Tra le misure pratiche emerse come prioritarie figurano lo scambio strutturato di informazioni sulle minacce, esercitazioni di tipo red-team, controlli di accesso più rigidi ai modelli sensibili, meccanismi di responsabilità per sviluppatori e utilizzatori e accordi di divulgazione responsabile delle vulnerabilità. A livello normativo, i supervisori potrebbero valutare linee guida tecniche o requisiti formali per l’uso di modelli IA in ambiti critici come la finanza.
Conclusioni e implicazioni future
L’incontro tra regolatori e grandi banche sottolinea l’urgenza di definire quadri di governance che permettano di sfruttare i benefici dell’IA avanzata riducendo al minimo i rischi sistemici. Occorre un approccio coordinato tra settore privato, autorità di regolamentazione e organismi di sicurezza nazionale per stabilire standard, test di sicurezza e canali di responsabilità che accompagnino tecnologie con potenziali impatti sulla stabilità finanziaria.