Forze armate degli Stati Uniti hanno impiegato l’intelligenza artificiale di Anthropic nell’attacco in Iran nonostante il divieto di Trump, secondo un rapporto
- 1 Marzo 2026
- Posted by: Tony
- Categoria: Crypto, Mercati
Secondo fonti informate, le forze armate degli Stati Uniti avrebbero impiegato il modello di intelligenza artificiale Claude, sviluppato da Anthropic, durante un importante attacco aereo contro obiettivi in Iran, poche ore dopo un ordine dell’amministrazione presidenziale di sospendere l’uso dei sistemi della stessa società.
La procedura avrebbe coinvolto comandi operativi nella regione mediorientale, inclusa CENTCOM, che avrebbero utilizzato Claude per supporto operativo: analisi di intelligence, individuazione di potenziali bersagli e simulazioni tattiche. L’episodio evidenzia quanto i sistemi avanzati di IA siano ormai integrati nei flussi di lavoro della difesa, nonostante la decisione politica di interrompere alcuni rapporti con il fornitore.
Impiego operativo di Claude
Secondo le ricostruzioni, Claude era già stato approvato per flussi di lavoro classificati e operativi grazie a contratti pluriennali e a partnership con fornitori tecnologici che ne hanno permesso l’integrazione nelle infrastrutture militari. La piattaforma sarebbe stata impiegata anche in operazioni precedenti, contribuendo all’analisi di dati di intelligence e alla pianificazione tattica.
Contrasti contrattuali e decisione amministrativa
L’amministrazione presidenziale ha istruito le agenzie federali a interrompere la collaborazione con Anthropic e ha indicato al Dipartimento della Difesa di considerare la società come un possibile rischio per la supply chain della difesa. La misura è arrivata dopo il mancato accordo sulle condizioni contrattuali: i vertici militari hanno chiesto l’autorizzazione a un uso militare senza restrizioni per scenari ritenuti legittimi dalle autorità, richiesta che la società non ha accettato.
Di fronte al rifiuto, il Dipartimento della Difesa ha avviato la ricerca di fornitori alternativi e ha concordato l’impiego di modelli di altri sviluppatori sulle reti classificate, con l’obiettivo di mantenere capacità operative e continuità nei flussi di intelligence sensibile.
Divergenze sui limiti etici e tecnologici
Il dibattito si è focalizzato sui limiti etici che Anthropic intende mantenere: la società ha dichiarato la volontà di non autorizzare alcuni usi dei propri modelli, ritenuti incompatibili con principi etici stabiliti internamente, anche a costo di perdere commesse governative.
Dario Amodei ha risposto alle misure adottate dal governo sostenendo la necessità di fissare confini chiari sull’impiego della tecnologia e di mantenere il controllo umano nelle decisioni militari.
Dario Amodei ha affermato:
“La nostra azienda si oppone all’uso dei suoi modelli per la sorveglianza di massa sul territorio nazionale e per lo sviluppo di armi completamente autonome; riteniamo che decisioni critiche debbano rimanere sotto controllo umano.”
Ruolo di altri attori e alternative tecnologiche
Per garantire la continuità operativa, il Pentagon e altre strutture del settore sicurezza hanno esplorato accordi con diversi fornitori di IA, riconfigurando integrazioni tecnologiche e autorizzazioni per permettere l’uso su reti classificate. Questi passaggi implicano revisioni contrattuali, valutazioni di rischio e adeguamenti infrastrutturali.
Implicazioni strategiche e normative
L’episodio solleva questioni rilevanti per la politica industriale e di sicurezza nazionale: come bilanciare esigenze operative urgenti con vincoli etici e di sicurezza, quale sia il livello di autonomia consentito ai sistemi di IA in contesti bellici e come gestire la dipendenza da fornitori privati per capacità strategiche sensibili.
Sul piano normativo, la situazione richiama l’attenzione sulla necessità di regole più chiare riguardo agli acquisti pubblici di tecnologie avanzate, sulla valutazione dei rischi della catena di fornitura e su meccanismi di oversight che coinvolgano istituzioni competenti, organi di controllo parlamentari e autorità di sicurezza.
Considerazioni finali
L’integrazione dell’intelligenza artificiale nelle operazioni militari continua ad aumentare la complessità delle decisioni politiche e tecniche. La vicenda mette in luce la tensione tra esigenze di prontezza operativa e limiti etici posti dai fornitori tecnologici, sottolineando l’urgenza di quadri normativi, procedure di valutazione del rischio e canali di dialogo tra settore pubblico e privato per gestire responsabilmente l’adozione di queste tecnologie.