OpenAI conquista un contratto per la difesa dopo lo stop degli Stati Uniti all’uso di Anthropic
- 28 Febbraio 2026
- Posted by: Tony
- Categoria: Crypto, Mercati
OpenAI ha raggiunto un’intesa con il Department of Defense degli Stati Uniti per rendere disponibili i propri modelli di intelligenza artificiale all’interno di una rete militare classificata, a poche ore dall’ordine della Casa Bianca che mirava a sospendere l’uso di tecnologie fornite dalla concorrente Anthropic nelle agenzie federali.
Sam Altman ha annunciato:
“Forniremo i nostri modelli all’interno della rete classificata del Pentagon. Il Dipartimento ha dimostrato un profondo rispetto per la sicurezza e la volontà di operare entro i limiti concordati dalla nostra azienda.”
L’annuncio arriva in un contesto di forte tensione nel settore dell’IA: nella stessa giornata il segretario alla Difesa Pete Hegseth ha definito Anthropic come un “rischio per la catena di approvvigionamento alla sicurezza nazionale“, una designazione che di norma viene riservata a fornitori legati a Stati percepiti come avversari.
Pete Hegseth ha dichiarato:
“[Si tratta di] un rischio per la catena di approvvigionamento e per la sicurezza nazionale.”
La classificazione impone agli appaltatori della Difesa l’obbligo di certificare l’assenza di utilizzo dei modelli di Anthropic. Parallelamente, l’ex presidente Donald Trump ha ordinato a tutte le agenzie federali di interrompere immediatamente l’uso delle tecnologie fornite da Anthropic, concedendo fino a sei mesi di periodo transitorio per i sistemi già implementati.
Contesto e svolgimento delle trattative
La controversia segue negoziati precedenti tra il Pentagon e Anthropic, che aveva firmato un contratto da circa 200 milioni di dollari per distribuire i suoi modelli nell’ambiente classificato del Dipartimento. Le trattative sono però naufragate quando Anthropic ha posto condizioni volte a limitare usi specifici della propria tecnologia, rifiutando garanzie che permettessero impieghi considerati incompatibili con la propria policy etica.
Anthropic ha detto:
“Siamo profondamente rattristati da questa designazione e intendiamo impugnarla in sede giudiziaria.”
L’azienda ha inoltre avvertito che la decisione potrebbe creare un precedente nelle future negoziazioni tra aziende tecnologiche americane e agenzie governative, complicando il bilanciamento tra esigenze di sicurezza nazionale e principi etici sull’uso dell’IA.
Termini e garanzie richieste da OpenAI
Secondo quanto dichiarato da OpenAI, l’accordo include restrizioni analoghe a quelle che l’azienda applica in altri contesti: limiti sull’uso per sorveglianza di massa e clausole che richiedono la presenza di responsabilità umana nelle decisioni che coinvolgono l’impiego della forza.
Sam Altman ha affermato:
“La nostra policy vieta l’uso per la sorveglianza di massa a livello domestico e richiede sempre responsabilità umana nelle decisioni che comportano l’uso della forza, incluse applicazioni in sistemi automatizzati.”
L’inclusione di queste clausole rappresenta un tentativo di conciliare la necessità del Dipartimento di Difesa di utilizzare soluzioni avanzate con le preoccupazioni etiche e legali relative all’automazione nelle operazioni militari.
Reazioni pubbliche e impatto sul settore
La svolta ha suscitato reazioni contrastanti: alcuni utenti e osservatori hanno espresso sfiducia, temendo che la partnership tra grandi aziende dell’IA e istituzioni militari possa erodere principi etici o favorire concentrazioni di potere tecnologico.
Christopher Hale ha scritto:
“Ho appena cancellato ChatGPT e acquistato Claude Pro Max. Uno difende i diritti dati da Dio al popolo americano. L’altro si piega ai tiranni.”
Un utente ha commentato:
“2019 OpenAI: non aiuteremo mai a costruire armi o strumenti di sorveglianza. 2026 OpenAI: Dipartimento della Guerra, tienimi la mia istanza cloud classificata.”
Oltre alle reazioni individuali, la decisione potrebbe avere effetti sul mercato dell’IA: favorire un fornitore per applicazioni sensibili implica ridefinire criteri di approvvigionamento, valutazioni del rischio e responsabilità legale degli appaltatori. Le controversie legali annunciate da Anthropic e la crescente attenzione politica promettono di tenere alta la pressione sulle future collaborazioni tra governo e imprese tecnologiche.
Nel medio termine, le amministrazioni pubbliche e le aziende dovranno bilanciare esigenze operative e requisiti di sicurezza con standard etici e controlli indipendenti, per evitare che lo sviluppo e l’adozione dell’IA vengano ostacolati da controversie regolatorie o dalla perdita di fiducia dell’opinione pubblica.