Anthropic trascina in tribunale il governo degli Stati Uniti per presunta messa nella lista nera della sua intelligenza artificiale
- 10 Marzo 2026
- Posted by: Tony
- Categoria: Crypto, Mercati
Anthropic ha avviato una causa presso il Tribunale Distrettuale degli Stati Uniti per il Distretto Settentrionale della California, indicando come imputate numerose agenzie federali statunitensi, tra cui il Dipartimento del Tesoro, il Dipartimento del Commercio, il Dipartimento di Stato, il Dipartimento della Salute e dei Servizi Umani, il Dipartimento per gli Affari dei Veterani e la Amministrazione dei Servizi Generali.
L’azienda sostiene che il governo federale abbia di fatto escluso i suoi sistemi di intelligenza artificiale dalle gare e dagli acquisti pubblici senza rispettare le procedure legali necessarie per imporre un divieto a un fornitore.
Secondo il ricorso, le restrizioni sono state disposte senza una determinazione formale, senza una revisione interagenzia documentata, senza prove pubbliche e senza valutare alternative meno restrittive, come approvazioni condizionate o verifiche di sicurezza indipendenti.
La denuncia descrive inoltre un meccanismo informale di diffusione della direttiva tramite canali di approvvigionamento centralizzati, che avrebbe portato all’esclusione generalizzata di Anthropic dalle commesse federali.
La causa e le richieste dell’azienda
Anthropic chiede al tribunale di dichiarare illegittime le restrizioni imposte e di impedire alle agenzie di applicarle. In pratica, la società richiede un’ingiunzione che riapra l’accesso alle gare e ai contratti federali.
Se il ricorso avesse successo, la decisione potrebbe non solo consentire a Anthropic di tornare a competere sul mercato pubblico, ma anche fissare un precedente sulle modalità con cui le agenzie federali possono limitare fornitori di tecnologia per motivi di sicurezza nazionale senza seguire norme procedurali.
Contesto: l’adozione dell’intelligenza artificiale nel governo federale
La controversia assume rilevanza maggiore perché il governo federale sta conducendo una delle più vaste campagne di adozione di intelligenza artificiale nella sua storia, con soluzioni generative che vengono impiegate per la cybersecurity, l’analisi di intelligence, l’automazione amministrativa e il supporto alle decisioni interne.
Molte agenzie hanno adottato come strumento di riferimento prodotti sviluppati da OpenAI, in particolare ChatGPT, e i contratti nel settore sono spesso di ampia portata, pluriennali e strategici per il funzionamento operativo degli enti pubblici.
Essere esclusi da questo mercato non rappresenta un semplice danno commerciale, ma una seria perdita competitiva per qualsiasi azienda di intelligenza artificiale che ambisca a operare a livello istituzionale.
Motivazioni delle agenzie e possibili alternative
Secondo l’atto di citazione, i funzionari governativi avrebbero giustificato le restrizioni con preoc-cupazioni legate alla sicurezza nazionale e alla catena di approvvigionamento. Tuttavia, la contestazione legale mette in evidenza l’assenza di misure procedurali che valutino se siano possibili soluzioni meno drastiche.
Tra le alternative praticabili esistono approcci come autorizzazioni condizionate, audit di sicurezza indipendenti, piani di mitigazione dei rischi e limiti operativi mirati che consentono l’uso controllato di tecnologie pur tutelando gli interessi di sicurezza dello Stato.
Reazioni e possibili sviluppi
Il governo non ha rilasciato una risposta pubblica formale al deposito della causa. Alcune fonti governative hanno riferito che la Casa Bianca stava valutando misure esecutive per regolamentare l’uso di specifiche tecnologie nei sistemi federali, ma le informazioni su iniziative concrete sono ancora frammentarie.
Nel breve termine, la disputa potrebbe tradursi in un confronto giuridico sulle procedure amministrative e sulle garanzie richieste per limitare l’accesso al mercato pubblico. Sul piano politico e regolatorio, il caso potrebbe spingere verso criteri più chiari per valutare rischi e benefici nell’adozione dell’IA da parte delle istituzioni.
Implicazioni per il settore dell’intelligenza artificiale
Un pronunciamento giudiziario favorevole a Anthropic potrebbe riaffermare l’esigenza che le amministrazioni seguano processi trasparenti e documentati prima di escludere fornitori tecnologici. Al contrario, un rigetto rafforzerebbe la discrezionalità delle agenzie nel proteggere interessi di sicurezza nazionale.
In ogni caso, la vicenda mette in luce la necessità di bilanciare la rapidità di adozione delle tecnologie emergenti con regole chiare, valutazioni del rischio e meccanismi di supervisione che tutelino sia la sicurezza pubblica sia la concorrenza leale nel mercato.