Attacco dell’amministratore delegato di Anthropic al Pentagono: decisione senza precedenti

Dario Amodei, amministratore delegato di Anthropic, ha risposto alle decisioni del Dipartimento della Difesa degli Stati Uniti e della Casa Bianca che hanno imposto ai fornitori militari di interrompere l’uso dei prodotti dell’azienda nelle attività legate alla difesa.

Secondo Amodei, Anthropic si oppone all’impiego dei suoi modelli di intelligenza artificiale per programmi di sorveglianza di massa sul territorio nazionale e per piattaforme d’armi completamente autonome in grado di ingaggiare bersagli senza intervento umano; per il resto, l’azienda ritiene accettabili gli altri casi d’uso proposti dal governo.

Dario Amodei ha detto:

“Si tratta di principi fondamentali per gli americani: il diritto a non essere spiati dal governo, il diritto che i nostri ufficiali militari prendano decisioni sulla guerra e non cedano interamente quelle responsabilità a una macchina.”

Amodei ha definito l’etichettatura di Anthropic come ‘supply chain risk’ da parte del Dipartimento della Difesa un provvedimento senza precedenti e punitivo; ha inoltre precisato di non essere contrario allo sviluppo di armi totalmente automatizzate qualora forze straniere dovessero adottarle, ma ha sottolineato che la tecnologia non è ancora sufficientemente affidabile per operare in autonomia in contesti militari.

Etiche e limiti d’uso

La questione solleva interrogativi etici, giuridici e operativi. Le armi completamente autonome e i programmi di sorveglianza di massa toccano diritti fondamentali e principi di diritto internazionale umanitario, come la distinzione e la proporzionalità nelle operazioni belliche, oltre alla responsabilità decisionale degli operatori umani.

Le istituzioni nazionali e internazionali sono chiamate a definire criteri tecnici e normativi rigorosi: standard di sicurezza, requisiti di trasparenza, meccanismi di verifica indipendente e procedure di escalation che mantengano il controllo umano nelle scelte critiche.

Etichettatura come rischio per la catena di approvvigionamento

Un alto funzionario del Dipartimento della Difesa, Pete Hegseth, ha annunciato la qualificazione di Anthropic come Supply-Chain Risk, con la conseguenza che, a partire dall’ordine, i contraenti militari non possono intrattenere rapporti commerciali con l’azienda nell’ambito di appalti di difesa.

Pete Hegseth ha detto:

“A partire da ora, nessun contraente, fornitore o partner che lavora con le forze armate statunitensi può svolgere attività commerciali con Anthropic.”

A poche ore dall’annuncio, un’altra società di intelligenza artificiale, OpenAI, ha accettato un contratto per fornire modelli operativi alla rete di difesa. La scelta ha suscitato reazioni e preoccupazioni pubbliche sulla possibilità che tecnologie di IA vengano impiegate per la sorveglianza interna e per attività con impatti rilevanti sui diritti individuali.

Implicazioni politiche e regolamentari

L’episodio mette in evidenza il vuoto normativo che accompagna la rapida evoluzione del settore dell’intelligenza artificiale. Il richiamo di Amodei al Congresso per l’adozione di guardrail normativi mira a bilanciare esigenze di sicurezza nazionale con la tutela delle libertà civili.

Dal punto di vista degli approvvigionamenti, la decisione del Dipartimento può alterare dinamiche di mercato e favorire alcuni fornitori rispetto ad altri, oltre a porre questioni su valutazioni tecniche, criteri di rischio e processi di certificazione che regolano l’accesso alle commesse militari.

Per mitigare i rischi sono spesso proposti strumenti come audit indipendenti, test di robustezza, limiti d’uso contrattuali e obblighi di segnalazione sulle implementazioni sensibili. Queste misure richiedono però un quadro legislativo chiaro e coordinato a livello nazionale e internazionale.

In sintesi, la controversia attorno all’uso militare dei modelli di IA evidenzia la necessità di definire principi condivisi che concilino innovazione tecnologica, sicurezza nazionale e rispetto dei diritti fondamentali.