Anthropic lancia un pac mentre aumentano le tensioni sulla regolamentazione dell’intelligenza artificiale

Anthropic, azienda specializzata in intelligenza artificiale, ha costituito un comitato di azione politica finanziato dai dipendenti, entrando così direttamente nel campo del finanziamento elettorale mentre a Washington crescono le discussioni sulle politiche relative all’IA.

L’impresa ha depositato una dichiarazione di organizzazione presso la Federal Election Commission (FEC) per istituire il comitato denominato AnthroPAC. Il comitato sarà alimentato da contributi volontari del personale e risulta connesso all’azienda come “connected organization”, configurandosi come un “separate segregated fund” registrato come PAC affiliato a attività di lobbying.

Secondo la normativa statunitense, i contributi individuali sono limitati a 5.000 dollari per ciclo elettorale per ciascun candidato e sono soggetti a rendicontazione pubblica attraverso gli adempimenti previsti dalla FEC.

L’azienda ha indicato che il comitato dovrebbe sostenere candidati di entrambi i principali schieramenti politici, ma alcuni osservatori hanno sollevato dubbi sulla capacità dell’iniziativa di mantenere un equilibrio effettivo nella pratica.

Tensioni con il Dipartimento della Difesa

L’annuncio arriva in un momento di crescenti attriti tra Anthropic e il Dipartimento della Difesa degli Stati Uniti. In febbraio il Dipartimento ha qualificato l’azienda come rischio per la catena di approvvigionamento dopo che la società si è pubblicamente opposta all’impiego delle proprie tecnologie in sistemi d’arma completamente autonomi e in programmi di sorveglianza di massa.

Anthropic ha contestato tale qualificazione in sede giudiziaria, sostenendo che si tratti di una ritorsione nei confronti di una posizione protetta. Un giudice federale in California ha emesso un provvedimento temporaneo che ha sospeso la misura e ha congelato alcune restrizioni più ampie legate alla controversia.

La disputa ha implicazioni concrete per gli appalti e per la progettazione delle politiche pubbliche sull’IA: la qualificazione come rischio per la catena di approvvigionamento può limitare l’accesso a contratti governativi e innescare revisioni più ampie sulle procedure di sicurezza e conformità per i fornitori tecnologici.

Parallelamente, l’azienda è già risultata attiva nel finanziamento di iniziative legate alla sicurezza dell’IA durante questo ciclo politico, sostenendo con risorse dirette organizzazioni impegnate nello sviluppo di standard e pratiche per un uso responsabile delle tecnologie.

Finanziamento e infrastrutture per l’IA

Sul fronte infrastrutturale, Google starebbe predisponendo un supporto a un ambizioso progetto di centro dati in Texas concesso in locazione a Anthropic, a testimonianza della crescente domanda di capacità di calcolo necessaria per le applicazioni di intelligenza artificiale avanzata.

Il progetto, gestito da Nexus Data Centers, potrebbe superare i 5 miliardi di dollari nella prima fase: secondo le fonti disponibili, Google sarebbe pronta a erogare finanziamenti per la costruzione mentre istituti bancari concorrono per allestire tranche aggiuntive di credito.

La realizzazione di data center su larga scala è centrale per il settore: aumenta la capacità computazionale, influisce sui costi operativi e sul posizionamento competitivo delle aziende AI, e solleva questioni collegate alla sicurezza nazionale, alla localizzazione dei dati e alla regolamentazione sulle esportazioni di tecnologie sensibili.

Complessivamente, la creazione di un AnthroPAC e gli sviluppi infrastrutturali evidenziano come le scelte commerciali delle imprese di IA stiano diventando sempre più interconnesse con le dinamiche politiche e di sicurezza pubblica, imponendo un’attenzione continuativa da parte dei legislatori, dei regolatori e degli stakeholder interessati alla governance di queste tecnologie.