Amministratore delegato di OpenAI esorta gli Stati Uniti: preparatevi ai rischi e ai vantaggi della superintelligenza

Sam Altman, amministratore delegato di OpenAI, ha avvertito che i responsabili politici dei Stati Uniti devono intervenire subito per prepararsi all’arrivo di forme avanzate di intelligenza artificiale, poiché la tecnologia sta passando dalla teoria a un uso economico quotidiano.

Secondo Altman, i sistemi di intelligenza artificiale gestiscono già attività di programmazione e di ricerca che un tempo richiedevano interi team di sviluppatori, e i modelli più recenti potranno spingersi oltre, supportando scienziati nelle scoperte e consentendo a singole persone di svolgere compiti prima assegnati a gruppi.

Prepararsi all’intelligenza artificiale avanzata

La rapidità con cui queste capacità si stanno diffondendo implica che i decisori pubblici, le imprese tecnologiche e le comunità di sicurezza debbano collaborare per creare norme, standard tecnici e capacità di risposta. Questo include investimenti in controllo, monitoraggio e resilienza operativa per mitigare rischi imprevisti.

Le proposte di policy avanzate presentate dall’industria devono servire come punto di partenza per un dibattito più ampio su come governare sistemi che apprendono rapidamente e operano in settori moltiplicati, dalla salute alla difesa cyber.

Impatto sulla sicurezza informatica

L’adozione di strumenti basati su intelligenza artificiale ha già alterato l’equilibrio nel campo della sicurezza informatica: alcuni esperti del settore rilevano che tali tecnologie hanno abbassato il costo e la soglia tecnica per identificare ed esploitare vulnerabilità software.

Charles Guillemet, chief technology officer di Ledger, ha spiegato:

“Operazioni che prima richiedevano mesi, come il reverse-engineering del codice o il collegamento di più vulnerabilità, possono ora essere svolte in pochi secondi con i prompt adeguati.”

Il settore crypto ha già registrato ingenti perdite: nell’ultimo anno sono stati sottratti o persi oltre 1,4 miliardi di dollari in seguito ad attacchi. L’integrazione crescente di codice generato dall’AI tra gli sviluppatori può introdurre nuove vulnerabilità su scala più ampia.

La risposta a questi rischi richiederà difese più robuste, come codice verificato matematicamente, dispositivi hardware che mantengano le chiavi private offline e una più ampia consapevolezza che i sistemi complessi possono fallire e devono essere progettati per il degrado controllato.

AI e biosicurezza

Altman ha indicato che la stessa potenza che accelera la scoperta di farmaci o di nuovi materiali può anche abbassare le barriere per attività biologiche dannose: sequenze, protocolli o progettazioni replicabili grazie a modelli molto capaci potrebbero facilitare ricerche pericolose.

Sam Altman said:

“Non siamo così lontani da un mondo in cui esistono modelli open-source estremamente capaci nel campo della biologia.”

Ha aggiunto che la necessità di rendere la società resiliente all’uso di questi modelli da parte di gruppi terroristi non è più un’ipotesi teorica, sottolineando l’urgenza di coordinamento tra governi, aziende tecnologiche e organismi di sicurezza per prevenire e mitigare tali minacce.

Sam Altman said:

“La necessità che la società sia resiliente contro gruppi terroristici che usano questi modelli per tentare di creare agenti patogeni nuovi non è più una cosa teorica.”

Come ulteriore scenario, Altman ha evocato la possibilità di un attacco informatico di portata eccezionale già nel breve termine, scenario che richiederebbe uno sforzo considerevole per essere evitato o mitigato.

Ruolo delle imprese e del governo

Su un possibile processo di nazionalizzazione delle tecnologie AI, Altman ha sostenuto che l’argomento contrario si basa sulla necessità che le Stati Uniti raggiungano per primi una superintelligenza allineata ai valori democratici, piuttosto che lasciare questo traguardo a potenze concorrenti.

Sam Altman said:

“Il principale argomento contro la nazionalizzazione sarebbe che abbiamo bisogno che i Stati Uniti riescano a costruire la superintelligenza in modo allineato ai valori democratici prima che lo faccia qualcun altro.”

Ha inoltre osservato che un progetto governativo puro probabilmente non sarebbe la soluzione più efficace, e ha ribadito la necessità di una stretta collaborazione tra imprese private attive nel settore e istituzioni pubbliche per sviluppare governance, standard di sicurezza e capacità di intervento.

Va considerato che la posizione di Altman è anche influenzata dalla sua partecipazione finanziaria nel settore: tale ruolo può incidere sul modo in cui vengono rappresentate l’urgenza delle regolamentazioni e il coinvolgimento delle aziende private nella gestione dei rischi emergenti.

L’intelligenza artificiale come utilità

Altman ha indicato l’energia come uno dei settori in cui si possono vedere progressi rapidi, perché una maggiore capacità di calcolo distribuita può mantenere bassi i costi man mano che cresce la domanda di servizi AI.

Ha inoltre rilevato segnali iniziali di cambiamento nei ruoli lavorativi: un programmatore nel 2026, secondo Altman, lavora già in modo diverso rispetto a un collega dell’anno precedente, grazie agli strumenti intelligenti che aumentano produttività e automazione.

Sam Altman said:

“Avrete un super-assistente personale che gira nel cloud: se lo usate molto o a livelli elevati di intelligenza avrete un conto più alto in un mese, se lo usate meno pagherete di meno.”

Secondo Altman, la diffusione dell’intelligenza artificiale seguirà un modello simile a quello delle utilities: capacità di base ampiamente disponibili a basso costo, mentre i sistemi di punta rimarranno più costosi e accessibili con tariffe differenziate.

Ha infine sottolineato l’importanza dell’integrità di chi costruisce questi sistemi, richiamando l’attenzione sulla necessità che gli attori protagonisti siano persone e organizzazioni affidabili e responsabili.

Sam Altman said:

“È incredibilmente importante che le persone che costruiscono l’AI siano persone di alta integrità e degne di fiducia.”