Il ceo di Nvidia Jensen Huang avverte Joe Rogan: la corsa all’intelligenza artificiale è reale ma non ci sarà un vincitore chiaro
- 3 Dicembre 2025
- Posted by: Tony
- Categoria: Crypto, Mercati
Jensen Huang, amministratore delegato di Nvidia, ha affermato che la competizione sull’IA non si risolverà con un singolo colpo di scena e istantaneo: secondo lui, l’accelerazione dell’intelligenza artificiale è l’ultimo capitolo di una lunga rivalità tecnologica globale che ha più volte ridisegnato gli equilibri geopolitici, dal secondo conflitto mondiale alla Guerra Fredda.
Jensen Huang ha detto:
“Ci siamo sempre trovati in una corsa tecnologica con qualcuno.”
Nella conversazione registrata per The Joe Rogan Experience, Huang ha paragonato la spinta odierna per la supremazia nell’IA al Manhattan Project, sottolineando però una differenza fondamentale: il ritmo. Piuttosto che un traguardo improvviso e decisivo, ha spiegato, i progressi dell’IA arriveranno a ondate, con miglioramenti continui che spesso sfuggono all’osservazione immediata ma risultano evidenti a posteriori.
Il dirigente ha osservato che, negli ultimi due anni, le capacità dei sistemi di IA sono aumentate di circa cento volte, una velocità di sviluppo che ha alimentato preoccupazioni pubbliche su armi autonome e macchine in grado di operare al di là dei vincoli morali umani.
Huang ha però posto l’accento su un altro aspetto: gran parte dell’energia dello sviluppo si sta riversando nella funzionalità e nella sicurezza dei sistemi, rendendoli più affidabili, più utili e meno soggetti a errori.
Per questo motivo ha difeso il ruolo delle forze armate statunitensi nello sviluppo dell’IA, sostenendo che l’impegno della difesa può contribuire a integrare la tecnologia all’interno della sicurezza nazionale in modo trasparente e regolato, piuttosto che lasciarla nelle mani di attori opachi e non responsabili.
Il conduttore ha sollevato timori noti: il rischio che l’IA superi il giudizio umano e la minaccia a lungo termine che il calcolo quantistico possa incrinare gli attuali sistemi di crittografia.
Jensen Huang ha detto:
“L’IA rimarrà in genere solo un passo avanti, un ‘clic’ più avanti rispetto a noi.”
Secondo Huang, la storia è piena di momenti in cui la società ha reagito con panico alle nuove invenzioni, per poi adattarsi una volta che la tecnologia è diventata comprensibile e normata. Da questa prospettiva, la sfida attuale sarebbe soprattutto di governance: comprendere, monitorare e regolare l’IA perché i benefici superino i rischi.
Contesto storico e implicazioni geopolitiche
Il richiamo a episodi storici come il Manhattan Project serve a ricordare che le competizioni tecnologiche possono avere conseguenze durature sulle alleanze e sulle strategie nazionali. Le potenze mondiali vedono nell’IA non solo uno strumento economico, ma anche un fattore di potere strategico, capace di influire su capacità militari, sorveglianza e controllo delle infrastrutture critiche.
Questo quadro rende necessarie risposte coordinate a livello internazionale: norme condivise, controlli sulle esportazioni di tecnologie sensibili e meccanismi di dialogo tra governi, industria e comunità scientifica per evitare escalation o usi dannosi.
Sicurezza, difesa e regolamentazione
Il dibattito sull’intervento delle forze armate nello sviluppo dell’IA è complesso. Da un lato, la partecipazione della difesa può accelerare standard di sicurezza e responsabilità; dall’altro, solleva interrogativi su trasparenza, controllo civile e diffusione di tecnologie potenzialmente pericolose.
Per mitigare i rischi servono norme chiare e istituzioni capaci di valutare impatti etici e operativi. Autorità nazionali ed enti regolatori devono collaborare con aziende tecnologiche e ricercatori per definire limiti d’uso, criteri di responsabilità e protocolli di sicurezza per sviluppi sensibili.
Verso un’IA che diventa infrastruttura
La visione finale proposta da Huang non è quella di un vincitore unico che alza una bandiera, ma di un’IA che si integra nelle infrastrutture quotidiane e finisce per essere data per scontata perché funziona. In questo scenario l’intelligenza artificiale diventa una componente trasversale di servizi come la sanità, i trasporti e l’amministrazione pubblica, migliorandone efficienza e accessibilità.
Perché ciò avvenga in modo responsabile, è cruciale investire non solo nella potenza computazionale, ma anche in valutazioni d’impatto, formazione specialistica e sistemi di audit indipendenti che garantiscano equità, sicurezza e rispetto dei diritti.
Bilanciare innovazione e tutela richiederà l’impegno congiunto di governi, industria, comunità scientifica e società civile: un percorso che deve puntare a massimizzare i benefici sociali minimizzando i rischi di uso improprio o di esclusione.