È un boom o una bolla dell’intelligenza artificiale? Ecco cosa sta davvero succedendo
- 8 Ottobre 2025
- Posted by: Tony
- Categoria: Borse, Mercati
La discussione tra Wall Street e le sale riunioni delle aziende si sviluppa su due fronti distinti. Da una parte, si evidenziano i guadagni concreti che arrivano dal settore dei semiconduttori, dalle memorie, dalle reti e dai servizi cloud — componenti essenziali per l’IA — e con clienti che pagano per integrare l’IA nelle loro infrastrutture tecnologiche. Secondo i sostenitori, l’IA non è un semplice effetto scenico, ma una tecnologia con impatti reali. Dall’altra, si sottolinea il crescente divario tra la capacità promessa e la monetizzazione effettiva: data center prenotati con anni di anticipo, ma aziende che faticano a superare le revisioni sulla governance, ad affrontare set di dati riservati e processi che rimangono confinati ai laboratori, mentre le richieste si accumulano e i fabbisogni energetici aumentano in modo esponenziale.
Una lettura possibile di questo momento è separare la dimensione fisica da quella finanziaria. I fatti concreti riguardano sottostazioni, trasformatori e infrastrutture fisiche — elementi tangibili con cui ci si imbatte indossando scarpe antinfortunistiche. La dimensione finanziaria riguarda invece contratti pluriennali, previsioni future e slancio narrativo — aspetti che possono sembrare soldi reali ma che non sempre lo sono. Quando questi due aspetti concordano, si assiste a una crescita industriale che si finanzia da sola. In caso contrario, si attraversa una fase difficile, senza spettacoli, ma con molte complicazioni, evidenziate dalle formule circostanziate nei bilanci trimestrali che spingono gli analisti a rileggere estratti con evidenziatori alla ricerca di termini come “sequenziamento delle implementazioni”, “prontezza del cliente”, “fase degli investimenti” e “riconoscimento dei ricavi nei trimestri futuri”.
Anche Sam Altman, amministratore delegato di OpenAI, che ha ogni interesse a mantenere un messaggio positivo, ha avvertito che gli investitori sono “troppo entusiasti”.
“Quando si verificano bolle speculative, persone intelligenti si lasciano trascinare dall’eccitazione di una piccola verità,” ha detto parlando ad un pubblico nell’agosto 2025. “I mercati stanno correndo davanti alla realtà, e il contraccolpo arriva sempre quando il denaro entra più velocemente di quanto la tecnologia possa giustificare.”
Queste parole, considerate come segnali, rappresentano più un allarme che un lieve rumore di sottofondo.
Dal lato accademico, la posizione è altrettanto chiara. Uno studio condotto da ricercatori del Massachusetts Institute of Technology ha rilevato che il 95% dei progetti aziendali di intelligenza artificiale generativa non ha ancora prodotto profitti, una statistica che contrasta nettamente con le attese da mille miliardi dei mercati.
Due aziende sintetizzano meglio di ogni altro dato la frattura tra boom e bolla. Nvidia dimostra che, a oggi, l’IA genera profitti reali, con un fatturato record per i data center (46,7 miliardi di dollari nel secondo trimestre 2025) e previsioni che hanno trasformato numeri una volta straordinari in parametri di base, seppur con segnali di rallentamento dopo una crescita senza precedenti. Oracle, invece, mostra fino a che punto possono spingersi le scommesse future: un portafoglio ordini gonfiato da un contratto pluriennale da 300 miliardi di dollari in cinque anni con OpenAI, che comincerà solo nel 2027 e che spiega gran parte dell’impennata improvvisa dei suoi ricavi.
A seconda della prospettiva privilegiata, l’intelligenza artificiale può apparire come un’occasione storica o come una bolla pronta a scoppiare. Questi due esempi riassumono la tensione centrale del dibattito: un’azienda ottiene guadagni concreti ora, mentre l’altra è valutata in base a promesse future. La tecnologia funziona, ma la curva della monetizzazione rischia di non tenere il passo con la velocità degli investimenti.
Da questo punto di osservazione, il quadro diventa più nitido. I risultati straordinari dei produttori di chip dimostrano quanto denaro transiti davvero nell’IA in questo momento. I servizi cloud, che attribuiscono una quota significativa della crescita all’IA, mostrano come l’adozione diventi un elemento permanente. Nel frattempo, le prenotazioni di capacità – misurate in centinaia di miliardi – sostengono la posizione prudente. La risposta si trova nei dettagli: la trasformazione del capitale in ricavi, la riduzione dei costi verso prezzi sostenibili, e la realizzazione dell’ultimo miglio di adozione.
Il verdetto — bolla o boom? — dipende quindi dalla capacità di convertire rapidamente gli investimenti in risultati concreti e dal timing di questa trasformazione. Se i motori di ricavo legati all’IA (chip, memoria, rete, servizi cloud, ecc.) continueranno a tradurre la spesa in entrate mentre i costi unitari diminuiranno, i mercati potranno confermare la loro fiducia in un vero boom della tecnologia.
Siamo di fronte a un ciclo infrastrutturale duraturo che si comporta più come le lunghe fasi di sviluppo del mobile e del cloud, piuttosto che come un semplice rifacimento della bolla dot-com. È possibile che in diverse aree tecnologiche convivano simultaneamente una bolla alla periferia e un boom al centro, motivo per cui il dibattito rimane complesso e perché esperti ragionevoli possano interpretare in modo diverso gli stessi risultati trimestrali.
Gli investitori puntano a una crescita della domanda di intelligenza artificiale (IA) a doppia cifra per anni nei servizi cloud, a un interesse costante verso acceleratori di fascia premium e memorie ad altissima larghezza di banda, così come a una seconda ondata di software che supera la semplice novità per monetizzare concretamente. È evidente come la fiducia del mercato si fondi su backlog e prenotazioni di capacità, considerati quasi come denaro contante. La narrazione implicita è molto precisa: l’IA continua a incrementare la crescita del cloud; i margini rimangono stabili mentre il costo dell’inferenza diminuisce; l’adozione si estende dall’interesse iniziale alla concreta redditività. Storie chiare e definite non lasciano spazio a errori, rendendo instabile la valutazione per qualsiasi variazione nelle previsioni, che può tradursi in oscillazioni di miliardi nel valore di mercato.
Il leadership di mercato è concentrata: i flussi di capitale si dirigono verso i beneficiari più evidenti. Questa concentrazione trasforma la narrazione in un elemento strutturale del mercato. Quando un leader accenna a segnali meno incoraggianti — un contributo più lento dell’IA, ammortamenti più elevati, una previsione che passa da “accelerata” a semplicemente “sana” — anche gli indici di riferimento accusano il colpo. Tale fragilità non dimostra una bolla, ma ricorda quanto capitale dipenda da pochi dati chiave.
Se dovesse arrivare uno scossone, non somiglierà al crollo catastrofico del 2000 che sancì la fine della festa dot-com. Piuttosto, sarà una situazione in cui le aspettative superano la capacità dei data center di essere allineati temporalmente con la domanda. I primi segnali si nascondono nelle note a piè di pagina e nelle formulazioni delle previsioni: la quota di crescita del cloud attribuita all’IA smette di aumentare; i ricavi legati ai grandi backlog risultano più diluiti sul lungo termine rispetto a quanto previsto. Seguono un colpo alle aziende del software applicativo e solo in seguito a quelle dell’infrastruttura di secondo livello. Gli impianti fisici restano stabili, a muoversi è il multiplo di valutazione.
L’evoluzione dell’IA e l’infrastruttura
L’assetto attuale dell’intelligenza artificiale non si basa tanto su una scoperta improvvisa, quanto sul sovrapporsi di timeline: due curve si sono incrociate. Le capacità dei modelli sono passate da semplici novità a strumenti realmente utili — come la generazione di codice, i compiti collegati alla ricerca, la produzione di contenuti — proprio nel momento in cui una massa critica di clienti ha completato la modernizzazione delle pipeline di dati e sicurezza. Nel frattempo, i principali acquirenti hanno prenotato anni di capacità — chip, energia, spazi — trasformando la storia astratta dell’IA in un piano industriale concreto.
Questo anticipo ha modificato radicalmente la definizione di normalità: più megawatt, più memoria, più risorse necessarie a far funzionare un data center moderno al massimo della sua efficienza.
Ciclo di sviluppo: scarsità, scala, verifica
Il ritmo è stato scandito da tre fasi: iniziale scarsità, crescita di scala, successiva verifica. La scarsità ha trasformato le date di consegna in vere e proprie leve di mercato: chi riusciva a ricevere acceleratori di alta gamma, poteva venderli a caro prezzo. La fase di scala ha visto i cloud ampliare infrastrutture specializzate per l’IA sui propri parchi hardware; più piattaforme hanno attribuito una quota visibile a doppia cifra della crescita del cloud ai servizi IA, un dato confermato dai verbali delle conference call.
Ora siamo nella fase di verifica, o scrutiny. Gli acquirenti analizzano con attenzione il costo totale di proprietà, la latenza, l’affidabilità e la governance. All’interno delle aziende, i progetti pilota si dividono in due categorie: quelli che modificano realmente i processi aziendali e si riflettono nel conto economico, e quelli più numerosi che impressionano nelle dimostrazioni ma si rivelano poco efficaci in produzione.
Tre aspetti fondamentali
Tre elementi distintivi aiutano a spiegare questo scenario. Il primo è che la redditività si concentra al centro della catena, cioè su chip e cloud, che generano cassa per finanziare il prossimo ciclo — memoria, rete, fabbriche — senza dipendere da mercati azionari volatili. Il secondo aspetto riguarda l’infrastruttura, che è tangibile e limitata dalla potenza disponibile: anche se i multipli di valutazione si contraggono, gli edifici dati e le sottostazioni elettriche non scompaiono, ma vengono riciclati e integrati nel ciclo successivo. Terzo, la curva dei costi è in discesa continua grazie a acceleratori più efficienti, memorie HBM più dense e scheduler più intelligenti, che riducono il costo per unità utile di capacità.
Questo ciclo potrà eccedere nelle aspettative, come spesso accade nelle fasi pesanti di investimento, ma non è basato su clic o su previsioni di CPM irrealistiche.
Il caso rialzista si fonda su due fattori: la conversione e la pendenza. La conversione riguarda la trasformazione degli investimenti in capitale in ricavi nei livelli chip e cloud, poi in produttività a livello applicativo. La pendenza, invece, è la velocità con cui i costi scendono spingendo un miglioramento continuo dell’efficienza e del ritorno economico.
L’autunno segna un allargamento del ventaglio di applicazioni economicamente vantaggiose. Quando entrambe le direttrici si orientano nella direzione “giusta”, il motore inizia ad autoalimentarsi: i fondi di cassa finanziano le espansioni, le espansioni riducono i costi, costi inferiori ampliano il mercato, e un mercato ampliato genera più liquidità. Questo meccanismo è un volano, non una fiaba.
Al centro di tutto, non è solamente che le casse fiscali suonano, ma che si attivano meccanismi ricorrenti. I chip per data center si vendono con la stessa rapidità con cui vengono prodotti. I clienti adottano architetture più moderne che aumentano i costi di cambio e premiano i fornitori in grado di operare su larga scala. Nel cuore del sistema, le piattaforme cloud hanno superato il livello di semplice curiosità per diventare un elemento fatturabile, attribuendo una quota significativa della crescita ai carichi di lavoro legati all’intelligenza artificiale, il punto in cui l’entusiasmo si trasforma in una fetta concreta dei ricavi del cloud.
Esiste inoltre una dipendenza da percorso consolidato. Una volta che un’impresa sviluppa i flussi di dati, le misure di sicurezza e la capacità di addestramento necessari per i flussi di lavoro integrati con l’IA, diventa riluttante a dismetterli. Lo standard non è la perfezione, ma “sufficiente a un prezzo ragionevole”. Man mano che i casi d’uso superano la soglia della novità — come assistenti digitali che risparmiano ore di lavoro, operatori di supporto che riducono i tempi di risoluzione, motori di ricerca interni che individuano davvero il documento corretto — le spese si mantengono persistenti.
Il vero moltiplicatore di forza è la curva dei costi. Acceleratori più performanti, memoria HBM più densa e scheduler più intelligenti continuano a ridurre il costo unitario. Sul versante dei modelli, perfezionamenti e strumenti permettono di ottenere maggior qualità da un minor numero di token. Questo è il momento in cui i fornitori possono fissare prezzi basati sul margine anziché su sussidi, e i clienti accettano una tariffazione basata sull’uso perché il rapporto costo-beneficio è chiaro.
La prova concreta si manifesta in una crescita misurata in termini di utenti senza erosione dei margini, non in diapositive o demo. Se i produttori di software riescono a mostrare funzionalità IA che ampliano l’utilizzo senza cannibalizzare linee esistenti — evidenziando margini lordi stabili o in miglioramento — allora si ha una prova tangibile che appare nei bilanci, non nei discorsi pubblici.
Il rischio ribassista non è che l’IA non funzioni, ma che i flussi finanziari arrivino con tempi standard — debito, ammortamenti, impegni di leasing, contratti di energia — mentre la monetizzazione deve affrontare complesse fasi di approvvigionamento, integrazione e governance. Questo disallineamento temporale non ferma l’espansione, ma comprime inizialmente la narrazione azionaria, poiché i prezzi si muovono molto prima che i data center si attivino.
Un ulteriore rischio è la concentrazione, evidente eppure sottovalutata. Con la leadership concentrata in pochi nomi, le indicazioni fornite da poche aziende possono influenzare interi indici azionari. Quando i comunicati si riferiscono a “sequenze” o a periodi di “digestione del cliente”, il mercato interpreta un ritardo, e il riallineamento dei prezzi è immediato.
Un eccesso di capacità si manifesta quando gli ammortamenti arrivano puntuali ma i carichi di lavoro remunerativi no. Questo fenomeno emerge inizialmente ai margini: i clienti utilizzano risorse ma retrocedono a hardware di generazione precedente per contenere i budget; diminuisce l’uso di istanze premium; si diffonde una politica di sconti per mantenere i cluster attivi. Non ci sono risorse inutilizzate, ma i tempi di ritorno si allungano e il potere di fissazione dei prezzi si indebolisce. Gli investitori apprezzano la chiarezza, mentre i contabili si concentrano sui tempi. Se il riconoscimento dei ricavi si rivela più dilazionato del previsto, la narrazione azionaria si evolve più rapidamente dei risultati concreti.
L’energia diventa la nuova catena di approvvigionamento. Code di connessione, tempi di approvvigionamento delle sottostazioni e resistenze locali possono posticipare l’attivazione di nuovi siti di diversi trimestri. I ricavi seguono il flusso energetico, non i comunicati stampa. La domanda globale di energia per i data center dovrebbe più che raddoppiare entro la fine del decennio. Negli Stati Uniti, i data center potrebbero rappresentare quasi un decimo del carico totale entro il 2030. Nessuno di questi vincoli o ritardi interrompe la crescita, ma tutti spostano i riconoscimenti di ricavo più avanti nel tempo e aggiungono costi.
Le politiche regolamentari amplificano questi effetti. In Europa, obblighi specifici per i fornitori di modelli a uso generale si stanno progressivamente attuando, allungando i cicli e aumentando i costi fissi. All’interno delle aziende, il cosiddetto “ultimo miglio” rappresenta ancora una sfida rilevante. La gestione della qualità dei dati, l’integrazione della sicurezza e la riprogettazione dei flussi di lavoro sono attività complesse — e fino a quando queste competenze non diventeranno comuni, i direttori finanziari continueranno a finanziare infrastrutture di base — dati, sicurezza, pipeline — riducendo gli investimenti sperimentali. Questi colli di bottiglia rallentano i ricavi applicativi, anche quando l’infrastruttura centrale continua a consolidarsi.
Il fermento attorno all’intelligenza artificiale sta lentamente lasciando spazio a una fase più concreta: quella dei risultati finanziari e operativi. Ora l’essenziale è verificare se i progressi tecnologici e le dinamiche economiche procedano di pari passo. La capacità infrastrutturale viene ordinata, consegnata e messa in funzione; tuttavia, questo porterà a un vero e proprio boom dell’AI solo se si tradurrà in un utilizzo effettivo fatturabile, mantenendo un modello di costi che non eroda i margini mentre l’industria cresce.
Possiamo definire questa fase come il grande test di conversione: l’industria è in grado di trasformare megawatt e hardware in ricavi continui e di qualità, più rapidamente di quanto la svalutazione degli asset, gli oneri normativi e i ritardi nelle reti elettriche possano eroderli?
Partiamo dall’utilizzo, poiché tutto il resto dipende da questo. I servizi AI premium devono sostenere ore di attività intense e non solo suscitare interesse mediatico. Le liste d’attesa dovrebbero ridursi perché la capacità è effettivamente arrivata e viene consumata, non perché l’entusiasmo si è affievolito. Successivamente, si passa alla composizione del portafoglio clienti, ovvero quel punto in cui la narrazione lascia spazio all’analisi matematica: non basta che il fatturato cloud cresca, i servizi AI devono aumentare il ricavo medio per utente senza compromettere il margine lordo.
L’ultimo passaggio è la sostenibilità. Gli ordini accumulati e le prenotazioni di capacità diventano realmente ricavi solo quando vengono fatturati e il denaro arriva in tempi coerenti con le aspettative di Wall Street. Se un portafoglio ordini dipende troppo da poche controparti, il ritmo di incassi rischia di diventare troppo incerto e discontinuuo.
Costi e prezzi devono incontrarsi a metà strada e mantenere quell’equilibrio mentre l’uso cresce. Dal lato dei costi, è importante ottimizzare l’impiego delle risorse, ridurre le richieste superflue e migliorare l’efficienza dei processi: ogni query deve essere meno costosa, la latenza deve scendere mentre la spesa per singolo compito si riduce. Sul fronte dei prezzi, il comportamento di acquisto conta più delle semplici tariffe di listino. Se i componenti hardware di passata generazione devono essere venduti a sconti permanenti o se diventano indispensabili offerte “AI inclusa” per attrarre clienti, significa che i margini stanno soffrendo per mantenere il ritmo di adozione. Al contrario, se i fornitori possono dimostrare che le funzionalità AI ampliano il numero di utenti o mantengono un alto livello di utilizzo senza intaccare i margini netti, e lo dimostrano con continuità trimestrale dopo trimestre, la curva dei prezzi sta funzionando come dovrebbe.
L’infrastruttura acquisisce maggior valore quando la potenza disponibile è scarsa e i dispositivi specialistici non possono essere facilmente sostituiti con alternative più economiche. Quando la scarsità impone le regole, tecnologie come chip avanzati, memoria ad alta larghezza di banda, sistemi di raffreddamento sofisticati e un accesso efficiente a risorse fondamentali come terreni e megawatt fanno la differenza più del semplice branding. I grandi cloud e i servizi di hosting dei modelli mantengono un maggior valore quando i costi di cambio aumentano e quando i servizi AI vengono proposti in pacchetti integrati. Le applicazioni guadagnano valore solo se sostituiscono processi lavorativi, non se si limitano a decorare i flussi di lavoro esistenti con effetti superficiali. Il messaggio di un’applicazione solida è: “Abbiamo eliminato passaggi inutili, ridotto i tempi di gestione, eliminato code, abolito licenze, abbreviato cicli.” Se invece le soluzioni si concentrano solo sul miglioramento estetico, i budget spariranno appena un responsabile finanziario richiederà di recuperare qualche punto percentuale di margine.
Indicatori chiave e aspettative di mercato
Le date degli annunci trimestrali degli hyperscaler e dei produttori di chip sono fondamentali per verificare se la crescita attribuita all’AI si conferma e se gli investimenti in capitale seguono un ordine logico. Un’accelerazione della crescita accompagnata da un moderato aumento di spese in conto capitale è il segnale di un vero e proprio boom. Viceversa, un rallentamento della crescita con investimenti diluiti nel tempo indica una fase di contrazione.
Anche le normative influenzano in modo significativo le tempistiche e i costi. In Europa, l’introduzione progressiva di obblighi per i fornitori di modelli AI generalisti allunga i cicli produttivi e aumenta i costi fissi. Le modifiche alle regole sull’esportazione dei chip ridefiniscono chi può acquistare cosa, impattando direttamente la composizione dell’offerta e i margini operativi. Da non sottovalutare sono inoltre i passaggi più tecnici ma cruciali come le autorizzazioni delle utility, l’attivazione delle interconnessioni e la messa in funzione di nuove sottostazioni in aree strategiche.
Al momento la situazione appare meno come una bolla tecnologica allo stadio puro e più come un’espansione infrastrutturale accompagnata da alcune zone di eccesso di ottimismo. Nel cuore del settore, aziende solide generano flussi di cassa reali. Ai margini, tuttavia, le aspettative talvolta superano ciò che clienti e reti elettriche possono sostenere in concreto. Se i ricavi derivanti dal cloud AI si conservaranno nel tempo, se i portafogli ordini si tradurranno in entrate puntuali e se i costi unitari continueranno a diminuire, questa fase di espansione verrà riconosciuta come un successo evidente a posteriori. Se invece il riconoscimento tarderà e se le difficoltà legate all’energia e alle normative si accumuleranno, i segnali di rallentamento si manifesteranno prima nei mercati azionari che negli impianti.
In ogni caso, le infrastrutture fondamentali come rack, trasformatori e cablaggi in fibra rimarranno imprescindibili. Per questo motivo, la questione centrale è sempre la capacità di conversione tra investimenti e ricavi concreti, non un atto di fede nel settore.