La blockchain può davvero dimostrare ciò che è reale online contro l’ia?

Quante volte, navigando online, vi siete chiesti «Reale o creato dall’AI» davanti a un’immagine o a un video? La crescente somiglianza tra contenuti generati automaticamente e opere prodotte dall’essere umano ha reso questa domanda sempre più frequente, mettendo in discussione la nostra capacità di distinguere il vero dal sintetico.

L’avvento dell’AI ha aperto possibilità creative prima impensabili, ma ha anche introdotto nuove criticità che ridefiniscono la fruizione dell’informazione online. Dai video e dalle immagini generate artificialmente ai deepfake e ai bot truffaldini, la presenza di contenuti sintetici copre oggi una porzione significativa del web, accelerata anche dalla diffusione di modelli conversazionali come ChatGPT.

Alcune analisi di settore segnalano che, a partire dalla fine del 2024 e durante il 2025, la quota di contenuti prodotti con l’ausilio dell’AI ha superato quella di contenuti esclusivamente umani. Questa tendenza solleva una domanda cruciale in vista del 2026: fino a che punto gli utenti saranno in grado di riconoscere ciò che è autentico?

Affaticamento da contenuti generati dall’AI

Dopo alcuni anni di entusiasmo per le innovazioni dell’AI, è emerso un fenomeno che gli esperti definiscono «affaticamento da contenuti generati dall’AI»: una stanchezza collettiva dovuta alla sovrabbondanza e alla prevedibilità di materiali automatizzati.

Un sondaggio internazionale condotto nella primavera del 2025 ha rilevato che una fetta significativa degli adulti è più preoccupata che entusiasta dell’uso crescente dell’AI nelle informazioni e nell’intrattenimento. Molti utenti segnalano che la novità si sta attenuando e che, nella pratica, i contenuti sintetici appaiono spesso omogenei e in eccesso rispetto alla domanda di autenticità.

Adrian Ott, chief AI officer presso EY Switzerland, ha osservato:

“In un certo senso, i contenuti generati dall’AI possono essere paragonati al cibo industriale: quando sono apparsi per la prima volta hanno invaso il mercato, ma col tempo le persone hanno iniziato a preferire prodotti locali e di qualità di cui conoscono l’origine.”

“Con i contenuti potrebbe accadere qualcosa di simile: chi legge vuole spesso sapere chi sta dietro alle idee; un’opera viene giudicata non solo per la qualità ma anche per la storia dietro all’autore.”

Secondo questa visione, potrebbero affermarsi etichette quali «realizzato da esseri umani» come segnali di fiducia analoghi alla dicitura «biologico» nel settore alimentare.

Gestione e certificazione dei contenuti

Nonostante molti ritengano di saper riconoscere testi o immagini generate artificialmente, la realtà è più complessa: rilevare con certezza l’origine di un contenuto diventa sempre più difficile con l’aumento della qualità delle produzioni sintetiche.

Indagini di opinione mostrano che una larga parte della popolazione desidera poter distinguere in modo affidabile tra contenuti autentici e creati dall’AI, ma meno della metà si dichiara realmente sicura di saperlo fare. Questo diventa problematico non solo per chi cade vittima di frodi, ma anche per chi rifiuta sistematicamente di credere a materiale genuino etichettandolo come «generato dall’AI» quando contrasta il proprio punto di vista.

Una strada proposta dagli esperti non è tanto rintracciare il falso dopo la sua circolazione, quanto certificare l’autenticità al momento della cattura del contenuto, rendendo possibile ricondurre la risorsa a un evento reale verificabile.

Il ruolo della blockchain nella prova d’origine

Con il progressivo avvicinarsi alla qualità fotografica e cinematografica delle produzioni artificiali, i sistemi tradizionali di autenticazione ex post risultano sempre meno efficaci. Per questo motivo sono nate soluzioni che mirano a inserire fiducia e tracciabilità direttamente nella creazione del contenuto.

Jason Crawforth, fondatore e amministratore delegato di Swear, ha spiegato:

“Con i media sintetici che diventano sempre più difficili da distinguere dal materiale reale, l’affidabilità ottenuta dopo il fatto non è più sufficiente. La protezione deriverà da sistemi che incorporano la fiducia nel contenuto fin dall’inizio.”

Tra le tecnologie utilizzate figura una forma di «impronta digitale» collegata a un registro distribuito: ogni file multimediale viene associato a una traccia verificabile sulla blockchain, un’identità digitale che rende evidente qualsiasi modifica rispetto all’originale.

Jason Crawforth ha aggiunto:

“Senza autenticità incorporata, tutti i media—passati e presenti—rischiano di essere messi in discussione. La nostra soluzione non chiede ‘È falso?’; dimostra ‘Questo è reale.'”

Queste piattaforme sono già impiegate da creatori digitali e partner aziendali, con applicazioni specifiche per video ripresi da bodycam, droni e dispositivi di sorveglianza dove l’integrità del filmato è fondamentale. L’integrazione diretta con i principali social network è un obiettivo a lungo termine, ma la priorità immediata è garantire affidabilità in ambiti a rischio elevato come sicurezza e controllo.

Prospettive per il 2026 e responsabilità delle piattaforme

Con l’avvicinarsi del 2026, cresce la preoccupazione degli utenti riguardo all’afflusso crescente di contenuti generati dall’AI e alla loro capacità di distinguere il sintetico dall’umano. La questione mette in luce responsabilità tecniche, sociali e politiche su scala globale.

Gli esperti sottolineano che i fornitori di piattaforme hanno un ruolo centrale: solo attraverso strumenti che permettano di filtrare e valorizzare contenuti di qualità gli utenti potranno ritrovare fiducia nei flussi informativi. In assenza di interventi, è plausibile che molti si allontanino da servizi percepiti come inaffidabili.

Adrian Ott ha detto:

“In ultima analisi, spetta ai gestori delle piattaforme fornire agli utenti gli strumenti per filtrare i contenuti generati dall’AI e mettere in evidenza materiale di alta qualità. Se non lo faranno, gli utenti se ne andranno.”

È importante ricordare che il problema principale non è sempre la presenza di contenuti generati artificialmente, ma le intenzioni con cui vengono prodotti: la diffusione di deepfake e di disinformazione non è un fenomeno del tutto nuovo, ma l’AI ne ha amplificato scala e velocità.

Nel 2025 il mercato ha visto nascere solo poche iniziative dedicate in modo esclusivo alla verifica dell’autenticità, perciò non si è ancora raggiunto un punto di svolta che imponga una risposta coordinata e urgente da parte di piattaforme, istituzioni e utenti.

Jason Crawforth ha avvertito:

“Non abbiamo ancora raggiunto il punto di inflessione in cui i media manipolati causano danni incontestabili e visibili in ambito giudiziario, investigativo, aziendale o di sicurezza pubblica. Aspettare quel momento sarebbe un errore: le fondamenta per l’autenticità vanno preparate ora.”

Per il futuro prossimo, la sfida sarà sviluppare infrastrutture di fiducia che bilancino innovazione e responsabilità: ciò include etichettature chiare, strumenti di certificazione all’origine e politiche di governance che coinvolgano produttori, piattaforme e regolatori. Solo così sarà possibile preservare l’affidabilità dell’informazione in un ecosistema digitale sempre più permeato dall’AI.