Vitalik Buterin di Ethereum propone custodi alimentati dall’intelligenza artificiale per rivoluzionare la governance delle dao

Vitalik Buterin, cofondatore di Ethereum, ha proposto una riorganizzazione tecnica delle DAOs basata sull’uso di agenti di intelligenza artificiale personali che votano privatamente per conto degli utenti, con l’obiettivo di rendere la governance digitale più scalabile e inclusiva.

La proposta, diffusa recentemente su una piattaforma social, nasce dopo le critiche di Buterin sul progressivo declino della partecipazione e sulla tendenza alla concentrazione del potere nelle mani dei grandi detentori di token. L’idea centrale è spostare le persone lontano dalla pratica di delegare il voto ai “whales” e permettere invece a ciascun individuo di adottare un proprio modello di LLM, addestrato sui messaggi passati e sui valori dichiarati, per decidere automaticamente su migliaia di questioni che le DAOs devono gestire.

Vitalik Buterin wrote:

“Ci sono molte migliaia di decisioni da prendere, che riguardano domini molto diversi, e la maggior parte delle persone non ha il tempo o le competenze per essere esperti anche in uno solo di essi, figuriamoci in tutti. Cosa possiamo fare? Usiamo LLM personali per risolvere il problema dell’attenzione.”

Risoluzione del problema dell’attenzione

Secondo la proposta, la molteplicità di decisioni operative che caratterizza molte DAOs richiede una soluzione che alleggerisca l’onere cognitivo dei cittadini. I modelli personali di AI dovrebbero agire come assistenti delegati, prendendo decisioni su questioni di routine e segnalando agli individui soltanto le votazioni particolarmente rilevanti o complesse che richiedono intervento umano.

Privacy dei contenuti e ambienti sicuri

Il primo nodo affrontato dalla proposta è la tutela della privacy: i dati sensibili devono rimanere riservati. Per questo gli agenti dovrebbero operare in ambienti protetti come multi-party computation (MPC) o trusted execution environments (TEE), che consentono di elaborare informazioni private senza esporle alla catena pubblica.

Queste tecnologie permettono al modello di valutare proposte che contengono dati riservati — ad esempio candidature per incarichi, valutazioni economiche o documenti legali — senza rendere pubbliche le informazioni sensibili né comprometterne la riservatezza.

Anonymity e protezione dagli abusi

Il secondo punto chiave è l’anonimato dei partecipanti: Buterin suggerisce l’uso di zero-knowledge proofs per dimostrare l’idoneità al voto senza rivelare l’indirizzo del portafoglio o la scelta effettuata. Questo meccanismo riduce il rischio di coercizione, di corruzione e di quello che viene definito “whale watching”, ovvero il copiamento sistematico delle scelte dei grandi detentori.

Combinando privacy dei contenuti e prove a conoscenza zero, gli agenti personali potrebbero votare in modo riservato e verificabile, mantenendo l’integrità del processo decisionale senza esporre dati individuali.

Filtraggio delle proposte e mercati predittivi

Per contrastare la bassa qualità delle proposte e lo spam, fenomeno accentuato dall’avvento di contenuti generati automaticamente, la proposta include la creazione di prediction markets dove gli agenti possono scommettere sulla probabilità che una proposta venga approvata. Gli agenti che fanno previsioni accurate riceverebbero ricompense, incentivando contributi utili e penalizzando il rumore.

Questo approccio incentiva l’emergere di segnalazioni affidabili e aiuta la comunità a identificare le questioni meritevoli di attenzione, riducendo i casi di manipolazione tramite massa di proposte di scarsa qualità.

Implicazioni per la governance decentralizzata

L’introduzione di agenti di AI personali nei processi decisionali delle DAOs potrebbe aumentare significativamente la partecipazione effettiva e la qualità delle decisioni, rendendo possibile una governance più granulare e continua. Ciò avrebbe impatti rilevanti sulle modalità con cui vengono gestiti fondi comuni, sviluppo tecnico e decisioni strategiche all’interno di ecosistemi come Ethereum.

Tuttavia, l’adozione di tali soluzioni solleva questioni istituzionali: come riconciliare l’autonomia degli agenti con le normative esistenti, quale responsabilità legale grava sugli sviluppatori di modelli e come garantire trasparenza e auditabilità senza compromettere la privacy.

Rischi tecnici e operativi

Dal punto di vista tecnico, permangono sfide importanti: addestrare modelli su dati personali in modo sicuro, assicurare l’interoperabilità tra agenti e piattaforme di voto, gestire i costi computazionali e difendersi da attacchi mirati che potrebbero manipolare decisioni automatizzate.

Inoltre, se la fornitura di agenti o modelli si concentrasse in poche mani, si introdurrebbe un nuovo vettore di centralizzazione: la dipendenza da provider di intelligenza artificiale potrebbe ridurre la diversità delle opinioni e favorire bias sistemici.

Questioni etiche e di responsabilità

L’automatizzazione del voto solleva anche interrogativi etici: come si definiscono i valori che un agente deve rappresentare, chi verifica che il comportamento degli agenti rispecchi effettivamente le preferenze dichiarate e quali meccanismi di ricorso esistono in caso di errori o abusi?

Per mitigare questi rischi, saranno probabilmente necessari standard aperti, audit indipendenti dei modelli e meccanismi di revoca e supervisione che consentano agli elettori di correggere o aggiornare le impostazioni dei loro agenti.

Strada pratica per l’adozione

Un percorso plausibile prevede sperimentazioni controllate e progetti pilota all’interno di comunità DAO limitate, lo sviluppo di librerie e standard interoperabili per agenti personali, e la promozione di soluzioni open source che riducano il rischio di concentrazione proprietaria.

Parallelamente, sarà utile un dialogo tra operatori blockchain, sviluppatori di AI, giuristi e regolatori per definire regole chiare su responsabilità, tutela dei dati e requisiti di trasparenza.

Conclusione

La proposta di Vitalik Buterin rappresenta una visione tecnica ambiziosa per affrontare i limiti pratici delle democrazie decentralizzate: gli agenti personali di AI potrebbero rendere la governance su larga scala più efficiente e inclusiva, ma richiedono soluzioni robuste per privacy, sicurezza, equità e responsabilità.

Per trasformare questa visione in realtà serviranno sperimentazioni, standard condivisi e un’attenta gestione dei rischi tecnici e sociali, affinché l’automatizzazione non indebolisca i principi di decentralizzazione e partecipazione che stanno alla base delle DAOs.