L’intersezione tra DeFi e AI richiede una sicurezza trasparente

Jason Jiang, Chief Business Officer di CertiK, condivide una riflessione sull’evoluzione dell’ecosistema della finanza decentralizzata (DeFi) e sull’impatto dell’intelligenza artificiale in questo ambito.

finanza decentralizzata (DeFi) si è distinto per la capacità innovativa, con strumenti che spaziano dagli exchange decentralizzati (DEX) a protocolli di prestito, stablecoin e molto altro. L’ultima frontiera in questo campo è rappresentata dalla DeFAI, ovvero la DeFi potenziata con l’intelligenza artificiale.

DeFAI supera i tradizionali smart contract

DAO) possono impiegare bot per riconoscere pattern di mercato e compiere operazioni in frazioni di secondo.

Nuove superfici di attacco generate dalla DeFAI

DEX. Un attaccante potrebbe alterare i dati in input spingendo l’agente a eseguire operazioni poco redditizie o addirittura prosciugare i fondi da una pool di liquidità.

La sicurezza come responsabilità condivisa

DaFAI pone nuove sfide riguardo alla fiducia nei sistemi decentralizzati. Quando gli agenti di intelligenza artificiale possono gestire autonomamente risorse, interagire con smart contract e votare su proposte di governance, la fiducia non riguarda più soltanto la verifica della correttezza logica, ma si sposta sulla verifica delle intenzioni. Diventa quindi necessario esplorare come gli utenti possano garantire che gli obiettivi di un agente siano allineati sia con le finalità a breve termine sia con quelle a lungo termine.

Verso un’intelligenza sicura e trasparente

Il percorso da seguire richiede soluzioni interdisciplinari. Tecniche crittografiche come le prove a conoscenza zero (zero-knowledge proofs) potrebbero contribuire a verificare l’integrità delle azioni compiute dagli agenti AI, mentre i framework di attestazione on-chain potrebbero tracciare con precisione l’origine delle decisioni. Infine, strumenti di auditing dotati di elementi di intelligenza artificiale potrebbero valutare gli agenti in modo completo, analogamente a come oggi gli sviluppatori esaminano il codice degli smart contract.

Tuttavia, la realtà attuale mostra che il settore non ha ancora raggiunto questi livelli. Per il momento, la migliore difesa resta un auditing rigoroso, la trasparenza e l’effettuazione di test di stress approfonditi. Chi desidera partecipare ai protocolli DeFAI dovrebbe assicurarsi che essi adottino questi principi nella logica AI che li governa.

Tutelare il futuro dell’innovazione AI

DeFAI non è intrinsecamente pericoloso, ma si differenzia profondamente dalla maggior parte delle infrastrutture Web3 attuali. La rapidità della sua adozione rischia di superare i modelli di sicurezza su cui il settore si basa oggi. Poiché l’industria delle criptovalute ha imparato soprattutto attraverso esperienze difficili, è chiaro che l’innovazione senza un approccio solido alla sicurezza rappresenta una potenziale minaccia.

Considerando che gli agenti AI presto agiranno per conto degli utenti, gestendo beni e influenzando i protocolli, è necessario riconoscere che ogni riga di logica AI è codice e, come ogni codice, può essere vulnerabile a sfruttamenti malevoli.

Per garantire un’adozione di DeFAI che non comprometta la sicurezza, è indispensabile progettare tali sistemi fin dall’inizio con un’attenzione particolare alla sicurezza e alla trasparenza. Ogni altra strada rischia di portare a risultati opposti a quelli per cui la decentralizzazione è stata ideata.

Jason Jiang, responsabile commerciale di CertiK, ha espresso questa opinione:

“La crescente autonomia degli agenti AI nel mondo decentralizzato introduce nuove sfide di fiducia che richiedono soluzioni innovative e trasparenti per proteggere gli utenti e l’integrità dell’intero ecosistema.”

Questo articolo ha scopo informativo e non costituisce consulenza legale o finanziaria. Le opinioni espresse sono esclusivamente dell’autore e non riflettono necessariamente quelle di altre entità nel settore.