Secondo Cointelegraph, l'azienda di cybersecurity crypto Trugard e il protocollo di fiducia on-chain Webacy hanno introdotto un sistema basato su intelligenza artificiale progettato per rilevare l'avvelenamento degli indirizzi dei portafogli crypto. Annunciato il 21 maggio, questo strumento fa parte della suite di strumenti per decisioni crypto di Webacy e utilizza un modello di apprendimento automatico supervisionato. Questo modello è addestrato su dati di transazione in tempo reale, combinati con analisi on-chain, ingegneria delle caratteristiche e contesto comportamentale per migliorare la sua efficacia.

Il tool avrebbe un tasso di successo del 97%, essendo stato testato in vari scenari di attacco noti. Maika Isogawa, co-fondatrice di Webacy, ha sottolineato che l'avvelenamento degli indirizzi è una truffa significativa ma poco riportata nel mondo delle criptovalute. Questa truffa coinvolge gli aggressori che inviano piccole quantità di criptovaluta da un indirizzo di portafoglio che assomiglia molto all'indirizzo reale di un obiettivo, spesso con caratteri iniziali e finali simili. L'obiettivo è ingannare gli utenti a copiare e utilizzare per errore l'indirizzo dell'aggressore in future transazioni, portando a perdite finanziarie. Uno studio condotto a gennaio 2025 ha rivelato che oltre 270 milioni di tentativi di avvelenamento si sono verificati su BNB Chain ed Ethereum tra luglio 2022 e giugno 2024, con 6.000 tentativi riusciti che hanno portato a perdite superiori a 83 milioni di dollari.

Il chief technology officer di Trugard, Jeremiah O’Connor, ha spiegato che il team applica la sua vasta esperienza in cybersecurity dal dominio Web2 ai dati Web3. Questa esperienza include l'ingegneria delle caratteristiche algoritmiche dei sistemi tradizionali, che sono stati adattati per il Web3. O’Connor ha notato che la maggior parte dei sistemi esistenti di rilevamento degli attacchi Web3 si basa su regole statiche o su un filtraggio di transazioni basilare, che spesso è in ritardo rispetto alle tattiche in evoluzione degli aggressori. Tuttavia, il nuovo sistema sviluppato impiega l'apprendimento automatico per creare un sistema dinamico che apprende e si adatta per affrontare gli attacchi di avvelenamento. O’Connor ha sottolineato l'attenzione del sistema sul contesto e sul riconoscimento dei modelli, mentre Isogawa ha fatto notare che l'IA può rilevare modelli oltre le capacità analitiche umane.

L'approccio di apprendimento automatico prevede la generazione di dati di addestramento sintetici per simulare vari modelli di attacco. Il modello viene addestrato attraverso l'apprendimento supervisionato, dove apprende la relazione tra le variabili di input e l'output corretto. Questo metodo è comunemente utilizzato in applicazioni come il rilevamento dello spam, la classificazione delle immagini e la previsione dei prezzi. O’Connor ha menzionato che il modello viene continuamente aggiornato con nuovi dati man mano che emergono nuove strategie. Inoltre, è stato sviluppato uno strato di generazione di dati sintetici per testare il modello contro scenari simulati di avvelenamento, dimostrandosi efficace nell'aiutare il modello a generalizzare e rimanere robusto nel tempo.