Según Cointelegraph, la firma de ciberseguridad de criptomonedas Trugard y el protocolo de confianza en cadena Webacy han presentado un sistema basado en inteligencia artificial diseñado para detectar el envenenamiento de direcciones de monederos de criptomonedas. Anunciada el 21 de mayo, esta herramienta forma parte del conjunto de herramientas de Webacy para la toma de decisiones sobre criptomonedas y utiliza un modelo de aprendizaje automático supervisado. Este modelo se entrena con datos de transacciones en vivo, combinados con análisis en cadena, ingeniería de características y contexto de comportamiento para mejorar su eficacia.

Según se informa, la herramienta alcanza una tasa de éxito del 97%, tras haber sido probada en diversos escenarios de ataque conocidos. Maika Isogawa, cofundadora de Webacy, destacó que el envenenamiento de direcciones es una estafa significativa, aunque poco denunciada, en el mundo de las criptomonedas. Esta estafa consiste en que los atacantes envían pequeñas cantidades de criptomonedas desde una dirección de billetera muy similar a la dirección real del objetivo, a menudo con caracteres iniciales y finales similares. El objetivo es engañar a los usuarios para que copien y utilicen por error la dirección del atacante en futuras transacciones, lo que conlleva pérdidas financieras. Un estudio realizado en enero de 2025 reveló que se produjeron más de 270 millones de intentos de envenenamiento en BNB Chain y Ethereum entre julio de 2022 y junio de 2024, con 6000 intentos exitosos que resultaron en pérdidas superiores a los 83 millones de dólares.

Jeremiah O'Connor, director de tecnología de Trugard, explicó que el equipo aplica su amplia experiencia en ciberseguridad del dominio Web2 a los datos Web3. Esta experiencia incluye la ingeniería de características algorítmicas de sistemas tradicionales, que han adaptado para Web3. O'Connor señaló que la mayoría de los sistemas existentes de detección de ataques Web3 se basan en reglas estáticas o en el filtrado básico de transacciones, que a menudo van a la zaga de las tácticas cambiantes de los atacantes. Sin embargo, el sistema recientemente desarrollado emplea aprendizaje automático para crear un sistema dinámico que aprende y se adapta para abordar los ataques de envenenamiento. O'Connor enfatizó el enfoque del sistema en el contexto y el reconocimiento de patrones, mientras que Isogawa señaló que la IA puede detectar patrones que superan las capacidades analíticas humanas.

El enfoque de aprendizaje automático implica la generación de datos de entrenamiento sintéticos para simular diversos patrones de ataque. El modelo se entrena mediante aprendizaje supervisado, donde aprende la relación entre las variables de entrada y la salida correcta. Este método se utiliza comúnmente en aplicaciones como la detección de spam, la clasificación de imágenes y la predicción de precios. O'Connor mencionó que el modelo se actualiza continuamente con nuevos datos a medida que surgen nuevas estrategias. Además, se ha desarrollado una capa de generación de datos sintéticos para probar el modelo en escenarios de envenenamiento simulados, lo que ha demostrado ser eficaz para ayudar al modelo a generalizarse y mantener su robustez a lo largo del tiempo.