Según Cointelegraph, la firma de ciberseguridad en criptomonedas Trugard y el protocolo de confianza en cadena Webacy han introducido un sistema basado en inteligencia artificial diseñado para detectar el envenenamiento de direcciones de billetera de criptomonedas. Anunciada el 21 de mayo, esta herramienta es parte de la suite de herramientas de toma de decisiones criptográficas de Webacy y utiliza un modelo de aprendizaje automático supervisado. Este modelo se entrena con datos de transacciones en vivo, combinados con análisis en cadena, ingeniería de características y contexto de comportamiento para mejorar su efectividad.

Se informa que la herramienta logra una tasa de éxito del 97%, habiendo sido probada en varios escenarios de ataque conocidos. La cofundadora de Webacy, Maika Isogawa, destacó que el envenenamiento de direcciones es un fraude significativo pero poco reportado en el mundo de las criptomonedas. Este fraude implica que los atacantes envían pequeñas cantidades de criptomonedas desde una dirección de billetera que se asemeja mucho a la dirección real de un objetivo, a menudo con caracteres iniciales y finales similares. El objetivo es engañar a los usuarios para que copien y usen erróneamente la dirección del atacante en futuras transacciones, lo que lleva a pérdidas financieras. Un estudio realizado en enero de 2025 reveló que ocurrieron más de 270 millones de intentos de envenenamiento en BNB Chain y Ethereum entre julio de 2022 y junio de 2024, con 6,000 intentos exitosos que resultaron en pérdidas que superan los 83 millones de dólares.

El director de tecnología de Trugard, Jeremiah O’Connor, explicó que el equipo aplica su amplia experiencia en ciberseguridad del dominio Web2 a los datos de Web3. Esta experiencia incluye la ingeniería de características algorítmicas de sistemas tradicionales, que han adaptado para Web3. O’Connor señaló que la mayoría de los sistemas de detección de ataques existentes en Web3 se basan en reglas estáticas o filtrado básico de transacciones, que a menudo quedan atrás de las tácticas de ataque en evolución. Sin embargo, el nuevo sistema desarrollado emplea aprendizaje automático para crear un sistema dinámico que aprende y se adapta para abordar ataques de envenenamiento. O’Connor enfatizó el enfoque del sistema en el contexto y el reconocimiento de patrones, mientras que Isogawa señaló que la IA puede detectar patrones más allá de las capacidades analíticas humanas.

El enfoque de aprendizaje automático implica generar datos de entrenamiento sintéticos para simular varios patrones de ataque. El modelo se entrena a través de aprendizaje supervisado, donde aprende la relación entre las variables de entrada y la salida correcta. Este método se utiliza comúnmente en aplicaciones como detección de spam, clasificación de imágenes y predicción de precios. O’Connor mencionó que el modelo se actualiza continuamente con nuevos datos a medida que emergen nuevas estrategias. Además, se ha desarrollado una capa de generación de datos sintéticos para probar el modelo contra escenarios de envenenamiento simulados, demostrando ser efectiva en ayudar al modelo a generalizar y mantener su robustez a lo largo del tiempo.