По данным Cointelegraph, компания по кибербезопасности криптовалют Trugard и протокол доверия onchain Webacy представили систему на основе искусственного интеллекта, предназначенную для обнаружения отравления адресов криптовалютных кошельков. Анонсированный 21 мая, этот инструмент является частью набора инструментов принятия решений в криптовалюте Webacy и использует контролируемую модель машинного обучения. Эта модель обучается на данных реальных транзакций в сочетании с аналитикой onchain, разработкой функций и поведенческим контекстом для повышения ее эффективности.

Сообщается, что инструмент достигает 97% успеха, будучи протестированным в различных известных сценариях атак. Соучредитель Webacy Майка Исогава подчеркнула, что отравление адресов является значительным, но недооцененным мошенничеством в мире криптовалют. Это мошенничество заключается в том, что злоумышленники отправляют небольшие суммы криптовалюты с адреса кошелька, который очень похож на реальный адрес цели, часто с похожими начальными и конечными символами. Цель состоит в том, чтобы обмануть пользователей, заставив их по ошибке скопировать и использовать адрес злоумышленника в будущих транзакциях, что приведет к финансовым потерям. Исследование, проведенное в январе 2025 года, показало, что в период с июля 2022 года по июнь 2024 года на BNB Chain и Ethereum было совершено более 270 миллионов попыток отравления, из которых 6000 успешных попыток привели к потерям, превышающим 83 миллиона долларов.

Главный технический директор Trugard Джеремайя О'Коннор объяснил, что команда применяет свой обширный опыт в области кибербезопасности из домена Web2 к данным Web3. Этот опыт включает в себя разработку алгоритмических функций из традиционных систем, которые они адаптировали для Web3. О'Коннор отметил, что большинство существующих систем обнаружения атак Web3 полагаются на статические правила или базовую фильтрацию транзакций, которые часто отстают от развивающихся тактик злоумышленников. Однако недавно разработанная система использует машинное обучение для создания динамической системы, которая обучается и адаптируется для реагирования на атаки отравления. О'Коннор подчеркнул фокус системы на контексте и распознавании образов, в то время как Исогава указал, что ИИ может обнаруживать образы, выходящие за рамки аналитических возможностей человека.

Подход машинного обучения включает в себя генерацию синтетических обучающих данных для имитации различных шаблонов атак. Модель обучается с помощью контролируемого обучения, где она изучает взаимосвязь между входными переменными и правильными выходными данными. Этот метод обычно используется в таких приложениях, как обнаружение спама, классификация изображений и прогнозирование цен. О'Коннор упомянул, что модель постоянно обновляется новыми данными по мере появления новых стратегий. Кроме того, был разработан слой синтетической генерации данных для тестирования модели в отношении имитируемых сценариев отравления, что доказало свою эффективность в помощи модели в обобщении и сохранении надежности с течением времени.