Skip to main content
DeFiкибербезопасностьAI-агенты

AI-агенты и волна DeFi-взломов

В апреле 2026 DeFi действительно потерял свыше $600 млн, но тезис про подтвержденных AI-хакеров пока не доказан. Для бизнеса это важно по другой причине: AI automation резко удешевляет поиск слабых мест, а значит требования к мониторингу, AI integration и архитектуре защиты уже изменились.

Что я проверил по фактам

Я полез в сводки по апрелю и быстро увидел знакомую проблему: цифры летают быстрее, чем постмортемы. Крупные инциденты были реальными, особенно Kelp DAO и Drift, и суммарный ущерб действительно перевалил за $600 млн. Но список из чата не везде совпадает с подтвержденными названиями и суммами, а история про массовых AI-хакеров пока остается скорее гипотезой, чем доказанным фактом.

Например, речь шла про Aftermath Protocol, а не Aftermath Finance. По Kelp DAO публично разбирали инфраструктурный компромисс, DDoS и дыру в схеме верификации bridge-сообщений. Это уже не романтика “умный контракт ошибся на один require”, а нормальный многослойный взлом, где ломают и infra, и trust assumptions.

Я на таком фоне всегда думаю не про хайп, а про AI implementation в защите. Даже если конкретно в этих кейсах AI-агенты не подтверждены, сама стоимость массового reconnaissance падает. Найти слабый RPC, плохую конфигурацию, подозрительную роль администратора или кривую oracle-логику теперь можно гораздо быстрее, чем год назад.

Вот где мне стало не по себе: рынок все еще проектирует протоколы так, будто атакующий работает руками и спит по ночам. Атакующий уже может не спать вообще.

Что это меняет для бизнеса и автоматизации

Первое последствие простое: ручной security review больше не тянет как единственный слой. Если у вас bridge, lending, staking или wallet-инфраструктура, нужна постоянная AI automation для поиска аномалий в правах доступа, конфигурациях, on-chain потоках и devops-изменениях.

Второе: выигрывают команды, у которых защита встроена в AI architecture продукта, а не прикручена после инцидента. Проигрывают те, кто держит критические допущения на одном verifier, одном ключе, одном RPC-провайдере или одном человеке с доступом.

И третье: bug bounty за “спасибо и $2k” теперь выглядит почти издевательством. Если рынок не платит белым исследователям, уязвимости монетизируют другие.

Я вижу это и в клиентских задачах: безопасность уже нельзя отделять от автоматизации, потому что автоматизация есть и у защитника, и у атакующего. Если у вас DeFi-продукт, кошелек или высокорисковая Web3-интеграция, можно спокойно разобрать архитектуру и собрать нормальный контур мониторинга. В Nahornyi AI Lab мы как раз делаем такие вещи на практике: от AI solution development для detection-пайплайнов до точечной AI integration в существующие процессы, чтобы бизнес не ждал своего постмортема.

Значительные суммы, потерянные в DeFi, подчеркивают острую необходимость понять, как AI-агенты могут быть использованы для совершения несанкционированных действий. Ранее мы подробно описывали, как AI-агенты могут обходить защитные песочницы с помощью цепочек команд, что дает представление о сложных методах, потенциально используемых в подобных финансовых эксплойтах.

Поделиться статьёй