Skip to main content
DeFiAI AutomationRisk Management

Автономні DeFi-агенти: де виникають збитки в $450k і як побудувати захист

Історія 'My Lobster Lost $450,000' демонструє провал автономного агента в DeFi з втратою $450k. Без жорстких лімітів, перевірки ліквідності та моніторингу, автоматизація фінансів стає джерелом системних збитків. Ми розглядаємо технічні причини інциденту та архітектурні бар'єри, необхідні для захисту капіталу в системах штучного інтелекту.

Technical Context

Я подивився на кейс «My Lobster Lost $450,000 This Weekend» як на симптом класу системних помилок в автономних DeFi-агентах. Публічних технічних розборів інциденту майже немає, тому я не роблю висновків про конкретну вразливість. Зате я чітко бачу знайомий набір механізмів, через які такі агенти регулярно «згорають» у проді.

Перше джерело ризику — ціна та ліквідність на ончейні. Якщо агент ухвалює рішення за spot-ціною в пулі з тонкою ліквідністю, його легко загнати в погану угоду через прослизання або цільову маніпуляцію ціною в межах одного блоку. У DeFi це часто посилюється flash-loan патернами: ціна «малюється», агент виконує дію, а потім ринок повертають назад.

Друге джерело — оракули та затримки. Коли логіка агента спирається на одне джерело ціни, не використовує TWAP/медіану і не перевіряє консистентність з альтернативними ринками, він стає керованим ззовні. Я багато разів бачив, як формально «правильний» алгоритм починає купувати вершину або тригерити ліквідації через шум у даних.

Третій шар — дозволи та ключі. Необмежені approvals, слабка дисципліна ротації ключів, автоматичні підписи без апаратного контуру — це прямий шлях до втрати коштів навіть без складної атаки. В автономних системах це особливо небезпечно: помилка не просить підтвердження у людини.

І останнє, що я завжди перевіряю в таких історіях: чи був у агента стоп-кран. Відсутність pause/circuit breaker, лімітів на денний збиток, лімітів на експозицію по одному токену або протоколу перетворює невеликий збій на катастрофу.

Business & Automation Impact

Для бізнесу цей кейс — не про «DeFi як казино», а про те, як ламається автоматизація за допомогою ШІ, коли її сприймають як автопілот. У фінансових процесах автономія має бути архітектурною опцією, а не філософією. Перемагають команди, які проектують агента як компонент у керованій системі, а не як героя-одинака з доступом до казначейства.

Програють ті, хто починає впровадження ШІ з ідеї «нехай агент сам торгує», оминаючи вимоги до контролю. На практиці я закладаю в архітектуру ШІ-рішень мінімум три контури: (1) pre-trade валідація (ціни/ліквідність/санкції/ліміти), (2) runtime моніторинг аномалій та дрейфу, (3) post-trade звірка та розбір причин. Це нудно, але саме це відрізняє систему від експлойту, який ще не стався.

У проектах Nahornyi AI Lab я наполягаю на простому правилі: автономний агент не повинен мати можливість одним рішенням «винести» бюджет. Ми дробимо повноваження: окремі гаманці під стратегії, ліміти на контрактні виклики, мультисіг для зміни параметрів та обов'язкові сценарії відмови (що робимо при втраті оракула, при сплеску газу, при зупинці пулу).

Якщо ви будуєте ШІ рішення для бізнесу навколо казначейства, закупівель, хеджування або трейдингу, то ключовий KPI — не ROI на бектесті. Ключовий KPI — контрольована просадка і доказова безпека контурів прийняття рішень.

Strategic Vision & Deep Dive

Мій прогноз: ринок відходитиме від «агентів-виконавців» до «агентів-диспетчерів». Тобто ШІ пропонуватиме дії, ранжуватиме сценарії та пояснюватиме ризик, а виконуватиме їх обмежений набір перевірених транзакцій із жорсткими політиками. Це значно ближче до промислової автоматизації, ніж до романтики автономних ботів.

Я також бачу, що наступні великі втрати будуть не через «розумність» моделі, а через інтеграцію. У моїх впровадженнях ШІ інтеграція майже завжди складніша за самого агента: несумісність даних між протоколами, різні припущення щодо часу фіналізації, зміна ABI/параметров пулів, регресії в залежностях, несподівана концентрація ліквідності. Агенту достатньо однієї неправильної передумови, щоб почати послідовно приймати погані рішення, і він робитиме це швидше за людину.

Якщо вам все-таки потрібна автономія, я закладаю її східчасто. Спочатку “shadow mode” (агент радить), потім “guarded execution” (агент виконує тільки в межах політики), і тільки потім — часткова автономія на малих лімітах. Це і є доросле впровадження штучного інтелекту у фінансові контури, а не віра в магію.

Матеріал підготовлений мною, Вадимом Нагорним — провідним практиком Nahornyi AI Lab з AI-архітектури, ШІ автоматизації та запуску агентів у реальному секторі та фінтеху. Якщо ви плануєте зробити ШІ автоматизацію для казначейства, трейдингу або DeFi-операцій, я запрошую вас обговорити задачу: розберу поточну схему, запропоную архітектуру контролю ризиків і допоможу довести рішення до продакшену без «пострілу собі в ногу».

Share this article