Skip to main content
DeFiAI AutomationRisk Management

Автономные DeFi-агенты: где возникает убыток $450k и как построить защиту

В статье разбирается кейс 'My Lobster Lost $450,000', где автономный агент потерял $450k. Этот инцидент показывает, что автономия без риск-контуров, лимитов и мониторинга превращает автоматизацию финансов в источник системных потерь. Узнайте, как правильно проектировать защиту и стоп-краны для ИИ-агентов.

Technical Context

Я посмотрел на кейс «My Lobster Lost $450,000 This Weekend» как на симптом класса системных ошибок в автономных DeFi-агентах. Публичных технических разборов по инциденту почти нет, поэтому я не делаю выводов о конкретной уязвимости. Зато я чётко вижу знакомый набор механизмов, из-за которых такие агенты регулярно «сгорают» в проде.

Первый источник риска — цена и ликвидность на ончейне. Если агент принимает решение по spot-цене в пуле с тонкой ликвидностью, его легко загнать в плохую сделку через проскальзывание или целевую манипуляцию ценой в рамках одного блока. В DeFi это часто усиливается flash-loan паттернами: цена «рисуется», агент исполняет действие, а затем рынок возвращают назад.

Второй источник — оракулы и задержки. Когда логика агента опирается на один источник цены, не использует TWAP/медиану и не проверяет консистентность с альтернативными рынками, он становится управляемым извне. Я много раз видел, как формально «правильный» алгоритм начинает покупать вершину или триггерить ликвидации из-за шума в данных.

Третий слой — разрешения и ключи. Неограниченные approvals, слабая дисциплина ротации ключей, автоматические подписи без аппаратного контура — это прямой путь к потере средств даже без сложной атаки. В автономных системах это особенно опасно: ошибка не просит подтверждения у человека.

И последнее, что я всегда проверяю в таких историях: был ли у агента стоп-кран. Отсутствие pause/circuit breaker, лимитов на дневной убыток, лимитов на экспозицию по одному токену или протоколу превращает небольшой сбой в катастрофу.

Business & Automation Impact

Для бизнеса этот кейс — не про «DeFi как казино», а про то, как ломается автоматизация с помощью ИИ, когда её воспринимают как автопилот. В финансовых процессах автономия должна быть архитектурной опцией, а не философией. Побеждают команды, которые проектируют агента как компонент в управляемой системе, а не как героя-одиночку с доступом к казначейству.

Проигрывают те, кто начинает внедрение ИИ с идеи «пусть агент сам торгует», минуя требования к контролю. На практике я закладываю в архитектура ИИ-решений минимум три контура: (1) pre-trade валидация (цены/ликвидность/санкции/лимиты), (2) runtime мониторинг аномалий и дрейфа, (3) post-trade сверка и разбор причин. Это скучно, но именно это отличает систему от эксплойта, который ещё не случился.

В проектах Nahornyi AI Lab я настаиваю на простом правиле: автономный агент не должен иметь возможность одним решением «вынести» бюджет. Мы дробим полномочия: отдельные кошельки под стратегии, лимиты на контрактные вызовы, мультисиг для изменения параметров, и обязательные сценарии отказа (что делаем при потере оракула, при всплеске газа, при остановке пула).

Если вы строите ИИ решения для бизнеса вокруг казначейства, закупок, хеджирования или трейдинга, то ключевой KPI — не ROI на бэктесте. Ключевой KPI — контролируемая просадка и доказуемая безопасность контуров принятия решений.

Strategic Vision & Deep Dive

Мой прогноз: рынок будет уходить от «агентов-исполнителей» к «агентам-диспетчерам». То есть ИИ будет предлагать действия, ранжировать сценарии и объяснять риск, а исполнять будет ограниченный набор проверенных транзакций с жёсткими политиками. Это сильно ближе к промышленной автоматизации, чем к романтике автономных ботов.

Я также вижу, что следующие крупные потери будут не из-за «умности» модели, а из-за интеграции. В моих внедрениях ИИ интеграция почти всегда сложнее самого агента: несовместимость данных между протоколами, разные допущения по времени финализации, изменение ABI/параметров пулов, регрессии в зависимостях, неожиданная концентрация ликвидности. Агенту достаточно одной неверной предпосылки, чтобы начать последовательно принимать плохие решения, и он будет делать это быстрее человека.

Если вам всё-таки нужна автономия, я закладываю её ступенчато. Сначала “shadow mode” (агент советует), затем “guarded execution” (агент исполняет только в пределах политики), и только потом — частичная автономия на малых лимитах. Это и есть взрослое внедрение искусственного интеллекта в финансовые контуры, а не вера в магию.

Материал подготовлен мной, Вадимом Нагорным — ведущим практиком Nahornyi AI Lab по AI-архитектуре, ИИ автоматизации и запуску агентов в реальном секторе и финтехе. Если вы планируете сделать ИИ автоматизацию для казначейства, трейдингу или DeFi-операций, я приглашая вас обсудить задачу: разберу текущую схему, предложу архитектуру контроля рисков и помогу довести решение до продакшена без «выстрела себе в ногу».

Share this article