Що я перевірив по фактах
Я заглибився у зведення за квітень і швидко побачив знайому проблему: цифри поширюються швидше, ніж постмортеми. Великі інциденти були реальними, особливо Kelp DAO та Drift, і сумарні збитки дійсно перевищили $600 млн. Але список із чату не скрізь збігається з підтвердженими назвами та сумами, а історія про масових AI-хакерів поки що залишається радше гіпотезою, ніж доведеним фактом.
Наприклад, мова йшла про Aftermath Protocol, а не Aftermath Finance. Щодо Kelp DAO публічно розбирали компрометацію інфраструктури, DDoS та вразливість у схемі верифікації bridge-повідомлень. Це вже не романтика “розумний контракт помилився на один require”, а звичайний багатошаровий злам, де атакують і infra, і trust assumptions.
На такому тлі я завжди думаю не про хайп, а про AI implementation у захисті. Навіть якщо конкретно в цих кейсах AI-агенти не підтверджені, сама вартість масового reconnaissance стрімко падає. Знайти слабкий RPC, погану конфігурацію, підозрілу роль адміністратора чи криву логіку оракула тепер можна набагато швидше, ніж рік тому.
Ось де мені стало не по собі: ринок все ще проєктує протоколи так, ніби атакуючий працює руками і спить ночами. А атакуючий уже може не спати взагалі.
Що це змінює для бізнесу та автоматизації
Перший наслідок простий: ручний security review більше не є достатнім як єдиний шар захисту. Якщо у вас bridge, lending, staking чи wallet-інфраструктура, потрібна постійна AI automation для пошуку аномалій у правах доступу, конфігураціях, on-chain потоках та devops-змінах.
Друге: виграють команди, у яких захист вбудований в AI architecture продукту, а не прикручений після інциденту. Програють ті, хто покладає критичні припущення на одного верифікатора, один ключ, одного RPC-провайдера чи одну людину з доступом.
І третє: bug bounty за “дякую та $2k” тепер виглядає майже як знущання. Якщо ринок не платить білим дослідникам, уразливості монетизують інші.
Я бачу це і в клієнтських завданнях: безпеку вже не можна відокремлювати від автоматизації, тому що автоматизація є і в захисника, і в нападника. Якщо у вас DeFi-продукт, гаманець або високоризикова Web3-інтеграція, можна спокійно розібрати архітектуру та зібрати нормальний контур моніторингу. У Nahornyi AI Lab ми якраз робимо такі речі на практиці: від AI solution development для detection-пайплайнів до точкової AI integration в існуючі процеси, щоб бізнес не чекав на свій постмортем.