Технічний контекст
Я заглибився в деталі Claude Mythos не з цікавості, а тому що такі релізи безпосередньо впливають на те, як ми проєктуємо AI automation у security-процесах. І ось де я зупинився: заголовок про «тисячі серйозних zero-day» звучить потужно, але під ним дуже тонка опора.
Згідно з аналізом Tom’s Hardware та матеріалами самої Anthropic, більшість гучних висновків базується не на повному підтвердженні всіх знахідок, а на екстраполяції зі 198 звітів, перевірених вручну. Так, у цих оглядах експерти часто погоджувалися з оцінкою серйозності. Але це все ще не дорівнює «ми підтвердили тисячі критичних уразливостей».
Якщо дивитися на більш приземлені цифри, картина вже спокійніша. У тестах на тисячах open-source стеків модель знайшла близько 600 crashable exploit cases та 10 важких уразливостей. Це сильно, корисно, інженерно цікаво, але це не той рівень магії, який намагаються продати в заголовку.
Ще один важливий момент: Anthropic сама не випустила Mythos у публічний доступ. Доступ обмежений, контрольований, для великих гравців, яким потрібно заздалегідь закривати діри. І це, чесно кажучи, найбільш розумна частина всієї історії.
Мені ще сподобався й одночасно не сподобався блок про генерацію експлойтів (exploit generation). Заява про 72.4% успішного перетворення знайдених багів на експлойти для Firefox JS shell звучить серйозно. Але це вузький сценарій, а не універсальна метрика «модель вміє ламати все підряд».
Тобто фактично я бачу хороший спеціалізований інструмент для security research, а не «розумного суперхакера». І ось ця різниця є критичною, якщо ви реально відповідаєте за управління ризиками (risk management), а не за презентації для ради директорів.
Що це змінює для бізнесу та автоматизації
Для мене головний висновок простий: ринок знову плутає демонстрацію потенціалу з готовим продуктом. В AI integration це класична пастка. Беруть сильний експериментальний результат, множать на красивий наратив, а потім хтось на боці замовника починає чекати на автономний аудит усього legacy-ландшафту.
З legacy, до речі, все особливо слизько. В обговореннях з'являлися чутки, що публічний реліз притримали через критичні знахідки у фінансовій сфері, але підтверджень цьому я не побачив. А ось те, що у банках та страхових компаніях повно старого ПЗ, кривих інтеграцій та рідкісних внутрішніх протоколів — це не чутки, це рутина.
Саме тому я б не будував архітектуру захисту навколо однієї frontier-моделі, яким би вражаючим не був її system card. Нормальна схема виглядає нудніше: статичний аналіз, sandboxing, пріоритезація, людина в циклі, перевірка відтворюваності, а вже поверх цього — модель як прискорювач. Не оракул. Не заміна команди.
Хто виграє від Mythos-підходу? Великі вендори, у яких є ресурси швидко валідувати знахідки та випускати патчі. Хто ризикує? Компанії, які побачать маркетинг, куплять ідею «ШІ сам знайде і закриє все», а потім зіткнуться з шумом, хибними спрацьовуваннями та непідтвердженими оцінками серйозності (severity scores).
Я це бачу і в інших класах завдань. Коли ми в Nahornyi AI Lab розробляємо AI-рішення для клієнтів, найдорожча помилка майже завжди одна й та сама: очікування дива замість нормального пайплайну перевірки. У безпеці ціна такої помилки особливо неприємна, тому що хибна впевненість (false confidence) гірша, ніж чесне «ми поки не впевнені».
Якщо стиснути всю історію до однієї думки, то вона така: Mythos, схоже, реально корисний, але маркетинг навколо нього помітно гучніший за факти. І це не привід махнути рукою на моделі для security, а привід вимагати чіткої валідації, зрозумілих метрик та обмежень щодо зони застосування.
Якщо у вас зараз схожий вибір, між хайпом і робочою системою, давайте тверезо подивимося на ваш контур. У Nahornyi AI Lab я зазвичай починаю з процесів, де AI automation дійсно знижує ризик та економить час команди, а потім вже збираю архітектуру без красивих ілюзій і з нормальною перевіркою на бойових сценаріях.