Skip to main content
AnthropicкибербезопасностьAI automation

Claude Mythos Preview та новий рівень кіберризику

7 квітня Anthropic представила Claude Mythos Preview, але не випустила його публічно, залишивши модель у закритому контурі Project Glasswing через стрибок у кіберможливостях. Для бізнесу це сигнал, що впровадження AI в security тепер залежить не від хайпу, а від управління безпрецедентним ризиком.

Технічний контекст

Я занурився в першоджерела Anthropic одразу після анонсу 7 квітня, тому що тут вже не про «розумніше відповідає». Тут історія про AI automation у кіберзахисті, де модель раптово починає знаходити те, що команди пропускали роками.

І ось це мене справді зачепило: Anthropic сама пише, що Claude Mythos Preview за кілька тижнів знайшла тисячі zero-day, багато з яких критичні, а частина з них жила в софті по 10-20 років. Коли модель підіймає такий пласт, це вже не черговий апгрейд асистента, а зміна класу системи.

За цифрами картина жорстка. На CyberGym Mythos показує 83.1% проти 66.6% в Opus 4.6. На задачах перетворення знайдених багів на робочі експлойти для Firefox JavaScript shell модель доходить до 72.4%, тоді як попередні версії, за формулюванням самої Anthropic, зазвичай провалювалися.

Паралельно в неї 93.9% на SWE-bench Verified проти 80.8% в Opus 4.6, 97.6% на USAMO 2026 проти 42.3% та 100% solve rate на Cybench CTF. Я зазвичай спокійно ставлюся до бенчмарків, але тут важлива не краса таблиці, а зв'язка: аналіз вразливостей, код, експлуатація, швидкість.

Найважливіший факт: модель не пустили в паблік. Доступ обмежили через Project Glasswing, тобто через закритий defensive-контур для партнерів, пов'язаних із критичною інфраструктурою та безпекою. Це, на мій погляд, головний маркер того, як Anthropic сама оцінює ризик.

А ось історію про екстрену нараду Мінфіну США з CEO банків і конфлікт з Пентагоном я за доступними підтвердженими матеріалами не верифікував. В офіційних публікаціях і нормальних квітневих джерелах я бачу Mythos, Glasswing і обмежений доступ, але не бачу надійного підтвердження цим двом сюжетам. Тому чесно відокремлюю факт від шуму.

Вплив на бізнес та автоматизацію

Якщо дивитися на це як інженер, я бачу дуже простий зсув: frontier-моделі перестають бути просто інтерфейсом до знань і стають операційним учасником security-процесу. Не помічником збоку, а компонентом, який вміє шукати, перевіряти й місцями навіть збирати робочий ланцюжок експлуатації.

Для компаній це змінює AI architecture цілком. Раніше можна було сперечатися, де прикрутити LLM до SOC, AppSec чи SDLC. Тепер питання інше: як ізолювати модель, як логувати дії, як обмежувати доступ до репозиторіїв, і хто підписує ризик, якщо система знайшла критичний шлях швидше за людей.

Виграють ті, у кого вже є дисципліна навколо secure SDLC, red team, нормальний patch pipeline і зріла observability. Вони зможуть вбудувати такі моделі в defensive workflow і скоротити цикл від виявлення до виправлення. Програють ті, хто хотів «просто підключити ШІ» без контролю, бо тут ціна помилки вже зовсім не маркетингова.

Окремо мене чіпляє, що Mythos не випустили широко. Це фактично визнання: поріг корисності та поріг небезпеки зійшлися занадто близько. Коли модель однаково добре допомагає закривати діри й потенційно прискорює offensive-сценарії, розмова про інтеграцію штучного інтелекту різко дорослішає.

Я це бачу і в клієнтських задачах. Щойно мова заходить про AI solution development для внутрішньої безпеки, одразу спливають не промпти, а сегментація доступу, пісочниці, human-in-the-loop та аудит результатів. Ми в Nahornyi AI Lab вирішуємо саме ці приземлені речі, тому що без них будь-яке красиве демо швидко стає проблемою.

Мій висновок простий: Mythos важлива не лише своїми цифрами, а тим, що змушує ринок перезібрати ставлення до моделі як до інструменту інфраструктурного рівня. Після таких релізів уже не можна обговорювати впровадження ШІ у відриві від governance, threat modeling і реальних обмежень.

Якщо у вас команда вже тоне в ручній перевірці коду, тріажі вразливостей чи нескінченних security-alerts, я б дивився не на хайп, а на конкретний контур впровадження. У Nahornyi AI Lab ми можемо зібрати AI automation так, щоб вона знімала рутину з інженерів, прискорювала захист і не відкривала нову діру там, де ви намагалися навести лад.

Поділитися статтею