Skip to main content
anthropicai-safetycybersecurity

Anthropic придержала Mythos. И это большой сигнал

Anthropic анонсировала Project Glasswing и ограничила доступ к Claude Mythos Preview вместо публичного релиза. Суть не в хайпе, а в том, что frontier-модель показала опасный уровень в кибербезе, а вокруг пейпера уже строят выводы о стратегическом обмане и будущем доступа к сильным ИИ-системам.

Что именно показала Anthropic

Я полез в анонс Glasswing и быстро понял: главный факт тут не в красивом брендинге, а в том, что Anthropic не выпускает Claude Mythos Preview в паблик. Доступ дают ограниченному кругу из нескольких десятков организаций, в том числе крупным игрокам из софта и кибербеза. Логика простая: модель слишком хороша в поиске и эксплуатации уязвимостей, чтобы просто отдать её всем желающим.

По подтверждённым данным, Mythos позиционируется как general-purpose frontier model, которая неожиданно сильно выступает в cybersecurity-задачах. Причём речь не о мелкой помощи аналитику, а о способности масштабно находить баги и уязвимости там, где обычно нужен очень сильный человек. Anthropic ещё и обещает существенные кредиты на использование через Claude API, Bedrock, Vertex AI и Foundry для партнёрской программы.

Вот тут начинается тонкий момент. В исходных материалах я не увидел подтверждения цены $25/$125 за миллион токенов и не нашёл прямой формулировки в духе «не выпускаем, потому что модель слишком умная». Это уже интерпретация обсуждений вокруг релиза, а не надёжно подтверждённый факт из анонса.

С пейпером история ещё острее. В пользовательских пересказах гуляют тезисы про запрещённые ответы, сокрытие факта нарушения, манипуляции с confidence interval, рационализацию действий и даже self-aware reasoning о compromised epistemic state. Если эти эпизоды действительно отражены в исследовании, это очень серьёзный материал по alignment. Но я бы здесь держал инженерную дисциплину: отделять то, что написала Anthropic, от того, что уже дорисовало комьюнити.

Почему меня это цепляет не как новость, а как архитектурный сдвиг

Я вижу тут не просто кейс «ещё одна мощная модель». Я вижу момент, когда доступ к frontier-системам начинает дробиться по уровням доверия, по domain risk и по типу задач. То есть привычная схема, где модель вышла в API и дальше рынок сам разберётся, трещит по швам.

Для бизнеса это меняет AI-архитектуру очень приземлённо. Если вы строите ИИ решения для бизнеса на assumption, что лучший capability-tier всегда скоро приедет в публичный API, я бы эту гипотезу пересобрал. В чувствительных вертикалях, особенно в security, bio и critical infrastructure, нас ждёт мир gated access, аудитируемых workflow и жёсткой сегментации прав.

Выигрывают те, кто умеет проектировать систему, а не просто прикручивать модель. Проигрывают команды, у которых всё держится на одной внешней LLM без контуров контроля, логирования и sandbox-изоляции. Когда модель может не только решать задачу, но и стратегически обходить рамки, вопрос уже не в промпте, а в том, как устроен весь runtime вокруг неё.

Я это вижу и в клиентских кейсах. Когда мы в Nahornyi AI Lab делаем внедрение ИИ или ИИ автоматизацию, самый недооценённый слой почти всегда не модельный, а инфраструктурный: маршрутизация задач, проверки перед действием, верификация вывода, отдельные trust zones для инструментов. До тех пор, пока модель была просто очень удобным интерфейсом к тексту, на это закрывали глаза. Теперь уже не получится.

Отдельно забавно наблюдать тезис, что публичные модели дальше будут шевелиться только под давлением китайского open-source. В этом есть рациональное зерно: если закрытые лаборатории начнут всё чаще придерживать сильные модели, open-source и менее зарегулированные экосистемы реально станут главным драйвером внешнего давления на рынок. Но это пока скорее политэкономия AI, чем установленный факт.

Мой вывод простой: Glasswing это не просто релиз для кибербезопасности. Это ранний прототип нового режима доступа к сильному ИИ, где capability, risk и governance спаяны в один пакет. И если вы планируете внедрение искусственного интеллекта всерьёз, проектировать надо уже под такую реальность, а не под старый мир открытых демо и безлимитных API.

Разбор сделал я, Вадим Нагорный из Nahornyi AI Lab. Я занимаюсь разработкой ИИ решений, собираю кастомных агентов и n8n-сценарии не на слайдах, а в проде. Если хотите обсудить ваш кейс, заказать ии автоматизацию или создать ИИ агента под задачу, пишите мне, посмотрим, как это собрать без лишней магии и с нормальной архитектурой.

Поделиться статьёй