Technical Context
Я смотрю на дискуссию вокруг Claude Opus 4.5 vs Opus 4.6 не как на «какая модель умнее», а как на сигнал об изменении продуктовой стратегии. Меня как архитектора цепляет не абсолютный балл, а то, где именно разработчик модели инвестировал бюджет обучения: в SWE‑поведение или в «офисную» агентность.
По публичным данным и косвенным сравнениям, которые сейчас чаще всего всплывают в обзорах, картина такая: Opus 4.6 сохраняет небольшой перевес на SWE-bench Verified (в районе 80.8%), а Sonnet 4.6 подтягивается почти вплотную (около 79.6%). Это не революция, это уплотнение. На практике это означает: для агентного кодинга разница между «дорогим» и «средним» классом у Anthropic продолжает сжиматься, и это сознательный продуктовый ход.
Дальше начинается самое интересное: на GDPval-AA (условно «B2B-офисные» мультишаговые задачи: финансы, страхование, медицина как прокси-домены) Sonnet 4.6 оказывается в топе лидербордов (1633 Elo), и в ряде публикаций выглядит как #1 или статистически неотличим от Opus 4.6 в пределах доверительных интервалов. Я воспринимаю это как прямую оптимизацию под коммерциализацию «в массы»: не столько писать код, сколько закрывать цепочки действий в документах, таблицах, CRM и внутренних порталах.
Ещё один технический маркер, который я всегда проверяю: tool use / MCP‑совместимость и устойчивость при длинных сценариях. Sonnet 4.6 по MCP-Atlas фигурирует как очень сильный (порядка 61%+), а это уже не «качество текста», а качество интеграции: насколько модель стабильно вызывает инструменты, не теряет контекст, не ломает план на 8–12 шагах. В реальном внедрении искусственного интеллекта это часто важнее ещё +2% к решению олимпиадных задач.
В обсуждении всплывает и отсутствие Gemini 3 Pro «в списках». Я не делаю из этого вывод «модели нет» или «модель слабая» — я делаю архитектурный вывод: если модель отсутствует в ваших целевых лидербордах и нет репрезентативных eval’ов по вашим сценариям, то её нельзя закладывать как базовую в критичный контур. В проде мы покупаем не «модель», а предсказуемость поведения, измеряемость и стоимость ошибки.
Business & Automation Impact
Я вижу, как у многих компаний ломается привычная логика закупки: «берём самую новую и самую большую — значит, будет лучше во всём». На практике новая версия может дать прирост в офисных цепочках (GDPval-AA‑подобные сценарии), но не дать ожидаемого скачка в SWE. А если ваш KPI — скорость закрытия тикетов и качество патчей, вы внезапно переплачиваете за не тот профиль компетенции.
В проектах Nahornyi AI Lab я чаще всего сталкиваюсь с двумя классами задач, и они требуют разных моделей и разной AI-архитектуры:
- SWE и инженерные контуры: генерация PR, рефакторинг, автопочинка тестов, анализ логов, миграции. Тут важны точность, дисциплина в диффах, и способность следовать репо‑конвенциям. «Чуть лучше на SWE-bench» может реально сэкономить часы ревью.
- Офисные и операционные контуры: разбор документов, сверка счетов, комплаенс‑чек-листы, страховые кейсы, медицинские выписки, подготовка писем, заполнение ERP/CRM, отчёты. Тут выигрывает модель, которая меньше галлюцинирует, лучше держит мультишаговый план и стабильно вызывает инструменты.
Если Sonnet 4.6 действительно «закрывает» офисные цепочки лучше, то выигрывают компании с большим объёмом повторяемых операций: финансы, страхование, клиники, логистика, back-office в ритейле. Проигрывают те, кто продолжит оценивать модели только по «кодерским» бенчмаркам и игнорировать стоимость процесса: сколько шагов пройдёт агент, сколько раз сорвётся, сколько раз оператор будет исправлять.
Внедрение ИИ в таких процессах я почти никогда не делаю «одной моделью на всё». Я собираю контур: маршрутизация запросов по типам задач, разные политики безопасности, разные лимиты на tool use, разные стратегии памяти. Тогда «офисная» модель действительно даёт ROI, потому что она не просто отвечает, а проходит путь до результата: нашла нужный документ, сверила поля, сформировала запись в системе, оставила след аудита.
И здесь же появляется жёсткий нюанс по стоимости: «лучше в офисе» часто означает больше токенов и более длинные траектории агента. Если не контролировать бюджет (лимиты, кэширование, chunking, дедупликация, контроль повторных вызовов), то ИИ автоматизация превращается в статью расходов без управляемой маржинальности. Я предпочитаю сначала проектировать экономику запроса, а уже потом выбирать модель.
Strategic Vision & Deep Dive
Меня не удивляет сдвиг прогнозов по «super-coding-agent» с 2027 на 2029. Я вижу это по реальным контурам: автономность упирается не в «ум», а в инженерные ограничения — доступы, детерминизм, проверяемость, воспроизводимость, права на изменения, качество тестового покрытия, и главное — цена ошибки.
Сейчас рынок, по моим наблюдениям, рационально выбирает не максимальный IQ, а максимальную монетизацию: агент, который закрывает страховой кейс или финансовую сверку без эскалаций, приносит бизнесу деньги сегодня. Агент, который «почти» сам пишет продукт, всё ещё требует слишком много страховок: sandbox, policy‑контуры, обязательные проверки, комплаенс-логи, staging‑прогоны. Это дорогая эксплуатация, и она плохо масштабируется в компаниях без зрелой инженерной культуры.
В архитектуре ИИ-решений я всё чаще закладываю принцип: «кодинг — это инструмент, офис — это рынок». Поэтому я ожидаю, что следующие релизы будут продолжать улучшать: инструментальные вызовы, устойчивость к длинным сценариям, снижение галлюцинаций в документах, работу с таблицами и формами, а не только чистый SWE. Для бизнеса это хорошая новость: ценность будет приходить через процессы, а не через демо.
Ловушка, которую я вижу у клиентов, простая: они пытаются измерять B2B‑агентов «как кодера» и потом разочаровываются. Я делаю иначе: определяю 10–20 эталонных бизнес‑сценариев, строю evaluation под их данные, добавляю контроль качества (human-in-the-loop там, где нужно), и только затем решаю, где оправдан Opus‑уровень, а где Sonnet‑уровень даёт тот же результат дешевле. Это и есть практичная разработка ИИ решений, а не охота за цифрами.
Если резюмировать мой прогноз: до 2029 «супер‑кодер» будет появляться точечно — в компаниях с идеальными репозиториями и тестами. Массовый эффект дадут модели, заточенные под операционные цепочки, и победят те, кто быстрее встроит их в процессы и данные, а не те, кто раньше всех купит новую версию.
Хотите понять, какая модель и какая AI-архитектура дадут ROI именно в вашем процессе? Я приглашаю обсудить задачу с Nahornyi AI Lab: разберём сценарии, риски, экономику токенов и спроектируем внедрение ИИ без «магии» и сюрпризов в проде. Напишите мне — консультацию веду лично, Вадим Нагорный.