Технический контекст
Я люблю такие обсуждения не за холивар, а за живые сигналы с поля. Тут картина получилась очень приземлённая: Codex и GPT хвалят за дебаг сложных проблем, особенно когда модель сидит как AI-прослойка над терминалом — kubectl, DNS, логи, вся эта прекрасная боль. А вот в агентном кодинге и длинных итеративных задачах доверия к Claude у людей пока больше.
Меня зацепили три вещи. Первая: Codex называют неидеальным в long-running flow, потому что он неэкономно тратит контекст и может сделать несколько compaction-циклов даже на простом плане. Вторая: у него подтянули субагентов, и это хороший знак — OpenAI явно допиливает архитектуру под более сложные сценарии. Третья: по цене он выглядит привлекательнее Anthropic, и это уже аргумент не для спора в чате, а для бюджета команды.
С другой стороны, в исходном обсуждении есть важная поправка: часть впечатлений завязана на личные ощущения от “буквальности” GPT. Один из участников очень точно сформулировал это так: GPT лучше держит инструкции из agents.md и меньше требует костылей с prompt injection-хуками, но Claude как будто лучше улавливает нюанс задачи. Я с этим сталкивался и сам: одна модель дисциплинированно исполняет, другая лучше ловит полутона. И это не одно и то же.
Ещё нюанс по срокам. Входной шум вокруг “GPT 5.4” я бы не тащил в выводы как подтверждённый факт. На март 2026 надёжнее опираться на практику пользователей и доступные публичные сравнения по текущим моделям, а не на неясный нейминг из чатов. Иначе AI-архитектура решения начинает строиться на слухах, а это плохая база.
Что это меняет в бизнесе и автоматизации
Если перевести весь спор с языка разработчиков на язык бизнеса, получается очень простая вещь. Не существует одной “лучшей” модели для всей команды. Есть стек задач: терминальный дебаг, агентная разработка, фронтенд, длинные workflow, внутренние ассистенты — и под каждый слой победитель может быть разный.
Я бы сегодня раскладывал так. Если мне нужна ИИ автоматизация вокруг инфраструктуры, поддержки инженеров и разборов инцидентов, Codex/GPT выглядит вполне рабочим вариантом. Особенно там, где критична дисциплина по инструкциям, а фидбек-луп построен правильно: модель получила вывод команды, скорректировалась, пошла дальше.
А вот если задача — долго жить внутри большого проекта, держать нить многошаговой работы и не разваливаться на каждом повороте, Claude пока выглядит надёжнее. Именно поэтому в разработке ИИ решений для команд я всё чаще вижу не выбор “или-или”, а маршрутизацию. Один движок идёт в debug-пайплайн, второй — в сложные агентные сценарии.
Проигрывают тут те, кто пытается сделать внедрение искусственного интеллекта по принципу “берём топовую модель и суём везде”. Так не работает. Я несколько раз видел, как компания переплачивает за мощную модель там, где хватило бы дешёвого инструмента для узкой функции, и наоборот — душит бюджетной моделью кейс, где нужен длинный контекст и аккуратное планирование.
В Nahornyi AI Lab мы обычно начинаем не с вопроса “что круче — Claude или Codex?”, а с карты маршрутов: где нужен агент, где оркестратор, где жёсткие инструкции, где human-in-the-loop. Вот там и рождается нормальная ИИ интеграция, а не чатик ради чатикa.
Мой короткий вывод такой: Claude сейчас чаще выигрывает по доверию в агентном кодинге, Codex/GPT — сильный кандидат для дебага, терминальных сценариев и более бюджетной автоматизации. Побеждает не модель сама по себе, а то, как вы собрали вокруг неё цикл обратной связи, контекст и ограничения.
Этот разбор написал я, Вадим Нагорный из Nahornyi AI Lab. Я не коллекционирую бенчмарки ради твитов — мы руками собираем ИИ решения для бизнеса, тестируем агентов в реальных workflow и смотрим, где они экономят время, а где только жгут токены.
Если хотите, я помогу спокойно разложить ваш кейс: что отдать Claude, что отдать OpenAI, и как сделать ИИ автоматизацию без лишней магии и лишних счетов. Напишите мне — обсудим ваш проект вместе.