Технический контекст
Я бы не делал из этого сенсацию, но паттерн слишком узнаваемый: люди пишут, что Claude Code начал срываться в защитный режим и пугать prompt injection даже на безобидных задачах. Для тех, кто строит AI integration в разработке, это не мелочь, а прямой удар по предсказуемости пайплайна.
Параллельно всплыл очень земной обходной путь: OpenAI Codex Plugin для Claude Code. В обсуждениях чаще всего мелькают команды /codex:rescue и /codex:adversarial-review, плюс совет обновить Codex до последней версии и выставить xhigh reasoning effort. Я как раз люблю такие штуки не за магию, а за то, что они превращают один капризный агент в систему с запасным контуром.
Сама идея простая и сильная: не уговаривать один LLM быть одновременно генератором, проверяющим и параноиком, а разделить роли. Claude пишет код, Codex атакует его как критик, ищет крайние случаи, уязвимые допущения и логические дыры. Отдельный прием мне особенно понравился: сразу сказать Claude, что его код потом проверит Codex. Это заметно меняет стиль вывода, модель меньше халтурит в углах.
Самое громкое наблюдение из тредов, которое я бы воспринимал как пользовательский кейс, а не как научный бенчмарк: один человек прогнал через 20x подписку больше 280 экспериментов за ночь и получил около 10% прироста по качеству, пока спал. Цифры я бы не абсолютизировал, но сам принцип знакомый: adversarial critique почти всегда ловит то, что один промпт пропускает.
Влияние на бизнес и автоматизацию
Здесь выигрывают команды, у которых кодогенерация уже встроена в процесс, а не используется как игрушка. Если один агент становится нестабильным, второй контур проверки спасает сроки, нервы и стоимость итераций. Часто это дешевле и быстрее, чем бесконечно перепромпчивать Claude в надежде, что в этот раз он сам себя исправит.
Проигрывают те, кто строит AI architecture по схеме «одна модель решит все». На практике надежнее работает связка из ролей: генерация, критика, rescue-сценарий и отдельные правила эскалации, когда агент начинает паниковать или спорить с реальностью.
Мы в Nahornyi AI Lab решаем такие вещи для клиентов регулярно: не просто подключаем модель, а собираем рабочую AI automation с проверками, fallback-логикой и нормальной ценой ошибки. Если у вас кодовые агенты уже начали тормозить команду, давайте разберем workflow и соберем AI solution development так, чтобы система приносила результат даже ночью, а не новые сюрпризы к утру.