Технічний контекст
Я б не робив з цього сенсацію, але патерн надто впізнаваний: люди пишуть, що Claude Code почав зриватися в захисний режим і лякати prompt injection навіть на невинних завданнях. Для тих, хто будує AI integration у розробці, це не дрібниця, а прямий удар по передбачуваності пайплайну.
Паралельно з'явився дуже приземлений обхідний шлях: OpenAI Codex Plugin для Claude Code. В обговореннях найчастіше згадуються команди /codex:rescue та /codex:adversarial-review, а також порада оновити Codex до останньої версії та виставити xhigh reasoning effort. Якраз люблю такі штуки не за магію, а за те, що вони перетворюють одного примхливого агента на систему із запасним контуром.
Сама ідея проста й сильна: не вмовляти один LLM бути одночасно генератором, перевіряючим і параноїком, а розділити ролі. Claude пише код, Codex атакує його як критик, шукає крайні випадки, вразливі припущення та логічні діри. Окремий прийом мені особливо сподобався: одразу сказати Claude, що його код потім перевірить Codex. Це помітно змінює стиль виводу, модель менше халтурить у дрібницях.
Найгучніше спостереження з тредів, яке я б сприймав як кейс користувача, а не як науковий бенчмарк: одна людина прогнала через 20x підписку понад 280 експериментів за ніч і отримала близько 10% приросту якості, поки спала. Цифри я б не абсолютизував, але сам принцип знайомий: adversarial critique майже завжди ловить те, що один промпт пропускає.
Вплив на бізнес та автоматизацію
Тут виграють команди, у яких кодогенерація вже вбудована в процес, а не використовується як іграшка. Якщо один агент стає нестабільним, другий контур перевірки рятує терміни, нерви та вартість ітерацій. Часто це дешевше і швидше, ніж нескінченно перепромпчувати Claude, сподіваючись, що цього разу він сам себе виправить.
Програють ті, хто будує AI architecture за схемою «одна модель вирішить усе». На практиці надійніше працює зв'язка з ролей: генерація, критика, rescue-сценарій та окремі правила ескалації, коли агент починає панікувати або сперечатися з реальністю.
Ми в Nahornyi AI Lab вирішуємо такі речі для клієнтів регулярно: не просто підключаємо модель, а збираємо робочу AI automation з перевірками, fallback-логікою та нормальною ціною помилки. Якщо у вас кодові агенти вже почали гальмувати команду, давайте розберемо workflow і зберемо AI solution development так, щоб система приносила результат навіть уночі, а не нові сюрпризи на ранок.