Skip to main content
OpenAICodexGPT-5.5 Pro

GPT-5.5 Pro можно протащить в Codex

Пользователи нашли неофициальный способ задействовать GPT-5.5 Pro внутри Codex: агент через встроенный браузер общается с ChatGPT, передаёт файлы и забирает результат. Для AI automation это важно как временный мост к более сильному рассуждению там, где прямого доступа к Pro пока нет.

Что именно нашли

Я люблю такие находки: они не из документации, а из реальной возни с инструментом. Суть простая: GPT-5.5 Pro официально не доступна как модель для сабагентов в Codex, но её можно использовать как внешний мозг через встроенный браузер агента.

Схема почти кустарная, но рабочая. Codex видит тред в браузере, может отправлять сообщения, подгружать файлы и потом забирать ответ. По сути, я получаю костыльную AI integration между Codex и ChatGPT, где Pro выступает субагентом без нативной кнопки «включить Pro».

И тут важная оговорка. Это не штатная функция OpenAI, а пользовательский лайфхак. В официальных материалах по сабагентам фигурируют обычные модели линейки GPT-5.5, а Pro остаётся API-вариантом с большим compute, не встроенным в Codex как отдельный режим.

То есть технически это не «сабагент Codex» в чистом виде, а внешний контур: Codex работает в своём контейнере и инструментах, а для сложного куска рассуждений гоняет задачу через браузер в ChatGPT. Если вы хоть раз собирали AI architecture из нескольких несовместимых сервисов, то картинка знакомая.

Где это реально полезно

Я бы применял такой трюк там, где Codex уже умеет таскать файлы и править код, но на тяжёлом анализе начинает буксовать. Например: разбор большого треда, архитектурная оценка, спорные рефакторинги, длинные reasoning-задачи.

Выигрывают те, кому нужно быстро усилить агент без отдельной полной AI solution development вокруг API-прокси. Проигрывают те, кому нужна надёжность: поток хрупкий, неофициальный, может сломаться после любого обновления интерфейса или ограничений браузера.

Я бы точно не строил на этом критичный прод. Но как временный мост, чтобы проверить гипотезу, собрать automation with AI и понять, даёт ли Pro заметный прирост на ваших задачаях, идея годная.

Если у вас похожая история и команда уже упирается в ограничения стандартного пайплайна, я бы посмотрел на процесс целиком. В Nahornyi AI Lab мы как раз собираем такие связки аккуратно: где нужен нативный Codex, где внешний reasoning-контур, а где уже пора build AI automation без этих костылей и с нормальной устойчивостью для бизнеса.

Ранее мы рассматривали архитектурные проблемы интеграции ИИ, в частности, анализируя кейс 'Codex 5.2' и проводя различие между практической архитектурой ИИ и простыми демо. Этот контекст важен при рассмотрении того, как создавать и использовать субагентов, подобных обсуждаемому, в таких средах.

Поделиться статьёй