Quelle est la découverte ?
J'adore ce genre de trouvailles : elles ne viennent pas de la documentation, mais du bidouillage avec l'outil. L'idée est simple : GPT-5.5 Pro n'est pas officiellement disponible comme modèle pour les sous-agents dans Codex, mais on peut l'utiliser comme un cerveau externe via le navigateur intégré de l'agent.
Le montage est presque artisanal, mais il fonctionne. Codex voit la conversation dans le navigateur, peut envoyer des messages, charger des fichiers, puis récupérer la réponse. En gros, j'obtiens une intégration IA de fortune entre Codex et ChatGPT, où Pro agit comme un sous-agent sans bouton natif « activer Pro ».
Et voici une précision importante. Ce n'est pas une fonctionnalité standard d'OpenAI, mais une astuce découverte par des utilisateurs. Les documents officiels sur les sous-agents mentionnent les modèles standards de la gamme GPT-5.5, tandis que Pro reste une option API avec plus de puissance de calcul, non intégrée à Codex en tant que mode distinct.
Techniquement, ce n'est donc pas un « sous-agent Codex » à proprement parler, mais une boucle externe : Codex fonctionne dans son conteneur et avec ses outils, et pour une partie complexe du raisonnement, il envoie la tâche à ChatGPT via le navigateur. Si vous avez déjà construit une architecture IA à partir de plusieurs services incompatibles, l'image vous est familière.
Où est-ce réellement utile ?
J'utiliserais cette astuce là où Codex sait déjà gérer les fichiers et modifier le code, mais commence à patiner sur des analyses lourdes. Par exemple : l'analyse d'un long fil de discussion, une évaluation architecturale, des refactorisations controversées, des tâches de raisonnement longues.
Ceux qui y gagnent sont ceux qui ont besoin de renforcer rapidement leur agent sans un développement complet d'une solution IA autour d'un proxy API. Ceux qui y perdent sont ceux qui ont besoin de fiabilité : le flux est fragile, non officiel, et peut se briser après n'importe quelle mise à jour de l'interface ou restriction du navigateur.
Je ne construirais certainement pas un système de production critique là-dessus. Mais comme pont temporaire pour tester une hypothèse, mettre en place une automatisation avec l'IA et voir si Pro apporte un gain notable sur vos tâches, l'idée est bonne.
Si vous êtes dans une situation similaire et que votre équipe se heurte déjà aux limites du pipeline standard, j'examinerais le processus dans son ensemble. Chez Nahornyi AI Lab, nous construisons justement ces liens avec soin : où un Codex natif est nécessaire, où une boucle de raisonnement externe est appropriée, et où il est temps de construire une automatisation IA sans ces bricolages et avec une stabilité professionnelle.