Was genau wurde entdeckt?
Ich liebe solche Entdeckungen: Sie stammen nicht aus der Dokumentation, sondern aus dem realen Herumspielen mit dem Werkzeug. Die Idee ist einfach: GPT-5.5 Pro ist offiziell nicht als Modell für Subagenten in Codex verfügbar, aber man kann es als externes Gehirn über den integrierten Browser des Agenten nutzen.
Das Setup ist fast schon hemdsärmelig, aber es funktioniert. Codex sieht den Thread im Browser, kann Nachrichten senden, Dateien hochladen und dann die Antwort abrufen. Im Grunde erhalte ich eine behelfsmäßige KI-Integration zwischen Codex und ChatGPT, bei der Pro als Subagent fungiert, ohne dass es einen nativen „Pro aktivieren“-Button gibt.
Und hier ist eine wichtige Einschränkung. Dies ist keine Standardfunktion von OpenAI, sondern ein von Nutzern entdeckter Lifehack. In den offiziellen Materialien zu Subagenten werden die Standardmodelle der GPT-5.5-Reihe erwähnt, während Pro eine API-Variante mit mehr Rechenleistung bleibt, die nicht als separater Modus in Codex integriert ist.
Technisch gesehen ist es also kein „Codex-Subagent“ im reinen Sinne, sondern eine externe Schleife: Codex arbeitet in seinem eigenen Container und mit seinen Werkzeugen, und für einen komplexen Teil der Überlegungen schickt es die Aufgabe über den Browser an ChatGPT. Wenn Sie jemals eine KI-Architektur aus mehreren inkompatiblen Diensten aufgebaut haben, ist Ihnen das Bild vertraut.
Wo ist das wirklich nützlich?
Ich würde diesen Trick dort anwenden, wo Codex bereits gut darin ist, Dateien zu verschieben und Code zu bearbeiten, aber bei schweren Analysen ins Stocken gerät. Zum Beispiel: die Analyse eines großen Threads, eine Architekturbewertung, umstrittene Refactorings, lange Reasoning-Aufgaben.
Die Gewinner sind diejenigen, die ihren Agenten schnell verstärken müssen, ohne eine vollständige KI-Lösung um einen API-Proxy herum zu entwickeln. Die Verlierer sind diejenigen, die Zuverlässigkeit benötigen: Der Workflow ist fragil, inoffiziell und kann nach jeder UI-Aktualisierung oder Browser-Einschränkung zusammenbrechen.
Ich würde definitiv kein kritisches Produktionssystem darauf aufbauen. Aber als temporäre Brücke, um eine Hypothese zu testen, eine KI-Automatisierung aufzubauen und zu sehen, ob Pro bei Ihren Aufgaben einen merklichen Schub bringt, ist die Idee gut.
Wenn Sie eine ähnliche Situation haben und Ihr Team bereits an die Grenzen der Standard-Pipeline stößt, würde ich den gesamten Prozess betrachten. Im Nahornyi AI Lab bauen wir solche Verbindungen sorgfältig auf: Wo ein nativer Codex benötigt wird, wo eine externe Reasoning-Schleife angebracht ist und wo es an der Zeit ist, eine KI-Automatisierung ohne diese Behelfslösungen und mit solider Stabilität für das Geschäft aufzubauen.