Skip to main content
OpenAICodexGPT-5.5 Pro

Es posible colar GPT-5.5 Pro en Codex

Los usuarios han encontrado una forma no oficial de usar GPT-5.5 Pro en Codex. El agente se comunica con ChatGPT a través de su navegador integrado, enviando archivos y recogiendo el resultado. Esto es clave para la automatización con IA como un puente temporal hacia un razonamiento más potente.

¿Qué se ha descubierto exactamente?

Me encantan estos hallazgos: no provienen de la documentación, sino de trastear con la herramienta. La idea es simple: GPT-5.5 Pro no está disponible oficialmente como modelo para subagentes en Codex, pero se puede usar como un cerebro externo a través del navegador integrado del agente.

El esquema es casi artesanal, pero funciona. Codex ve el hilo en el navegador, puede enviar mensajes, subir archivos y luego recoger la respuesta. En esencia, obtengo una integración de IA improvisada entre Codex y ChatGPT, donde Pro actúa como un subagente sin un botón nativo para «activar Pro».

Y aquí una aclaración importante. No es una función estándar de OpenAI, sino un truco descubierto por un usuario. Los materiales oficiales sobre subagentes mencionan los modelos estándar de la línea GPT-5.5, mientras que Pro sigue siendo una variante de API con más computación, no integrada en Codex como un modo separado.

Es decir, técnicamente no es un «subagente de Codex» en estado puro, sino un circuito externo: Codex funciona en su propio contenedor y con sus herramientas, y para una parte compleja de razonamiento, envía la tarea a ChatGPT a través del navegador. Si alguna vez has montado una arquitectura de IA con varios servicios incompatibles, la imagen te resultará familiar.

¿Dónde es realmente útil?

Yo aplicaría este truco en los casos en que Codex ya sabe manejar archivos y corregir código, pero empieza a flaquear en análisis pesados. Por ejemplo: analizar un hilo largo, una evaluación de arquitectura, refactorizaciones controvertidas, tareas de razonamiento extensas.

Ganan aquellos que necesitan potenciar rápidamente el agente sin un desarrollo completo de una solución de IA en torno a un proxy de API. Pierden los que necesitan fiabilidad: el flujo es frágil, no oficial y puede romperse tras cualquier actualización de la interfaz o restricción del navegador.

Definitivamente no construiría un sistema crítico de producción sobre esto. Pero como puente temporal para probar una hipótesis, montar una automatización con IA y ver si Pro aporta una mejora notable en tus tareas, la idea es buena.

Si tienes una situación similar y tu equipo ya se está topando con las limitaciones del pipeline estándar, yo analizaría todo el proceso. En Nahornyi AI Lab, precisamente montamos estas conexiones con cuidado: dónde se necesita un Codex nativo, dónde un circuito de razonamiento externo y dónde ya es hora de construir una automatización de IA sin estos apaños y con una estabilidad adecuada para el negocio.

Anteriormente cubrimos los desafíos arquitectónicos de la integración de IA, analizando específicamente el caso 'Codex 5.2' y distinguiendo la arquitectura de IA práctica de las meras demostraciones. Este contexto es crucial al considerar cómo construir y operar subagentes como el discutido en dichos entornos.

Compartir este articulo