Contexto técnico
He investigado lo que se está discutiendo sobre OpenAI y Claude porque, para la implementación de IA, estos temas pasan rápidamente de ser memes a facturas de infraestructura. Y aquí es donde me detuve: se habla mucho de «x2 tokens», pero hay notablemente menos hechos confirmados.
En cuanto a OpenAI, lo que veo hoy es diferente: ChatGPT Pro por $100 tiene una lógica promocional temporal para Codex hasta el 31 de mayo de 2026. No se trata de una duplicación universal de todo, sino de un límite significativamente ampliado específicamente para escenarios de codificación, que debería volver a la normalidad después de la promoción. De ahí la sensación de algunos de que los límites «casi han desaparecido».
Con Claude, la situación no es nada generosa. Lo que veo en los datos públicos se parece más a una reducción en las horas punta y un consumo más agresivo, especialmente para quienes usan Claude Code todo el día. Además, tienen planes Max 5x por $100 y Max 20x por $200, pero la mecánica de consumo se ha vuelto menos agradable que a principios de año.
Ahora, el punto principal donde todos se confunden. Cuando la gente dice «se ha vuelto más barato», a menudo mezclan tres capas diferentes: los límites de la suscripción, la economía de la API y la sensación subjetiva de velocidad. Si un modelo responde más rápido, puedes agotar tu límite semanal más rápido, y eso no es un descuento, es simplemente una capacidad de procesamiento diferente.
También creo en los informes sobre el alto consumo del trabajo multisesión. Si tienes un orquestador y 20-30 subagentes, como en los pipelines reales, los límites se agotan de forma no lineal, casi imperceptiblemente rápido. Lo veo en los escenarios de los clientes: un solo agente «inteligente» parece barato, pero una integración de IA adecuada con ramas paralelas ya requiere un cálculo frío.
¿Qué cambia esto para las empresas y la automatización?
Ganan los equipos que programan mucho, prueban hipótesis y mantienen un ciclo corto de «idea -> ejecución -> corrección». Para ellos, el impulso actual de OpenAI puede realmente abaratar temporalmente el desarrollo y acelerar la automatización con IA.
Pierden aquellos que solo miran el precio del plan. Si la arquitectura está basada en agentes, con ejecuciones largas, navegación y muchas llamadas paralelas, la suscripción mensual deja de ser una unidad de presupuesto comprensible.
Yo no basaría ahora los procesos en la sensación de que «los tokens son casi gratis». Los basaría en mediciones: dónde usar suscripción, dónde API, dónde caché, dónde un modo rápido y dónde es solo una bonita ilusión de velocidad.
Si estás empezando a tener esta confusión con límites, agentes y facturas, podemos analizar juntos tu stack. En Nahornyi AI Lab, precisamente creamos soluciones de IA para empresas para que la automatización con IA no solo parezca barata en una captura de pantalla, sino que realmente funcione en producción y dentro del presupuesto.