Lo que vi en el lanzamiento de Opus 4.5
Me encantan estos lanzamientos no por los eslóganes bonitos, sino por el momento en que las especificaciones coinciden de repente con la reacción de la gente. Este es precisamente el caso: los usuarios comentan que el cambio a Claude Opus 4.5 se siente como un salto cualitativo, y parece ser cierto. No a nivel de «formula un poco mejor», sino a nivel de «el modelo empieza a manejar una clase de tareas donde antes tenías que intervenir manualmente».
Si miramos la fuente original, Anthropic lanzó Claude Opus 4.5 el 24 de noviembre de 2025. Así que la noticia ya no es reciente en términos de calendario. Pero, en realidad, es una buena ocasión para una retrospectiva: el mercado apenas está asimilando qué ha cambiado exactamente y por qué se habla tanto del modelo meses después.
Me puse a investigar los detalles oficiales y esto es lo que llama la atención. El modelo está disponible a través de la API como claude-opus-4-5-20251101, y también en AWS, GCP y Azure. El precio es de $5 por millón de tokens de entrada y $25 por millón de salida, lo que para el nivel de Opus resulta notablemente menos doloroso que antes.
Pero el precio no es lo principal aquí. Es mucho más interesante que Anthropic se centre en la programación, los escenarios con agentes y el uso de ordenadores (computer use). Además, anuncian mejoras en visión, razonamiento, matemáticas, investigación profunda, trabajo con diapositivas y tablas, y también en la resistencia a la inyección de prompts. Y esta combinación ya no cambia solo un benchmark, sino el comportamiento del modelo en pipelines reales.
Me llamó la atención especialmente la historia sobre el pensamiento extendido (extended thinking) y la gestión del esfuerzo del modelo. Cuando una LLM mantiene mejor el contexto, trabaja con él de forma más compacta y no se desmorona ante tareas ambiguas, esto impacta directamente en su valor práctico. No en el sentido de «vaya, es más inteligente», sino en el de «menos 'pegamento' necesario en la capa de orquestación».
¿Qué cambia esto para la automatización con IA?
Yo lo formularía así: Opus 4.5 eleva el listón donde antes era necesario montar arquitecturas de IA complejas solo para compensar las debilidades del modelo. Más sensatez en el código, mejor manejo de los compromisos, menos supervisión manual. Para los equipos que se dedican a la automatización con IA, esto supone un ahorro muy concreto en soluciones improvisadas.
Ganan aquellos que tienen tareas con un horizonte de acción largo. Un agente que utiliza herramientas, escribe código, analiza tablas, se autoverifica y no se colapsa ante cada ambigüedad, finalmente se convierte no en un juguete de demostración, sino en un nodo funcional del sistema. Esto es especialmente notable en el desarrollo de soluciones de IA para operaciones internas, soporte de segundo nivel, pipelines de investigación y automatización de análisis.
Pierden, curiosamente, no los competidores, sino las implementaciones ingenuas. Si alguien pensaba que ahora bastaba con conectar un modelo potente a una API para obtener magia, pues no. Cuanto más potente es el modelo, más costosos se vuelven los errores de arquitectura: contratos de herramientas deficientes, memoria con fugas, falta de validación, control de gastos débil. Lo veo constantemente cuando reviso las implementaciones de otros.
En Nahornyi AI Lab trabajamos directamente con estas historias, y el patrón se repite. Un Claude potente por sí solo no reemplaza una integración adecuada de la inteligencia artificial en los procesos. Sin embargo, con una configuración competente, permite simplificar las cadenas, eliminar parte de los clasificadores intermedios y hacer que la implementación de la IA sea más predecible en cuanto a calidad.
Hay otro efecto, sutil pero importante. Cuando un modelo es realmente mejor manejando la ambigüedad y los trade-offs, el negocio puede automatizar no solo las operaciones estrictamente formalizadas, sino también la zona gris entre ellas. Y es ahí donde suele residir el verdadero valor.
Este análisis lo he escrito yo, Vadym Nahornyi, de Nahornyi AI Lab. No colecciono comunicados de prensa; construyo sistemas de IA que funcionan, pruebo escenarios con agentes y observo dónde un modelo genera dinero y dónde simplemente hace ruido. Si quieres hablar sobre tu proyecto, la implementación de inteligencia artificial o el rediseño de tu arquitectura de IA actual, escríbeme y juntos veremos qué tiene sentido lanzar para ti ahora mismo.