Skip to main content
LLMфондовый рынокAI automation

LLMs, Ondas de Elliott y Noticias: ¿Dónde está el Sentido?

La idea es simple: los LLM no convierten las Ondas de Elliott en un algoritmo de trading preciso, pero pueden potenciar el análisis al añadir contexto de noticias. Esto es clave para la implementación de IA, ya que el modelo explica mejor el estado del mercado que adivinar un punto de entrada.

Contexto técnico

Me encantan estas conversaciones porque rápidamente quitan la máscara de las expectativas poco realistas. Siendo totalmente honesto, los LLM no viven en el mundo de los algoritmos estrictos, sino en el mundo de las regularidades estadísticas. Y cuando diseño una integración de IA para tareas de mercado, parto de inmediato de esta limitación.

El problema con las Ondas de Elliott es antiguo: a posteriori, se puede etiquetar un gráfico de forma hermosa, pero en el momento es casi siempre discutible. No está claro dónde comenzó la onda, qué patrón está activo ahora y si la próxima noticia no lo arruinará todo. Por lo tanto, la teoría en sí es útil como lenguaje de descripción, pero débil como motor autónomo de pronóstico.

En este contexto, los LLM son útiles, pero no donde todos sueñan. Recopilan bien el contexto, proponen varias hipótesis de etiquetado, explican por qué un movimiento se parece a un impulso o una corrección y, lo más importante, saben cómo vincular el gráfico con el texto. Esto era tecnológicamente difícil hace 13 años, pero ahora se puede ensamblar en un sistema funcional.

He observado hacia dónde se dirigen realmente las investigaciones: esquemas multiagente, RAG sobre análisis, una capa separada para noticias y otra para la acción del precio. Esta es una arquitectura sensata. Si se mezcla todo en un solo guiso, el modelo comienza a confundir la estructura del gráfico con una bonita narrativa de los titulares.

Por eso prefiero este enfoque: no pedirle a un LLM el precio exacto o el momento de un giro, sino hacer que genere 2-3 escenarios plausibles, señale qué los confirma y dónde se rompe cada escenario. Aquí el modelo ya juega su propio juego, en lugar de hacerse pasar por un terminal mágico de Bloomberg.

Impacto en el negocio y la automatización

Para la práctica, la conclusión es dura: ganarán aquellos que construyan no un «oráculo del mercado», sino una capa de toma de decisiones. Los LLM se pueden colocar como una superestructura de razonamiento sobre indicadores técnicos, noticias y reglas de riesgo. Esto ya se parece a una automatización con IA útil, no a un juguete caro.

Perderán aquellos que esperan una garantía algorítmica de un modelo estadístico. Si no se distingue dónde tienes reglas estrictas y dónde una hipótesis probabilística, el sistema se equivocará con confianza y será muy caro.

Añadiría un criterio práctico más: sin pruebas walk-forward, control del sesgo de anticipación y una verificación separada de las señales de noticias frente a las de los gráficos, este tipo de sistema no debería usarse con dinero real. En Nahornyi AI Lab, precisamente resolvemos estas uniones para los clientes: dónde dejar el código determinista, dónde añadir un LLM y cómo construir soluciones de IA para empresas para que no se desmoronen con el primer ruido del mercado.

Si ya tienes un pipeline analítico pero se ahoga en noticias, hipótesis y etiquetado manual, vamos a desglosarlo por capas. En Nahornyi AI Lab puedo ayudar a construir una automatización con IA donde el modelo no promete magia, sino que realmente elimina la rutina, acelera el análisis y deja al ser humano solo las decisiones por las que vale la pena luchar.

Los desafíos de aplicar LLMs a tareas complejas y no algorítmicas como la predicción de mercados subrayan la necesidad de una evaluación rigurosa. También hemos explorado métodos para medir la fiabilidad de LLM-como-Juez usando métricas IRT, que ayudan a asegurar un control de calidad y reducir riesgos de automatización.

Compartir este articulo