Skip to main content
LLMфондовый рынокAI automation

LLM, Vagues d'Elliott et actualités : où est la valeur ?

L'idée est simple : les LLM ne transforment pas les Vagues d'Elliott en un algorithme de trading précis, mais ils améliorent l'analyse en ajoutant le contexte des actualités. C'est crucial pour l'implémentation de l'IA, car le modèle explique mieux les régimes de marché qu'il ne devine les points d'entrée.

Contexte technique

J'adore ce genre de discussions car elles font vite tomber le masque des attentes irréalistes. Pour être tout à fait honnête, les LLM ne vivent pas dans un monde d'algorithmes stricts, mais dans un monde de régularités statistiques. Et lorsque je conçois une intégration d'IA pour des tâches liées au marché, je pars toujours de cette limitation.

Le problème avec les Vagues d'Elliott est ancien : on peut toujours étiqueter un graphique magnifiquement a posteriori, mais en temps réel, c'est presque toujours discutable. On ne sait pas où une vague a commencé, quel schéma est actuellement actif et si la prochaine nouvelle ne va pas tout faire voler en éclats. Par conséquent, la théorie elle-même est utile comme langage de description, mais faible comme moteur de prédiction autonome.

Dans ce contexte, les LLM sont utiles, mais pas là où tout le monde l'imagine. Ils sont plutôt doués pour rassembler le contexte, proposer plusieurs hypothèses d'étiquetage, expliquer pourquoi un mouvement ressemble à une impulsion ou à une correction, et surtout, ils savent lier le graphique au texte. C'était technologiquement difficile il y a 13 ans, mais aujourd'hui, cela peut être assemblé dans un système fonctionnel.

J'ai regardé où la recherche se dirige réellement : schémas multi-agents, RAG sur l'analytique, une couche distincte pour les actualités et une autre pour l'action des prix. C'est une architecture saine. Si on mélange tout dans un même plat, le modèle commence à confondre la structure du graphique avec un récit attrayant tiré des gros titres.

C'est pourquoi je préfère cette approche : ne pas demander à un LLM un prix précis ou un point de retournement, mais le forcer à générer 2-3 scénarios plausibles, à souligner ce qui les confirme et à indiquer où chaque scénario s'invalide. Là, le modèle joue son propre jeu, au lieu de se faire passer pour un terminal Bloomberg magique.

Impact sur l'entreprise et l'automatisation

Pour la pratique, la conclusion est sévère : ceux qui construisent une couche d'aide à la décision, et non un « oracle du marché », gagneront. Les LLM peuvent être placés comme une surcouche de raisonnement au-dessus des indicateurs techniques, des actualités et des règles de risque. Cela ressemble déjà à une automatisation par IA utile, et non à un jouet coûteux.

Ceux qui attendent une garantie algorithmique d'un modèle statistique perdront. Si vous ne faites pas la distinction entre vos règles strictes et vos hypothèses probabilistes, le système se trompera avec assurance et cela coûtera très cher.

J'ajouterais un critère pratique de plus : une telle pile ne devrait jamais être déployée avec de l'argent réel sans tests walk-forward, contrôle du biais d'anticipation et validation séparée des signaux provenant des actualités par rapport à ceux du graphique. Chez Nahornyi AI Lab, nous résolvons précisément ces jonctions pour nos clients : où conserver le code déterministe, où ajouter un LLM, et comment construire des solutions d'IA pour les entreprises afin qu'elles ne s'effondrent pas au premier bruit de marché.

Si vous avez déjà un pipeline analytique mais qu'il est noyé sous les actualités, les hypothèses et l'étiquetage manuel, décomposons-le couche par couche. Chez Nahornyi AI Lab, je peux aider à construire une automatisation par IA où le modèle ne promet pas de magie, mais élimine réellement les tâches routinières, accélère l'analyse et ne laisse à l'humain que les décisions pour lesquelles il vaut la peine de se battre.

Les défis liés à l'application des LLM à des tâches complexes et non algorithmiques comme la prédiction des marchés soulignent le besoin d'une évaluation rigoureuse. Nous avons aussi exploré des méthodes pour mesurer la fiabilité d'un LLM-juge via des métriques IRT, assurant un contrôle qualité et réduisant les risques.

Partager cet article