Skip to main content
LLMфондовый рынокAI automation

LLM, волны Эллиота и новости: где есть смысл

Идея простая: LLM не превращают волны Эллиота в точный торговый алгоритм, но могут резко усилить анализ, если добавить новостной контекст. Для AI implementation это важно, потому что модель лучше объясняет режим рынка, чем угадывает точку входа.

Технический контекст

Я люблю такие разговоры, потому что они быстро срывают маску с лишних ожиданий. Если совсем честно, LLM живут не в мире строгих алгоритмов, а в мире статистических закономерностей. И когда я проектирую AI integration для задач с рынком, я сразу исхожу из этого ограничения.

С волнами Эллиота проблема старая: постфактум разметить график можно красиво, а в моменте почти всегда спорно. Непонятно, где волна началась, какой паттерн сейчас активен и не сломает ли всё ближайшая новость. Поэтому сама теория удобна как язык описания, но слабовата как автономный двигатель прогноза.

На этом фоне LLM полезны не там, где все мечтают. Они неплохо собирают контекст, предлагают несколько гипотез разметки, объясняют, почему движение похоже на импульс или коррекцию, и главное, умеют связывать график с текстом. Именно это 13 лет назад было технологически тяжело, а сейчас уже можно собрать в рабочую систему.

Я посмотрел, куда реально двигаются исследования: multi-agent схемы, RAG по аналитике, отдельный слой для новостей и отдельный для price action. Это здравая архитектура. Если смешать всё в одну кашу, модель начинает путать структуру графика с красивым нарративом из заголовков.

Поэтому мне ближе такой подход: не просить у LLM точную цену или момент разворота, а заставить её выдать 2-3 правдоподобных сценария, отметить, что их подтверждает, и где каждый сценарий ломается. Вот тут модель уже играет в свою игру, а не изображает из себя магический терминал Bloomberg.

Влияние на бизнес и автоматизацию

Для практики вывод жёсткий: выиграют те, кто строит не «оракула рынка», а слой принятия решений. LLM можно ставить как reasoning-надстройку над техиндикаторами, новостями и правилами риска. Это уже похоже на полезную automation with AI, а не на дорогую игрушку.

Проиграют те, кто ждёт алгоритмической гарантии от статистической модели. Если не разделять, где у вас жёсткие правила, а где вероятностная гипотеза, система будет уверенно ошибаться и очень дорого.

Я бы ещё добавил один практический критерий: без walk-forward тестов, контроля look-ahead bias и раздельной проверки news vs chart сигналов такой стек вообще не стоит выпускать в деньги. Мы в Nahornyi AI Lab как раз решаем эти стыки для клиентов: где оставить детерминированный код, где добавить LLM, и как собрать AI solutions for business так, чтобы оно не развалилось на первом же рыночном шуме.

Если у вас уже есть аналитический пайплайн, но он тонет в новостях, гипотезах и ручной разметке, давайте разберём его по слоям. В Nahornyi AI Lab я могу помочь построить AI automation, где модель не обещает магию, а реально снимает рутину, ускоряет анализ и оставляет человеку только те решения, за которые стоит бороться.

Сложности применения LLM к неалгоритмическим задачам, таким как прогнозирование рынка, подчеркивают необходимость тщательной оценки. Мы также исследовали методы измерения надежности LLM-as-a-Judge с помощью метрик IRT, что помогает обеспечить контроль качества и снизить риски автоматизации в рабочих средах.

Поделиться статьёй