Технічний контекст
Я зачепився за цю новину не через гучні імена, а через сам стек. Logical Intelligence збирає дослідників під reasoning AI на energy-based models, тобто взагалі повз звичну схему next-token prediction. Для тих, хто думає про AI implementation всерйоз, це вже не академічна екзотика, а натяк на іншу AI architecture для завдань, де помилка дорого коштує.
За заявою компанії, їхній підхід будується навколо energy minimization у латентному просторі: не передбачати наступний токен, а оптимізувати весь trace міркувань цілком. Мені тут подобається сама механіка. Якщо рішення погане, система не просто «пише далі», а може ітеративно підтягувати всю траєкторію до стану з меншою енергією.
Це різко відрізняється від того, як сьогодні добувають reasoning з LLM через RL, довгі chain-of-thought та багаторазові цикли generate-check-revise. Працює, безперечно. Але ціна за обчисленнями та крихкість пайплайну там часто такі, що на проді починаються дуже неприємні компроміси.
У Logical Intelligence сильний сигнал щодо наукової амбіції: в орбіті проєкту фігурують Ян ЛеКун як Founding Chair та Майкл Фрідман як Chief Mathematician, а шукають людей з публікаціями рівня ICLR, ICML, NeurIPS, CVPR. Вузький профіль теж показовий: EBM у пріоритеті, але підходять diffusion, non-autoregressive reasoning, LLM fine-tuning for reasoning та MCMC у латентних просторах. Тобто команда явно будує не чат-бота, а нову обчислювальну парадигму.
З бенчмарками я був би обережним. Цифри про 96% на складних судоку та 99.4% на PutnamBench виглядають дуже гучно, але за доступними публічними джерелами на квітень 2026 я не бачу для них нормальної незалежної верифікації. Сам принцип EBRM підтверджується, а от конкретні рекорди поки що краще тримати в папці «цікаво, але перевіряємо руками».
Вплив на бізнес та автоматизацію
Якщо ця лінія злетить, виграють команди, яким замало «схоже на правду». Я говорю про формальну верифікацію, safety-critical код, комплаєнс-автоматику, фінансові перевірки, інженерні розрахунки. Там automation with AI впирається не в UX, а в доказову коректність.
Програють, як не дивно, не LLM, а ліниві архітектури навколо них. Коли весь стек тримається на дорогому autoregressive reasoning та нескінченних self-check loops, будь-яка альтернатива з дешевшою та стійкішою оптимізацією б'є по економіці відразу.
Я б не робив ставку, що EBM завтра замінять LLM всюди. Але як шар для верифікації, constrained reasoning та критичних AI solutions for business це вже виглядає серйозно. Ми в Nahornyi AI Lab якраз розбираємо такі розвилки на практиці: де вистачить LLM-агента, а де потрібно будувати AI automation з упором на перевірюваність, вартість помилки та реальну надійність. Якщо у вас процеси вже вперлися в ці обмеження, можна спокійно розкласти архітектуру та зібрати рішення без магічного мислення.