Skip to main content
EBMreasoning AIAI research

Logical Intelligence stellt für eine EBM-Revolution ein

Logical Intelligence sucht einen KI-Forscher für ein Team, das Reasoning-KI nicht auf LLMs, sondern auf energiebasierten Modellen (EBMs) aufbaut. Für Unternehmen ist dies ein wichtiges Signal: Die KI-Implementierung verlagert sich von gut klingendem Text hin zu Systemen, bei denen Korrektheit und formale Verifikation optimiert werden können, was entscheidend für kritische Anwendungen ist.

Technischer Kontext

Diese Nachricht ist mir nicht wegen großer Namen aufgefallen, sondern wegen des Tech-Stacks selbst. Logical Intelligence stellt Forscher für Reasoning-KI auf Basis von energiebasierten Modellen (EBMs) zusammen, was das bekannte Schema der Next-Token-Prediction komplett umgeht. Für diejenigen, die ernsthaft über die Implementierung von KI nachdenken, ist dies keine akademische Exotik mehr, sondern ein Hinweis auf eine andere KI-Architektur für Aufgaben, bei denen Fehler kostspielig sind.

Nach Angaben des Unternehmens basiert ihr Ansatz auf der Energieminimierung in einem latenten Raum: nicht das nächste Token vorhersagen, sondern die gesamte Argumentationskette als Ganzes optimieren. Mir gefällt hier die Mechanik. Wenn eine Lösung schlecht ist, schreibt das System nicht einfach „weiter“, sondern kann die gesamte Trajektorie iterativ in einen Zustand mit geringerer Energie ziehen.

Dies steht in scharfem Kontrast dazu, wie Reasoning derzeit aus LLMs durch RL, lange Chain-of-Thought-Prozesse und mehrfache Generate-Check-Revise-Zyklen extrahiert wird. Es funktioniert, keine Frage. Aber die Rechenkosten und die Fragilität der Pipeline sind oft so hoch, dass in der Produktion sehr unangenehme Kompromisse eingegangen werden müssen.

Logical Intelligence sendet ein starkes Signal bezüglich seiner wissenschaftlichen Ambitionen: Zum Projekt gehören Yann LeCun als Founding Chair und Michael Freedman als Chief Mathematician, und es werden Personen mit Veröffentlichungen auf dem Niveau von ICLR, ICML, NeurIPS und CVPR gesucht. Das enge Profil ist ebenfalls aufschlussreich: EBM hat Priorität, aber auch Diffusion, non-autoregressive Reasoning, LLM-Feinabstimmung für Reasoning und MCMC in latenten Räumen sind geeignet. Das Team baut also eindeutig ein neues Rechenparadigma, keinen Chatbot.

Bei den Benchmarks wäre ich vorsichtig. Die Zahlen von 96 % bei komplexen Sudokus und 99,4 % bei PutnamBench klingen sehr beeindruckend, aber nach öffentlich zugänglichen Quellen vom April 2026 sehe ich keine ordnungsgemäße unabhängige Verifizierung dafür. Das Prinzip des EBRM selbst ist bestätigt, aber spezifische Rekorde sollten vorerst im Ordner „interessant, aber manuell zu überprüfen“ bleiben.

Auswirkungen auf Wirtschaft und Automatisierung

Sollte dieser Ansatz Erfolg haben, werden die Teams gewinnen, denen „sieht plausibel aus“ nicht ausreicht. Ich spreche von formaler Verifikation, sicherheitskritischem Code, Compliance-Automatisierung, Finanzprüfungen und Ingenieurberechnungen. In diesen Bereichen scheitert die Automatisierung mit KI nicht an der UX, sondern an der nachweisbaren Korrektheit.

Die Verlierer werden seltsamerweise nicht die LLMs sein, sondern die trägen Architekturen, die um sie herum gebaut sind. Wenn der gesamte Stack auf teurem autoregressivem Reasoning und endlosen Selbstüberprüfungsschleifen beruht, trifft jede Alternative mit einer günstigeren und stabileren Optimierung die Wirtschaft sofort.

Ich würde nicht darauf wetten, dass EBMs morgen überall die LLMs ersetzen werden. Aber als Schicht für Verifikation, eingeschränktes Reasoning und kritische KI-Lösungen für Unternehmen sieht es bereits ernst aus. Im Nahornyi AI Lab analysieren wir solche Weggabelungen in der Praxis: Wo ein LLM-Agent ausreicht und wo KI-Automatisierung mit Schwerpunkt auf Überprüfbarkeit, Fehlerkosten und echter Zuverlässigkeit aufgebaut werden muss. Wenn Ihre Prozesse bereits an diese Grenzen gestoßen sind, können wir die Architektur in Ruhe zerlegen und eine Lösung ohne magisches Denken entwickeln.

Diesen Artikel teilen