Skip to main content
EBMreasoning AIAI research

Logical Intelligence Contrata para la Revolución EBM

Logical Intelligence busca un Investigador de IA para un equipo que construye IA de razonamiento con modelos basados en energía (EBM), no LLMs. Para los negocios, es una señal importante: la implementación de IA está pasando del texto bonito a sistemas donde se puede optimizar la corrección y la verificación formal.

Contexto Técnico

Esta noticia me llamó la atención no por los nombres famosos, sino por el stack tecnológico. Logical Intelligence está reuniendo investigadores para una IA de razonamiento basada en modelos de energía (EBM), es decir, completamente fuera del esquema habitual de predicción del siguiente token. Para quienes piensan seriamente en la implementación de IA, esto ya no es una excentricidad académica, sino una pista hacia una arquitectura de IA diferente para tareas donde un error cuesta caro.

Según la compañía, su enfoque se centra en la minimización de energía en el espacio latente: no predecir el siguiente token, sino optimizar toda la traza de razonamiento en su conjunto. Me gusta la mecánica. Si una solución es mala, el sistema no solo "sigue escribiendo", sino que puede ajustar iterativamente toda la trayectoria hacia un estado de menor energía.

Esto difiere drásticamente de cómo se obtiene hoy el razonamiento de los LLM mediante RL, largas cadenas de pensamiento y múltiples ciclos de generar-verificar-revisar. Funciona, no hay duda. Pero el costo computacional y la fragilidad del pipeline a menudo son tales que en producción se llega a compromisos muy desagradables.

Logical Intelligence da una fuerte señal de su ambición científica: en la órbita del proyecto figuran Yann LeCun como Founding Chair y Michael Freedman como Chief Mathematician, y buscan personas con publicaciones del nivel de ICLR, ICML, NeurIPS, CVPR. El perfil específico también es revelador: los EBM son la prioridad, pero también son bienvenidos expertos en difusión, razonamiento no autorregresivo, ajuste fino de LLM para razonamiento y MCMC en espacios latentes. Es decir, el equipo claramente no está construyendo un chatbot, sino un nuevo paradigma computacional.

Con los benchmarks sería cauteloso. Las cifras del 96% en sudokus complejos y 99.4% en PutnamBench suenan muy llamativas, pero según las fuentes públicas disponibles en abril de 2026, no veo una verificación independiente adecuada para ellas. El principio de EBRM se confirma, pero es mejor mantener los récords específicos en la carpeta de "interesante, pero a verificar manualmente".

Impacto en los Negocios y la Automatización

Si esta línea de desarrollo tiene éxito, ganarán los equipos para los que "parece correcto" no es suficiente. Hablo de verificación formal, código de seguridad crítica, automatización de cumplimiento normativo, auditorías financieras y cálculos de ingeniería. En estos campos, la automatización con IA no se topa con el UX, sino con la corrección demostrable.

Los que perderán, curiosamente, no serán los LLM, sino las arquitecturas perezosas que los rodean. Cuando todo el stack se basa en un costoso razonamiento autorregresivo y bucles interminables de autoverificación, cualquier alternativa con una optimización más barata y estable golpea la economía de inmediato.

No apostaría a que los EBM reemplazarán a los LLM en todas partes mañana. Pero como capa para verificación, razonamiento restringido y soluciones críticas de IA para empresas, ya parece algo serio. En Nahornyi AI Lab, analizamos precisamente estas encrucijadas en la práctica: dónde es suficiente un agente LLM y dónde es necesario construir una automatización de IA con énfasis en la verificabilidad, el costo del error y la fiabilidad real. Si sus procesos ya han chocado con estas limitaciones, podemos descomponer la arquitectura y construir una solución sin pensamiento mágico.

Compartir este articulo