Skip to main content
LLMнаукаавтоматизация исследований

Tao describe con precisión dónde ayudan las LLM a la ciencia

En una entrevista, Terence Tao afirmó que las LLM aceleran significativamente las rutinas de investigación, pero no producen descubrimientos fundamentales. Es una señal crucial para empresas y laboratorios: la IA en I+D aumenta la capacidad y el alcance, pero no reemplaza el intelecto humano necesario para los verdaderos avances.

Contexto técnico

Me encantan estos momentos, cuando el "hype" choca de repente con una formulación muy sobria. En su conversación con Dwarkesh, Terence Tao básicamente dijo lo que yo veo en los proyectos de ingeniería: las LLM son excelentes para ampliar el perímetro de la investigación, pero no dan el principal salto intelectual por la persona.

Si traducimos esto al lenguaje de la automatización con IA, el panorama es muy claro. El modelo ayuda a profundizar en la literatura, a recopilar más referencias cruzadas, a escribir código para verificaciones numéricas más rápido, a crear gráficos y a formatear el material de una manera que antes nadie habría tenido tiempo de hacer.

Tao incluso lo formuló de manera casi perfecta: los artículos con IA se vuelven más ricos y amplios, pero no más profundos. Me gusta esta frase precisamente porque elimina la magia. La productividad aumenta, pero la fuente del descubrimiento sigue estando en la cabeza de una persona, a menudo con lápiz y papel.

Y aquí hay un detalle técnico importante que muchos pasan por alto. Las LLM funcionan bastante bien en tareas locales con un ciclo rápido: resumen, generación de código preliminar, búsqueda de ideas similares, formato, experimentos numéricos y exploración de variantes.

Pero cuando una tarea requiere una trayectoria acumulativa larga, el modelo empieza a tener dificultades. Tao señaló este problema con gran precisión: la IA no desarrolla habilidades a partir de un progreso parcial como lo hace un ser humano o un sólido equipo de investigación. Salta, se equivoca, vuelve a saltar, y el contexto y la evolución de la idea a menudo se desmoronan.

Yo añadiría por mi parte: incluso cuando formalmente existe un contexto largo, no equivale a un estado de investigación sostenible. El modelo carece de un mecanismo interno genuino de persistencia científica. No se aferra a una hipótesis durante semanas ni vive dentro del problema.

¿Qué cambia esto para los negocios y la automatización?

Aquí es donde empieza lo más interesante. Si usted es responsable de I+D, de un equipo de análisis o de la integración de la IA en el proceso de investigación, no debe venderse el cuento de hadas del "descubrimiento automático". El ROI actualmente se encuentra en otro lugar.

Se encuentra en la capacidad de procesamiento. Un solo equipo puede probar más hipótesis, revisar más literatura, descartar más rápidamente las líneas de investigación débiles, empaquetar los resultados con más cuidado y no desperdiciar las valiosas horas de los investigadores en trabajo mecánico.

Por eso, hablar de "LLMs como mano de obra científica barata" suena crudo, pero apunta a un cambio real. La gente ya está utilizando los modelos como una fuerza laboral de investigación ultrabarata: para generar variantes, ejecutar código, verificar formulaciones, crear gráficos adicionales, encontrar artículos relacionados y preparar una argumentación preliminar.

Ganan aquellos que tienen una fuerte verificación. Pierden los que confunden el volumen con la calidad y empiezan a medir el progreso por el número de hipótesis generadas.

Esto, por cierto, es casi un reflejo de lo que veo en los negocios fuera de la ciencia. En cuanto el coste de generar ideas y artefactos cae casi a cero, el cuello de botella se traslada a la verificación, el filtrado, la priorización y la responsabilidad de la decisión.

Precisamente por eso, yo construiría el desarrollo de soluciones de IA para equipos de investigación no en torno a un único "chatbot inteligente", sino en torno a un pipeline. Agentes separados para la búsqueda de literatura, otros para el código y los experimentos numéricos, otros para la normalización de notas, y por encima una capa de control de calidad y registro.

Sin esto, es muy fácil obtener una hermosa fábrica de pseudoconocimiento. Más documentos, gráficos más pulcros, tablas más largas, pero sin un aumento real de la comprensión.

En Nahornyi AI Lab, precisamente resolvemos este tipo de problemas para nuestros clientes: no nos limitamos a añadir una LLM, sino que construimos un proceso para que la automatización con IA realmente elimine la rutina y no diluya la disciplina científica o de producto. Si su equipo se ahoga en la verificación de hipótesis, revisiones, borradores y pasos de investigación repetitivos, analicemos su flujo de trabajo y construyamos una arquitectura de IA que acelere a las personas, en lugar de crear otra fuente de ruido.

Compartir este articulo