Skip to main content
LLM-оценкаГаллюцинацииAI-архитектура

Bullshit-benchmark: cómo medir la alucinación "hermosa" de los LLM

El bullshit-benchmark ha aparecido en GitHub: una prueba simple que no detecta errores fácticos, sino el sinsentido que suena bien en las respuestas de los LLM. Esto es crítico para las empresas, ya que estas alucinaciones arruinan silenciosamente las analíticas, los flujos de trabajo y la automatización, generando enormes riesgos.

Contexto técnico

Revisé el repositorio petergpt/bullshit-benchmark y me gustó mucho el planteamiento del problema en sí: probar no el "dato incorrecto", sino la tendencia del modelo a continuar una conversación con seguridad cuando el prompt contiene un sinsentido interno. Este es un tipo de riesgo diferente al de los típicos benchmarks de alucinación para RAG, donde la respuesta puede verificarse fácilmente con una fuente.

La mecánica es sencilla: el conjunto de datos incluye una pregunta y un "elemento absurdo" claramente marcado (por ejemplo, "la elasticidad de la relación de aspecto del organigrama"). Básicamente, el modelo debe hacer una de dos cosas: o bien afirmar explícitamente que una parte de la solicitud es incorrecta y pedir aclaraciones, o reformular cuidadosamente la tarea en un formato con sentido. El fracaso ocurre cuando el modelo comienza a construir una pseudo-analítica basada en entidades inexistentes.

Me gusta especialmente que esta prueba no se pueda "ganar" solo con erudición. Lo que evalúa es la disciplina de la respuesta: la capacidad de detenerse, reconocer la incertidumbre y no generar basura convincente.

En los datos iniciales que me proporcionaron, hay una afirmación de que Gemini 3 Flash "falla espectacularmente" en esta prueba, mientras que Anthropic y Qwen parecen comportarse mejor. No puedo confirmar esto con cifras sin una ejecución reproducible y registros fijos, pero como ingeniero en arquitectura de IA veo por qué tal discrepancia es perfectamente posible: diferentes políticas de rechazo, distintas configuraciones de seguridad/calidad y diferentes penalizaciones para afirmaciones "audaces".

Impacto en los negocios y la automatización

Para una empresa, un "sinsentido que suena hermoso" es mucho más peligroso que un simple error fáctico. Un dato puede ser detectado mediante verificación o citas RAG, pero un marco de solicitud sin sentido puede colarse en un documento, una presentación o una especificación técnica, desatando una cascada de decisiones costosas.

En los proyectos de implementación de IA, a menudo veo este problema no en los chats, sino en los flujos de trabajo automatizados: generación de árboles de KPI, normalización de requisitos, auto-descripción de procesos y clasificación de tickets. Si un modelo no sabe "detenerse", inventará con seguridad definiciones, métricas y relaciones causales, y su automatización con IA comenzará a escalar el error.

¿Quién gana con estos benchmarks? Los equipos que construyen LLM como un componente del sistema, no como una mera "cabeza parlante". Los perdedores son aquellos que eligen un modelo únicamente en función del precio y la velocidad de los tokens, para luego preguntarse por qué sus informes son "inteligentes" pero inoperables.

En mi enfoque en Nahornyi AI Lab, esto influye directamente en las decisiones arquitectónicas: incorporo una capa obligatoria de "detección de sinsentidos" antes de las acciones críticas, establezco políticas de rechazo/escalado e incluyo un entorno de pruebas con este tipo de preguntas en el pipeline CI. El modelo no es la fuente de la verdad; es un componente que debe saber decir "no".

Visión estratégica y análisis profundo

Mi pronóstico: para 2026, el mercado comenzará a separar claramente los "LLM para generación" de los "LLM para control de procesos". Estos últimos no ganarán por ser lo más locuaces posible, sino por su previsibilidad: hacer preguntas aclaratorias correctas, marcar premisas inválidas y evitar falsos rigores.

Ya he visto un patrón: cuanto más cerca está un modelo de las decisiones operativas (planificación de compras, enrutamiento de solicitudes, respuestas de cumplimiento), más cara resulta una alucinación estructural en comparación con una fáctica. Una entidad absurda en una solicitud genera una tabla absurda, que luego se convierte en un panel de control absurdo y, finalmente, desencadena acciones reales por parte de las personas.

Por lo tanto, en la arquitectura de soluciones de IA que diseño, no me limito a "elegir un modelo". Diseño circuitos de control: (1) un validador de premisas de entrada, (2) limitaciones en el estilo de respuesta (más corto, menos "relleno"), (3) verificaciones de autoconsistencia y una nueva solicitud al usuario si se detecta un sinsentido, y (4) observabilidad: registro de los motivos de rechazo y de las clases de errores.

Si actualmente está comparando modelos para su implementación, añadiría el bullshit-benchmark (o un conjunto de datos similar) a sus pruebas de selección. Es una manera económica de ver de antemano cómo se comportará un agente en el entorno donde habitan la mayoría de los prompts reales de las empresas: en solicitudes semi-formales, contradictorias y mal definidas.

Qué propongo hacer en su empresa

Este análisis fue preparado por Vadym Nahornyi, un profesional líder en Nahornyi AI Lab especializado en la automatización con IA y la construcción de arquitectura de IA en el sector real. No vendo "chatbots por vender chatbots": construyo sistemas que reducen de forma medible el riesgo y el costo de los errores.

Si planea integrar LLM en sus procesos (atención al cliente, ventas, análisis, gestión de documentos, planificación), contácteme en Nahornyi AI Lab. Realizaré una auditoría rápida de sus escenarios, montaré un entorno de pruebas (que incluya la detección de sinsentidos) y le propondré una arquitectura de implementación con SLA claros, métricas de calidad y mecanismos de control.

Share this article