Skip to main content
LLM BenchmarkingAI SafetyAI Automation

Bullshit Benchmark: як вимірювати «здоровий глузд» LLM у бізнесі

Вийшов Bullshit Benchmark — практичний тест, що вимірює, чи вміє LLM розпізнавати хибні передумови в запитах і давати відсіч, замість впевненої генерації нісенітниць. Для бізнесу це критично: метрика відображає ризик прихованих помилок в автоматизації та прийнятті важливих рішень.

Технічний контекст: що саме вимірює Bullshit Benchmark

Я переглянув репозиторій petergpt/bullshit-benchmark і мені сподобалося, що він не намагається «оцінювати знання». Він перевіряє інше: чи здатна модель зупинитися, коли в промпті прихована неправильна передумова, і прямо сказати, що питання безглузде або некоректне.

У практичній експлуатації це саме та точка, де народжуються дорогі помилки: модель звучить впевнено, логічно, але продовжує розмову на завідомо хибному підґрунті. І далі ця «красиво запакована брехня» їде у звіти, листи клієнту, тікети або рішення оператора.

Механіка бенчмарку проста і тому корисна. У лідерборді/експлорері відповіді розкладаються за кольорами: Green — явний пушбек (модель відмовляється і пояснює, що передумова зламана), Amber — частковий сумнів (задає уточнення, але може продовжити), Red — приймає абсурд і впевнено «несе далі», плюс Error для технічних збоїв.

Я окремо відзначаю формат з інтерактивним переглядом кейсів: можна порівнювати відповіді пліч-о-пліч, фільтрувати за організаціями (Anthropic, Alibaba/Qwen, Google), доменами та «суддями». Це робить інструмент придатним для інженерної перевірки перед продом, а не тільки для красивих графіків.

Зараз навколо результатів багато емоцій (наприклад, теза, що Gemini 3 Flash «показово фейлиться», а Anthropic і Qwen «паряться»). Але я б не перетворював це на вирок без зафіксованих цифр, які можна експортувати, і стабільного зрізу: експлорер живий, а висновки залежать від набору питань, фільтрів та інтерпретації amber-зони.

Вплив на бізнес та автоматизацію: де метрика реально змінює архітектуру

Для мене Bullshit Benchmark — це не «про якість чату». Це про контроль ризику в сценаріях, де LLM підключена до процесу: робить резюме інциденту, формує відповідь клієнту, заповнює CRM, пише інструкцію техніку на зміні.

Якщо модель часто йде в Red, то будь-яка ШІ автоматизація перетворюється на генератор правдоподібних дефектів. Їх складно виявити, тому що текст виглядає переконливо, а помилка не завжди проявляється миттєво — вона накопичується в даних і рішеннях.

Хто виграє від появи такого бенчмарку? Команди, які будують продуктові пайплайни і хочуть вимірювати не «середню точність», а поведінку при некоректному введенні. Програють ті, хто обирає модель за ціною/швидкістю і вірить, що guardrails «потім прикрутимо».

У наших проєктах в Nahornyi AI Lab я використовую подібні тести як обов'язковий етап перед запуском: ми проганяємо набори «зламаних передумов» з конкретного домену клієнта (логістика, виробництво, підтримка), а потім прив'язуємо результати до політики маршрутизації. Це і є практична архітектура ШІ-рішень: не одна модель «на все», а керований контур із правилами.

Стратегія та глибокий розбір: як я б впроваджував цю метрику в контур якості

Мій неочевидний висновок такий: Bullshit Benchmark найбільш корисний не як рейтинг «хто кращий», а як інструмент проєктування поведінкового SLA. Бізнесу потрібна відповідь на питання: «З якою ймовірністю модель зупиниться, коли введення некоректне?» — а не тільки «наскільки вона розумна».

Я б вбудовував подібний тест у CI/CD для LLM: при зміні моделі, версії, промпта або системних інструкцій проганяти регресію на nonsense-наборі. Якщо частка Red зростає — реліз блокується, навіть якщо інші метрики (швидкість, токени, “helpfulness”) покращилися.

Другий шар — операційна інтеграція ШІ. Я часто бачу, що «галюцинації» виникають на стиках: RAG повернув сміттєвий фрагмент, інструмент видав порожню відповідь, у даних немає ключового поля. Тому я закладаю в AI-архітектуру явні тригери на пушбек: якщо вхідні передумови не підтверджені даними, модель має не «додумувати», а запитувати підтвердження або ескалювати на людину.

І третє: amber-зона. Багато компаній недооцінюють її, а я вважаю її вирішальною для UX та економіки. Amber — це місце, де можна дисциплінувати модель правильними питаннями, шаблонами уточнень і схемою «підтверди/скасуй», різко знижуючи Red без зростання відмов.

Цей розбір підготував Вадим Нагорний — провідний експерт Nahornyi AI Lab з AI-архітектури, впровадження ШІ та автоматизації на базі LLM. Я пропоную обговорити ваш кейс: підберу метрики (включаючи bullshit/pushback), зберу тестовий контур і покажу, як перетворити якість моделі на керований показник, а не на лотерею. Напишіть мені — почнемо з короткого аудиту процесів та даних.

Share this article