Skip to main content
openaichain-of-thoughtai-safety

GPT-5.4 засветила reasoning: баг или сигнал

Появился непроверенный слив внутреннего reasoning GPT-5.4, где модель циклично повторяет maybe. Подтверждения от OpenAI нет, но сам артефакт интересен: он намекает, как модели могут штрафовать за лишнюю уверенность и удерживать более осторожный ход рассуждений.

Что именно всплыло и почему я бы не спешил с выводами

Я посмотрел исходный тред и сам слив в Telegraph. Факт здесь один: пользователь показал фрагмент, который похож на внутренний Chain-of-Thought GPT-5.4, и в нём заметно зацикливание на maybe. Всё остальное пока гипотеза, а не установленный факт.

И вот тут начинается самое интересное. Официально подтверждённой информации, что у GPT-5.4 есть специальный паттерн maybe maybe maybe как часть обучения, на текущий момент нет. В публичных материалах OpenAI я такого не видел, а значит опираться на этот кусок как на твёрдое доказательство я бы не стал.

Но как инженер я бы не отмахивался. Такие утечки иногда показывают не «истину о модели», а артефакт конкретного режима декодирования, системного промпта, safety-обвязки или промежуточного reasoning trace, который вообще не должен был попасть наружу.

Что я вижу в этом с технической стороны

Я потыкал доступные описания GPT-5.4 Thinking mode и сравнил с похожими историями у других моделей. Картина выходит довольно приземлённая: модель умеет длиннее удерживать контекст, строить план ответа и пересобирать ход решения по пути. Это не магия, а просто более насыщенная оркестровка рассуждения.

Повторяющееся maybe я бы трактовал не как «модель сомневается по-человечески», а как след одного из внутренних регуляторов. Например:

  • штраф за чрезмерную уверенность в промежуточных шагах;
  • попытка держать несколько гипотез открытыми до верификации;
  • сбой в выводе скрытого reasoning наружу без нормальной постобработки;
  • артефакт safety-тюнинга, где модель учат не схлопывать неопределённость слишком рано.

Я уже видел похожие штуки в менее гламурном виде, когда собирал архитектуру ИИ-решений с многошаговой проверкой ответа. Если систему сильно штрафовать за ложную уверенность, она начинает «жевать» неопределённость. Иногда это выглядит умно. Иногда — как сломанный внутренний монолог.

Отдельно важно вот что: OpenAI как раз пишет о низкой controllability внутреннего reasoning у GPT-5.4. То есть модель не особенно умеет элегантно маскировать ход мыслей. Если так, то странные повторы в утечке могут быть не сигналом новой философии обучения, а просто сырой телеметрией мышления.

Что это меняет для бизнеса, а что — вообще нет

Для бизнеса сама утечка почти ничего не меняет. Нельзя строить стратегию на скриншоте из треда. Но она очень хорошо напоминает о другой вещи: скрытое reasoning модели и финальный ответ — это не одно и то же, и в проде их нельзя путать.

Если вы делаете ИИ автоматизацию в продажах, саппорте, внутреннем поиске или аналитике, вам не нужен доступ к внутренним мыслям модели. Вам нужна предсказуемость: стабильные ответы, валидация, логирование, fallback-сценарии и понятные границы уверенности. Иначе любое «maybe maybe maybe» однажды доедет до клиента уже в виде убытка.

Я в Nahornyi AI Lab обычно закладываю это на уровне пайплайна, а не надежды на одну умную модель. Проверка фактов отдельным шагом, маршрутизация сложных кейсов, ограничение на автономные действия, человеческий review там, где цена ошибки высока. Вот это и есть нормальное внедрение искусственного интеллекта, а не вера в магию CoT.

Кто выигрывает от таких моделей? Команды, которые умеют делать ИИ интеграцию как инженерную систему: с метриками, тестами и наблюдаемостью. Кто проигрывает? Те, кто берёт reasoning-модель и сразу сажает её принимать решения без страховки.

Этот разбор я написал сам, Вадим Нагорный из Nahornyi AI Lab. Я каждый день смотрю на такие штуки не как на новости, а как на детали реальной AI-архитектуры и разработки ИИ решений для бизнеса. Если хотите обсудить ваш кейс, где нужна аккуратная автоматизация с помощью ИИ без сюрпризов в проде — пишите, вместе разложим проект по слоям.

Поделиться статьёй