Что именно всплыло и почему я бы не спешил с выводами
Я посмотрел исходный тред и сам слив в Telegraph. Факт здесь один: пользователь показал фрагмент, который похож на внутренний Chain-of-Thought GPT-5.4, и в нём заметно зацикливание на maybe. Всё остальное пока гипотеза, а не установленный факт.
И вот тут начинается самое интересное. Официально подтверждённой информации, что у GPT-5.4 есть специальный паттерн maybe maybe maybe как часть обучения, на текущий момент нет. В публичных материалах OpenAI я такого не видел, а значит опираться на этот кусок как на твёрдое доказательство я бы не стал.
Но как инженер я бы не отмахивался. Такие утечки иногда показывают не «истину о модели», а артефакт конкретного режима декодирования, системного промпта, safety-обвязки или промежуточного reasoning trace, который вообще не должен был попасть наружу.
Что я вижу в этом с технической стороны
Я потыкал доступные описания GPT-5.4 Thinking mode и сравнил с похожими историями у других моделей. Картина выходит довольно приземлённая: модель умеет длиннее удерживать контекст, строить план ответа и пересобирать ход решения по пути. Это не магия, а просто более насыщенная оркестровка рассуждения.
Повторяющееся maybe я бы трактовал не как «модель сомневается по-человечески», а как след одного из внутренних регуляторов. Например:
- штраф за чрезмерную уверенность в промежуточных шагах;
- попытка держать несколько гипотез открытыми до верификации;
- сбой в выводе скрытого reasoning наружу без нормальной постобработки;
- артефакт safety-тюнинга, где модель учат не схлопывать неопределённость слишком рано.
Я уже видел похожие штуки в менее гламурном виде, когда собирал архитектуру ИИ-решений с многошаговой проверкой ответа. Если систему сильно штрафовать за ложную уверенность, она начинает «жевать» неопределённость. Иногда это выглядит умно. Иногда — как сломанный внутренний монолог.
Отдельно важно вот что: OpenAI как раз пишет о низкой controllability внутреннего reasoning у GPT-5.4. То есть модель не особенно умеет элегантно маскировать ход мыслей. Если так, то странные повторы в утечке могут быть не сигналом новой философии обучения, а просто сырой телеметрией мышления.
Что это меняет для бизнеса, а что — вообще нет
Для бизнеса сама утечка почти ничего не меняет. Нельзя строить стратегию на скриншоте из треда. Но она очень хорошо напоминает о другой вещи: скрытое reasoning модели и финальный ответ — это не одно и то же, и в проде их нельзя путать.
Если вы делаете ИИ автоматизацию в продажах, саппорте, внутреннем поиске или аналитике, вам не нужен доступ к внутренним мыслям модели. Вам нужна предсказуемость: стабильные ответы, валидация, логирование, fallback-сценарии и понятные границы уверенности. Иначе любое «maybe maybe maybe» однажды доедет до клиента уже в виде убытка.
Я в Nahornyi AI Lab обычно закладываю это на уровне пайплайна, а не надежды на одну умную модель. Проверка фактов отдельным шагом, маршрутизация сложных кейсов, ограничение на автономные действия, человеческий review там, где цена ошибки высока. Вот это и есть нормальное внедрение искусственного интеллекта, а не вера в магию CoT.
Кто выигрывает от таких моделей? Команды, которые умеют делать ИИ интеграцию как инженерную систему: с метриками, тестами и наблюдаемостью. Кто проигрывает? Те, кто берёт reasoning-модель и сразу сажает её принимать решения без страховки.
Этот разбор я написал сам, Вадим Нагорный из Nahornyi AI Lab. Я каждый день смотрю на такие штуки не как на новости, а как на детали реальной AI-архитектуры и разработки ИИ решений для бизнеса. Если хотите обсудить ваш кейс, где нужна аккуратная автоматизация с помощью ИИ без сюрпризов в проде — пишите, вместе разложим проект по слоям.