Технический контекст
Я бы не назвал это «маленьким апдейтом». В Codex CLI 0.128.0 спрятали experimental-фичу /goal, и вот тут у меня сразу включился инженерный интерес: это уже не просто диалог с моделью, а зачаток нормального AI automation внутри кодового агента.
По факту нужно обновиться до 0.128.0 и отдельно включить фичу через codex features enable goals. В некоторых сборках это также заводится через config.toml, где поднимается флаг features.goals = true. Если фича не появилась, проблема обычно не в вас, а в том, что она еще сидит в experimental-слое.
После активации появляется команда /goal. Я смотрю на нее как на «долгоживущую задачу»: не разовый промпт, а цель, которую Codex тянет через несколько ходов, пока не добьет, не упрется в лимит или пока вы ее не поставите на паузу.
И это как раз похоже на тот самый Ralph loop-подход, о котором многие говорили: агент держит намерение, продолжает работу и не разваливается после каждого нового сообщения. Для AI integration в дев-процессы это куда важнее, чем очередная косметическая команда.
Судя по обсуждениям, рядом лежит еще пачка experimental-фич: artifact, chronicle, code_mode, memories, multi_agent_v2, plugin_hooks, remote_control, runtime_metrics, unified_exec и другие. Полного официального списка я пока не видел в нормальной документации, но сам вектор уже читается безошибочно.
Меня больше всего зацепили три вещи: goals, memories и multi_agent_v2. Если они нормально срастутся, Codex начнет вести длинные инженерные задачи не как один усталый ассистент, а как система с состоянием, подзадачами и распределением ролей.
Влияние на бизнес и автоматизацию
Для команд это означает простую вещь: часть задач можно будет отдавать не «на один ответ», а «на доведение до результата». Миграции, рефакторинг, разбор техдолга, подготовка PR, прогон по файлам, сверка конфигов, все это становится ближе к автономному исполнению.
Выиграют те, кто уже думает в терминах AI architecture, а не в терминах «дайте еще один чат». Проиграют те, кто воткнет фичу без контроля бюджета, прав доступа и логирования, потому что агент с целью и агент без ограничений это очень разные звери.
Мы у себя в Nahornyi AI Lab как раз решаем такие штуки для клиентов: не просто включаем экспериментальный флаг, а собираем безопасный контур, где automation with AI реально экономит часы, а не создает новые риски. Если у вас давно просятся в автоматизацию кодовые ревью, миграции или внутренние dev-workflows, можно спокойно разобрать это вместе и собрать AI solution development под ваш процесс, а не под красивую демку.