Skip to main content
claude-codeanthropicai-automation

Claude Code /btw: боковые вопросы без мусора в чате

В Claude Code появилась команда /btw для быстрых уточнений вне основного контекста. Для бизнеса это полезно тем, что длинные сессии меньше раздуваются, токены тратятся экономнее, а разработчики не ломают главный поток работы мелкими вопросами.

Технический контекст

Я люблю такие мелкие фичи сильнее больших анонсов. Команда /btw в Claude Code как раз из этой категории: не меняет весь рынок, но очень заметно чинит повседневную работу.

Суть простая. Я могу задать короткий уточняющий вопрос прямо во время основной задачи, и этот запрос не улетает в главный контекст сессии. История не пухнет, токены не сгорают на ерунде, а основной поток не засоряется служебными репликами.

По данным из документации и разборов сообщества, речь идет о Claude Code 2.1.72+ от 10 марта 2026 года. Внутри это работает как временный эпизодический агент в режиме read-only: он использует уже известный контекст сессии, но не пишет ответ обратно в основную ветку.

И тут как раз важная деталь: /btw нужно писать сразу вместе с вопросом. Формат вроде /btw что тут имелось в виду в этой функции?. Если вбить просто команду без продолжения, это не тот сценарий.

Мне понравилось, что ответ открывается отдельно, в боковой панели, и после закрытия не оставляет следов в основном диалоге. Для длинных coding-сессий это прямо подарок. Особенно когда я уже в глубоком контексте по проекту и не хочу портить его вопросом уровня «а какой тут был синтаксис у os.walk?»

Есть и ограничение: /btw не подтягивает новую внешнюю информацию и не запускает полноценные инструменты. Это не мини-ресерч и не замена сабагентам. Если мне нужно что-то добыть снаружи или выполнить отдельный рабочий проход, я бы пошел в subagents, а не сюда.

По цифрам Anthropic, насколько я вижу, официального жирного бенчмарка нет. Но в комьюнити уже крутится оценка, что на таких боковых уточнениях можно заметно резать стоимость длинных сессий, иногда вплоть до десятков процентов. Логика тут здравая: меньше мусора в истории — меньше повторной оплаты за этот мусор на следующих шагах.

Что это меняет в реальной работе

Я бы не продавал /btw как «революцию». Но для AI-архитектуры рабочих процессов это очень полезный кирпич. Когда команда постоянно работает с агентом в CLI, основная проблема часто не качество модели, а распухание контекста от мелких уточнений, самопроверок и боковых мыслей.

Вот здесь новая команда попадает прямо в боль. Основной тред остается чистым для кода, правок и последовательного выполнения задачи. А вся мелкая когнитивная пыль уезжает в side-channel.

Выигрывают в первую очередь разработчики, которые живут в долгих сессиях: рефакторинг, дебаг, миграции, сопровождение старых репозиториев. Там один неудачный поток уточнений быстро превращает хороший контекст в свалку. /btw эту свалку банально не создает.

Проигрывают только те, кто ожидал от команды полноценный параллельный ресерч. Тут магии нет. Если вопрос требует новых данных, доступа к инструментам или автономного прохода по задаче, нужен другой паттерн.

Я еще вижу здесь хороший сигнал для тех, кто строит ИИ автоматизацию вокруг разработки. Не все улучшения приходят в виде новой модели. Иногда реальную экономику дает именно механика работы с контекстом: где хранить состояние, что писать в историю, что выносить в эфемерный слой, как не платить повторно за случайный шум.

Мы в Nahornyi AI Lab постоянно упираемся в это при проектировании агентных сценариев под команды и продукты. Грамотное внедрение ИИ — это не только выбрать модель подешевле или поумнее. Это еще и правильно разложить память, роли, side-queries и границы между основным потоком и временными уточнениями.

Если коротко, /btw — маленькая команда с очень взрослой идеей внутри: контекст надо беречь. И чем длиннее ваши сессии, тем заметнее эффект.

Разбор сделал я, Вадим Нагорный из Nahornyi AI Lab. Я руками собираю и отлаживаю ИИ решения для бизнеса, где важны не красивые демо, а нормальная стоимость, предсказуемость и живая интеграция искусственного интеллекта в процессы.

Если хотите примерить такой подход на ваш стек, напишите мне — вместе посмотрим, где у вас утекают токены, как сделать ИИ автоматизацию аккуратнее и что реально стоит внедрять.

Поделиться статьёй