Skip to main content
Claude CodeAnthropicAI automation

Claude Code тормозит? Похоже, дело в Superpowers

Пользователи Claude Code массово замечают замедление после установки Superpowers. Сложные навыки раздувают контекст, а агентные цепочки потребляют время и токены. Для AI automation это критично, так как сложная оркестрация снижает скорость, увеличивает стоимость и ухудшает предсказуемость внедрения.

Технический контекст

Я бы здесь не искал магию. Когда в Claude Code поверх обычного /plan включают Superpowers с цепочкой вроде brainstorming, writing-plans и subagent-driven-development, я почти сразу жду оверхед. Для AI automation это типичная ловушка: кажется, что я добавил «умные режимы», а по факту раздуваю контекст и количество внутренних шагов.

По пользовательским сообщениям картина повторяется: задача маленькая, изменений на несколько коммитов, сессия свежая, а агент копает почти час. На Opus 4.7 xhigh это особенно раздражает, потому что ожидание не соответствует масштабу работы.

Я покопался в механике Superpowers, и там все логично: плагин навешивает дисциплину через планы, TDD-циклы, подагентов, ревью и чекпоинты. На бумаге красиво. На практике каждый такой слой добавляет инструкции, промежуточные артефакты и новые проходы по контексту.

Отсюда и ощущение, что Claude Code «стал медленнее с каждым днем». Не факт, что это троттлинг. Официальных подтверждений про искусственные задержки для Enterprise я не видел. Зато гипотеза про токеновый жир выглядит очень земной: чем больше обвязки, тем больше модель читает саму себя вместо кода.

Еще один интересный сигнал из обсуждений: люди сносят Superpowers и возвращаются к дефолтному /plan. Это показательно. Если удаление одного skill-пакета заметно ускоряет работу, значит проблема не в одной конкретной модели, а в архитектуре промпт-оркестрации вокруг нее.

Влияние на бизнес и автоматизацию

Для бизнеса вывод у меня простой: не всякая агентная надстройка полезна в проде. Если AI implementation упирается в многоступенчатую «умность», вы платите не за результат, а за ритуалы, которые модель исполняет внутри сессии.

Выигрывают команды, которым важнее строгость процесса, тестовое покрытие и формальная дисциплина. Проигрывают те, кому нужна быстрая AI integration в реальные пайплайны разработки, саппорта или внутренней автоматизации без лишнего токенового шума.

Я бы проверял это очень приземленно: один и тот же таск с Superpowers и без него, фиксируя время, токены и число итераций. Мы в Nahornyi AI Lab ровно на таких сравнениях и строим AI solutions architecture для клиентов, потому что красивая агентная схема без замера быстро превращается в дорогую иллюзию.

Если у вас Claude Code уже начал тормозить и команда теряет часы на ожидании, не надо гадать про заговоры подписок. Лучше разобрать ваш контур по шагам: где контекст пухнет, где плагин мешает, и как собрать automation with AI без лишнего оверхеда. Если хотите, я в Nahornyi AI Lab помогу это быстро разложить и собрать рабочую схему под ваш процесс.

Описанные здесь проблемы с производительностью и лимитами перекликаются с более широкими дискуссиями об оптимизации рабочих процессов с ИИ. Например, мы ранее исследовали, как параллельные агенты Claude Code могут эффективно использоваться для обнаружения состояний гонки в pull-запросах, что подчеркивает практические стратегии снижения рисков CI/CD и управления операционными расходами с моделью Sonnet.

Поделиться статьёй