Skip to main content
Claude CodeмультиагентностьAI automation

Claude Code и 50 агентов: где польза, а где дым

Появился живой кейс, где через Claude Code собрали оркестрацию до 50 AI-агентов с главным координатором и разными моделями. Для бизнеса это важно из-за простой мысли: AI automation упирается не в число агентов, а в контроль итераций, токенов и качество отдельных skills.

Технический контекст

Я люблю такие кейсы не за вау-эффект, а за приземлённую инженерию. Тут человек реально собрал мультиагентную систему в Claude Code: есть главный оркестратор, есть проектные агенты, есть прямое общение с каждым и даже возможность динамически создавать или удалять новых.

Для AI automation это уже не игрушка. Это почти живая операционка под задачи: исследования, переписка, бухгалтерия, черновики писем, ведение проектов, всё в одном контуре памяти и логов.

Что меня зацепило: это сделано не через API, а в основном через подписку Claude Code, с ограничением примерно в 10 итераций. Валидация местами уходит в Codex, местами подключаются Claude Code и Gemini как субагенты. Схема рабочая, но сразу пахнет потолком по лимитам, а если кто-то попытается вытащить из подписки псевдо-API, там уже недалеко до нарушения TOS.

Ещё важнее другое. В обсуждении всплыл очень правильный вопрос про метрики качества, и вот тут магия быстро заканчивается. Если у вас 20, 30 или 50 агентов болтают между собой, это ещё не значит, что у вас получилось хорошее artificial intelligence implementation. Без критериев остановки, бюджета токенов и понятных quality gates вы просто сжигаете контекст красиво и с энтузиазмом.

Показательный кусок из бенчмарков: decision-making skill сжёг в полтора раза больше токенов и дал результат хуже, чем агент без skills. А architecture-review skill дал примерно x2 к качеству за те же полтора раза токенов. Я бы это перевёл так: не каждый skill улучшает систему, некоторые только добавляют церемоний и шум.

И да, это отлично бьётся с тем, что я вижу в практике. Если агент плохо принимает решения о разбиении задач, приоритетах и моменте остановки, мультиагентность начинает жрать бюджет линейно. А вот review-слой перед исполнением часто окупается очень быстро, потому что дешевле поймать плохой план, чем потом разгребать плохой код или кривую автоматизацию.

Влияние на бизнес и автоматизацию

Выигрывают команды, у которых много параллельных когнитивных задач: ресерч, ревью, коммуникации, проектное сопровождение. Там AI integration с оркестратором реально экономит часы и снижает ручное переключение контекста.

Проигрывают те, кто думает, что больше агентов автоматически значит лучше результат. На рутинных задачах один хорошо настроенный агент почти всегда дешевле и стабильнее, чем «деревня» из ботов.

Я бы закладывал три правила: лимит итераций, kill criteria для застрявших агентов и отдельный architecture-review перед исполнением. Именно такие узкие места мы и разбираем у клиентов в Nahornyi AI Lab, когда строим AI solutions for business без фейерверка из лишних токенов.

Если у вас уже назрел хаос из чатов, задач и ручных проверок, можно собрать нормальную AI automation под ваш процесс без этого зоопарка. Напишите, и мы с Vadym Nahornyi в Nahornyi AI Lab посмотрим, где вам нужен один сильный агент, а где действительно стоит строить оркестратор.

Ранее мы рассказывали, как параллельные агенты Claude Code могут эффективно использоваться для отлова race conditions в pull-реквестах. Этот кейс демонстрирует еще одно практическое применение развертывания нескольких экземпляров Claude Code для конкретных задач и оценки их производительности.

Поделиться статьёй