Skip to main content
Claude CodeмультиагентностьAI automation

Claude Code та 50 агентів: де користь, а де дим

З'явився реальний кейс, де через Claude Code зібрали оркестрацію до 50 AI-агентів з головним координатором та різними моделями. Для бізнесу це важливо через просту думку: успіх AI automation залежить не від кількості агентів, а від контролю ітерацій, токенів та якості окремих навичок.

Технічний контекст

Я люблю такі кейси не за вау-ефект, а за приземлену інженерію. Тут людина реально зібрала мультиагентну систему в Claude Code: є головний оркестратор, є проєктні агенти, є пряме спілкування з кожним і навіть можливість динамічно створювати чи видаляти нових.

Для AI automation це вже не іграшка. Це майже жива операційна система під завдання: дослідження, листування, бухгалтерія, чернетки листів, ведення проєктів, усе в одному контурі пам'яті та логів.

Що мене зачепило: це зроблено не через API, а переважно через підписку Claude Code, з обмеженням приблизно в 10 ітерацій. Валідація подекуди йде в Codex, подекуди підключаються Claude Code та Gemini як субагенти. Схема робоча, але відразу пахне стелею по лімітах, а якщо хтось спробує витягнути з підписки псевдо-API, там уже недалеко до порушення TOS.

Ще важливіше інше. В обговоренні спливло дуже правильне питання про метрики якості, і ось тут магія швидко закінчується. Якщо у вас 20, 30 або 50 агентів розмовляють між собою, це ще не означає, що у вас вийшла хороша artificial intelligence implementation. Без критеріїв зупинки, бюджету токенів та зрозумілих quality gates ви просто спалюєте контекст красиво і з ентузіазмом.

Показовий шматок з бенчмарків: decision-making skill спалив у півтора раза більше токенів і дав гірший результат, ніж агент без skills. А architecture-review skill дав приблизно x2 до якості за ті ж півтора раза токенів. Я б це переклав так: не кожен skill покращує систему, деякі лише додають церемоній та шуму.

І так, це чудово збігається з тим, що я бачу на практиці. Якщо агент погано ухвалює рішення про розбиття завдань, пріоритети та момент зупинки, мультиагентність починає жерти бюджет лінійно. А ось review-шар перед виконанням часто окупається дуже швидко, бо дешевше зловити поганий план, ніж потім розгрібати поганий код чи криву автоматизацію.

Вплив на бізнес та автоматизацію

Виграють команди, у яких багато паралельних когнітивних завдань: ресерч, рев'ю, комунікації, проєктний супровід. Там AI integration з оркестратором реально економить години та знижує ручне перемикання контексту.

Програють ті, хто думає, що більше агентів автоматично означає кращий результат. На рутинних завданнях один добре налаштований агент майже завжди дешевший і стабільніший, ніж «село» з ботів.

Я б закладав три правила: ліміт ітерацій, kill criteria для агентів, що застрягли, та окремий architecture-review перед виконанням. Саме такі вузькі місця ми й розбираємо у клієнтів в Nahornyi AI Lab, коли будуємо AI solutions for business без феєрверку із зайвих токенів.

Якщо у вас вже назрів хаос із чатів, завдань та ручних перевірок, можна зібрати нормальну AI automation під ваш процес без цього зоопарку. Напишіть, і ми з Vadym Nahornyi в Nahornyi AI Lab подивимося, де вам потрібен один сильний агент, а де справді варто будувати оркестратор.

Раніше ми писали, як паралельні агенти Claude Code можна ефективно використовувати для виявлення race conditions у pull-реквестах. Цей кейс демонструє ще одне практичне застосування розгортання кількох екземплярів Claude Code для конкретних завдань та оцінки їхньої продуктивності.

Поділитися статтею