Технічний контекст
Я люблю такі кейси не за вау-ефект, а за приземлену інженерію. Тут людина реально зібрала мультиагентну систему в Claude Code: є головний оркестратор, є проєктні агенти, є пряме спілкування з кожним і навіть можливість динамічно створювати чи видаляти нових.
Для AI automation це вже не іграшка. Це майже жива операційна система під завдання: дослідження, листування, бухгалтерія, чернетки листів, ведення проєктів, усе в одному контурі пам'яті та логів.
Що мене зачепило: це зроблено не через API, а переважно через підписку Claude Code, з обмеженням приблизно в 10 ітерацій. Валідація подекуди йде в Codex, подекуди підключаються Claude Code та Gemini як субагенти. Схема робоча, але відразу пахне стелею по лімітах, а якщо хтось спробує витягнути з підписки псевдо-API, там уже недалеко до порушення TOS.
Ще важливіше інше. В обговоренні спливло дуже правильне питання про метрики якості, і ось тут магія швидко закінчується. Якщо у вас 20, 30 або 50 агентів розмовляють між собою, це ще не означає, що у вас вийшла хороша artificial intelligence implementation. Без критеріїв зупинки, бюджету токенів та зрозумілих quality gates ви просто спалюєте контекст красиво і з ентузіазмом.
Показовий шматок з бенчмарків: decision-making skill спалив у півтора раза більше токенів і дав гірший результат, ніж агент без skills. А architecture-review skill дав приблизно x2 до якості за ті ж півтора раза токенів. Я б це переклав так: не кожен skill покращує систему, деякі лише додають церемоній та шуму.
І так, це чудово збігається з тим, що я бачу на практиці. Якщо агент погано ухвалює рішення про розбиття завдань, пріоритети та момент зупинки, мультиагентність починає жерти бюджет лінійно. А ось review-шар перед виконанням часто окупається дуже швидко, бо дешевше зловити поганий план, ніж потім розгрібати поганий код чи криву автоматизацію.
Вплив на бізнес та автоматизацію
Виграють команди, у яких багато паралельних когнітивних завдань: ресерч, рев'ю, комунікації, проєктний супровід. Там AI integration з оркестратором реально економить години та знижує ручне перемикання контексту.
Програють ті, хто думає, що більше агентів автоматично означає кращий результат. На рутинних завданнях один добре налаштований агент майже завжди дешевший і стабільніший, ніж «село» з ботів.
Я б закладав три правила: ліміт ітерацій, kill criteria для агентів, що застрягли, та окремий architecture-review перед виконанням. Саме такі вузькі місця ми й розбираємо у клієнтів в Nahornyi AI Lab, коли будуємо AI solutions for business без феєрверку із зайвих токенів.
Якщо у вас вже назрів хаос із чатів, завдань та ручних перевірок, можна зібрати нормальну AI automation під ваш процес без цього зоопарку. Напишіть, і ми з Vadym Nahornyi в Nahornyi AI Lab подивимося, де вам потрібен один сильний агент, а де справді варто будувати оркестратор.