Технічний контекст
Я подивився, що саме випустила Sakana AI, і це не просто «ще одна модель». Fugu Beta — це шар оркестрації над кількома потужними моделями, який сам вирішує, кого викликати, як розділити завдання та коли запускати повторне міркування. Для тих, хто будує AI automation, це цікавіше за новий скріншот з бенчмарку, бо проблема зазвичай не в одному LLM, а у з'єднанні кількох.
Зараз у них є дві версії: Fugu Mini для низької затримки та Fugu Ultra для максимальної якості. Згідно з описом, користувач отримує єдиний API замість ручного зоопарку з ключів, маршрутизації та саморобних workflow. Ось це місце мені сподобалося: Sakana продає не «магічний інтелект», а упакування складності в нормальний інтерфейс.
Під капотом ідея знайома, але доведена до рівня продукту. Fugu спирається на їхні дослідження Trinity та Conductor, а також на inference-time scaling через AB-MCTS. Простими словами, система не просто дає відповідь, а може зрозуміти, що перша спроба слабка, розгорнути розгалуження, викликати інші моделі та опрацювати завдання глибше.
Саме тут я б не ковтав маркетинг цілком. Публічних сирих даних по самій Fugu Beta поки що мало, а частина вражаючих результатів пов'язана зі спеціальними scaffold-підходами та комбінаціями на кшталт o4-mini, Gemini 2.5 Pro та DeepSeek R1. Але сам вектор сильний: не вирощувати одну гігантську модель, а збирати колективний інтелект з уже існуючих.
Що це змінює для бізнесу та автоматизації
Перший ефект очевидний: знижується поріг входу в складну AI integration. Якщо оркестрація справді працює, як обіцяно, командам не потрібно вручну проєктувати половину логіки, щоб отримати приріст у кодингу, аналізі та наукових задачах.
Другий момент стосується архітектури. Я все частіше бачу, що для клієнтів виграє не одна «найкраща» модель, а зв'язка зі швидкої, дешевої та однієї дорогої контрольної. Fugu якраз легалізує такий підхід у продуктовій формі.
Але програють ті, хто звик міряти все лише ціною токена однієї моделі. У мультиагентній схемі важливіша вартість вирішеного завдання, затримка під навантаженням та передбачуваність маршрутизації. На папері це виглядає красиво, а в продакшені випливають ліміти, таймаути та дивні каскади викликів.
Ми в Nahornyi AI Lab якраз розбираємо такі вузькі місця на практиці: де потрібна проста зв'язка моделей, а де вже час робити повноцінну AI solution development з маршрутизацією, контролем якості та ціною помилки. Якщо у вас накопичилися процеси, де один LLM вже впирається в стелю, можемо разом розкласти архітектуру та зібрати AI automation без зайвого цирку навколо API.