Skip to main content
Sakana AIFugu Betaмультиагентные системы

Fugu Beta: Sakana збирає ШІ у зграю

Sakana AI відкрила доступ до Fugu Beta, мультиагентної системи, що сама координує кілька передових моделей для складних завдань. Для бізнесу це крок до простішої AI-автоматизації: менше ручного з'єднання API, краща якість у задачах з кодом, математикою та дослідженнями. Це спрощує розробку потужних рішень.

Технічний контекст

Я подивився, що саме випустила Sakana AI, і це не просто «ще одна модель». Fugu Beta — це шар оркестрації над кількома потужними моделями, який сам вирішує, кого викликати, як розділити завдання та коли запускати повторне міркування. Для тих, хто будує AI automation, це цікавіше за новий скріншот з бенчмарку, бо проблема зазвичай не в одному LLM, а у з'єднанні кількох.

Зараз у них є дві версії: Fugu Mini для низької затримки та Fugu Ultra для максимальної якості. Згідно з описом, користувач отримує єдиний API замість ручного зоопарку з ключів, маршрутизації та саморобних workflow. Ось це місце мені сподобалося: Sakana продає не «магічний інтелект», а упакування складності в нормальний інтерфейс.

Під капотом ідея знайома, але доведена до рівня продукту. Fugu спирається на їхні дослідження Trinity та Conductor, а також на inference-time scaling через AB-MCTS. Простими словами, система не просто дає відповідь, а може зрозуміти, що перша спроба слабка, розгорнути розгалуження, викликати інші моделі та опрацювати завдання глибше.

Саме тут я б не ковтав маркетинг цілком. Публічних сирих даних по самій Fugu Beta поки що мало, а частина вражаючих результатів пов'язана зі спеціальними scaffold-підходами та комбінаціями на кшталт o4-mini, Gemini 2.5 Pro та DeepSeek R1. Але сам вектор сильний: не вирощувати одну гігантську модель, а збирати колективний інтелект з уже існуючих.

Що це змінює для бізнесу та автоматизації

Перший ефект очевидний: знижується поріг входу в складну AI integration. Якщо оркестрація справді працює, як обіцяно, командам не потрібно вручну проєктувати половину логіки, щоб отримати приріст у кодингу, аналізі та наукових задачах.

Другий момент стосується архітектури. Я все частіше бачу, що для клієнтів виграє не одна «найкраща» модель, а зв'язка зі швидкої, дешевої та однієї дорогої контрольної. Fugu якраз легалізує такий підхід у продуктовій формі.

Але програють ті, хто звик міряти все лише ціною токена однієї моделі. У мультиагентній схемі важливіша вартість вирішеного завдання, затримка під навантаженням та передбачуваність маршрутизації. На папері це виглядає красиво, а в продакшені випливають ліміти, таймаути та дивні каскади викликів.

Ми в Nahornyi AI Lab якраз розбираємо такі вузькі місця на практиці: де потрібна проста зв'язка моделей, а де вже час робити повноцінну AI solution development з маршрутизацією, контролем якості та ціною помилки. Якщо у вас накопичилися процеси, де один LLM вже впирається в стелю, можемо разом розкласти архітектуру та зібрати AI automation без зайвого цирку навколо API.

Пов'язана частина цієї дискусії — поява інших інноваційних моделей, що перебувають на ранніх стадіях. Наприклад, раніше ми аналізували Seedance 2.0 від ByteDance, яка також зараз у закритій бета-версії та ставить власні питання щодо життєздатності у продакшені та архітектурних рішень для впровадження ШІ.

Поділитися статтею