Skip to main content
Sakana AIFugu Betaмультиагентные системы

Fugu Beta: Sakana собирает ИИ в стаю

Sakana AI открыла доступ к Fugu Beta, мультиагентной системе, которая сама координирует несколько frontier-моделей под сложные задачи. Для бизнеса это важно как шаг к более простой AI automation: меньше ручной склейки API, лучше качество на коде, математике и исследовательских задачах.

Технический контекст

Я посмотрел, что именно выкатила Sakana AI, и тут не очередная «ещё одна модель». Fugu Beta это слой оркестрации над несколькими сильными моделями, который сам решает, кого звать, как делить задачу и когда запускать повторное рассуждение. Для тех, кто строит AI automation, это интереснее нового benchmark-скрина, потому что боль обычно не в одном LLM, а в склейке нескольких.

Сейчас у них две версии: Fugu Mini для низкой задержки и Fugu Ultra для максимального качества. По описанию, пользователь получает единый API вместо ручного зоопарка из ключей, роутинга и кустарных workflow. Вот это место мне понравилось: Sakana продаёт не «магический интеллект», а упаковку сложности в нормальный интерфейс.

Под капотом идея знакомая, но доведённая до продукта. Fugu опирается на их исследования Trinity и Conductor, плюс на inference-time scaling через AB-MCTS. Если говорить по-человечески, система не просто отвечает, а может понять, что первый заход слабый, развернуть ветвление, позвать другие модели и прогнать задачу глубже.

Именно здесь я бы не проглатывал маркетинг целиком. Публичных сырых таблиц по самой Fugu Beta пока мало, а часть впечатляющих результатов завязана на специальных scaffold-подходах и комбинациях вроде o4-mini, Gemini 2.5 Pro и DeepSeek R1. Но сам вектор сильный: не растить одну гигантскую модель, а собирать коллективный интеллект из уже существующих.

Что это меняет для бизнеса и автоматизации

Первый эффект очевиден: снижается цена входа в сложную AI integration. Если оркестрация реально работает как обещано, командам не нужно вручную проектировать половину логики, чтобы получить прирост на кодинге, анализе и научных задачах.

Второй момент уже про архитектуру. Я всё чаще вижу, что для клиентов выигрывает не одна «лучшая» модель, а связка из быстрой, дешёвой и одной дорогой контрольной. Fugu как раз легализует такой подход в продуктовой форме.

Но проиграют те, кто привык мерить всё только ценой токена одной модели. В мультиагентной схеме важнее стоимость решённой задачи, latency под нагрузкой и предсказуемость маршрутизации. На бумаге это выглядит красиво, а в проде всплывают лимиты, таймауты и странные каскады вызовов.

Мы в Nahornyi AI Lab как раз разбираем такие узкие места на практике: где нужна простая связка моделей, а где уже пора делать нормальную AI solution development с маршрутизацией, контролем качества и ценой ошибки. Если у вас накопились процессы, где один LLM уже упирается в потолок, можно вместе разложить архитектуру и собрать AI automation без лишнего цирка вокруг API.

Связанная часть этой дискуссии — появление других инновационных моделей на ранних стадиях. Например, ранее мы анализировали Seedance 2.0 от ByteDance, который также находится в закрытой бета-версии и ставит свои вопросы о производственной жизнеспособности и архитектурных аспектах внедрения ИИ.

Поделиться статьёй