Технический контекст
Я посмотрел, что именно выкатила Sakana AI, и тут не очередная «ещё одна модель». Fugu Beta это слой оркестрации над несколькими сильными моделями, который сам решает, кого звать, как делить задачу и когда запускать повторное рассуждение. Для тех, кто строит AI automation, это интереснее нового benchmark-скрина, потому что боль обычно не в одном LLM, а в склейке нескольких.
Сейчас у них две версии: Fugu Mini для низкой задержки и Fugu Ultra для максимального качества. По описанию, пользователь получает единый API вместо ручного зоопарка из ключей, роутинга и кустарных workflow. Вот это место мне понравилось: Sakana продаёт не «магический интеллект», а упаковку сложности в нормальный интерфейс.
Под капотом идея знакомая, но доведённая до продукта. Fugu опирается на их исследования Trinity и Conductor, плюс на inference-time scaling через AB-MCTS. Если говорить по-человечески, система не просто отвечает, а может понять, что первый заход слабый, развернуть ветвление, позвать другие модели и прогнать задачу глубже.
Именно здесь я бы не проглатывал маркетинг целиком. Публичных сырых таблиц по самой Fugu Beta пока мало, а часть впечатляющих результатов завязана на специальных scaffold-подходах и комбинациях вроде o4-mini, Gemini 2.5 Pro и DeepSeek R1. Но сам вектор сильный: не растить одну гигантскую модель, а собирать коллективный интеллект из уже существующих.
Что это меняет для бизнеса и автоматизации
Первый эффект очевиден: снижается цена входа в сложную AI integration. Если оркестрация реально работает как обещано, командам не нужно вручную проектировать половину логики, чтобы получить прирост на кодинге, анализе и научных задачах.
Второй момент уже про архитектуру. Я всё чаще вижу, что для клиентов выигрывает не одна «лучшая» модель, а связка из быстрой, дешёвой и одной дорогой контрольной. Fugu как раз легализует такой подход в продуктовой форме.
Но проиграют те, кто привык мерить всё только ценой токена одной модели. В мультиагентной схеме важнее стоимость решённой задачи, latency под нагрузкой и предсказуемость маршрутизации. На бумаге это выглядит красиво, а в проде всплывают лимиты, таймауты и странные каскады вызовов.
Мы в Nahornyi AI Lab как раз разбираем такие узкие места на практике: где нужна простая связка моделей, а где уже пора делать нормальную AI solution development с маршрутизацией, контролем качества и ценой ошибки. Если у вас накопились процессы, где один LLM уже упирается в потолок, можно вместе разложить архитектуру и собрать AI automation без лишнего цирка вокруг API.