Skip to main content
MetaAI automationlegacy code

Meta показала рецепт для AI-агентов в легаси

Meta описала, как с помощью 50+ агентов превратить легаси-код с tribal knowledge в компактную карту для AI automation. Для бизнеса это важно по одной причине: не нужно скармливать модели весь код, чтобы резко ускорить исследование, снизить токены и сделать старые системы пригодными для AI integration.

Технический контекст

Я люблю такие инженерные разборы не за красивый пиар, а за то, что из них можно вытащить рабочую схему для AI implementation в реальных легаси-системах. Meta не пыталась засунуть в модель весь код. Она построила «компас» поверх кода, и вот это уже взрослая AI architecture.

Исходные данные там неприятные, как и бывает в живом проде: 4 репозитория, 3 языка, 4100+ файлов, куча tribal knowledge, которое не лежит ни в Jira, ни в архитектурках. Вместо одного «умного» агента они запустили 50+ специализированных агентов через 9 фаз.

Я покопался в деталях, и самое сильное здесь не число агентов, а дисциплина процесса. Аналитики отвечали по каждому файлу на 5 вопросов: что он делает, какие в нем паттерны, где неочевидные ловушки, какие зависимости, какие негласные соглашения надо знать. Потом райтеры собирали черновики, а критики устраивали 3 раунда злого ревью.

Да, именно злого. Не «слегка поправить», а разрушить сомнительные выводы, вытащить галлюцинации, найти устаревшие ссылки. После этого фиксер-агенты дорабатывали материалы, и средняя оценка качества выросла с 3.65 до 4.20 из 5.

На выходе получилось 59 компактных context files, по 25-35 строк каждый, суммарно около 1000 токенов. Это меньше 0.1% современного контекстного окна. Смысл простой: не энциклопедия, а короткие подсказки, которые запускают точный retrieval по требованию.

Вот здесь я и остановился. Большинство команд до сих пор спорят, можно ли вообще подружить AI с «особенным» легаси. Meta фактически показала, что проблема не в уникальности кода, а в отсутствии машинно-читаемой карты микро-решений, которые живут только в головах людей.

Влияние на бизнес и автоматизацию

Практический вывод очень приземленный: если вы делаете AI automation поверх старой системы, лить весь репозиторий в контекст обычно глупо и дорого. Короткая карта домена дает меньше вызовов, меньше токенов и сильно стабильнее маршрутизирует агента по коду.

Цифры у Meta бодрые: на 40% меньше вызовов, на 40% меньше токенов, задачи на исследование упали с двух дней до 30 минут. Для команды это уже не «интересный эксперимент», а прямое влияние на стоимость поддержки и скорость изменений.

Выигрывают компании с тяжелым легаси, где экспертиза размазана по людям и репам. Проигрывают те, кто все еще надеется, что код сам по себе остается единственным source of truth для агента. На практике мы в Nahornyi AI Lab решаем именно такие узкие места: сначала вытаскиваем скрытые правила системы, потом уже строим AI solutions for business без лишнего расхода на хаотичную генерацию.

Если у вас агент тонет в старом коде, а команда теряет дни на раскопки, я бы начал не с новой модели, а с карты знаний. Если хотите, давайте разберем ваш стек и посмотрим, как в Nahornyi AI Lab можно build AI automation так, чтобы она реально снимала рутину, а не сжигала бюджет на пустые токены.

Поделиться статьёй