Skip to main content
MetaAI automationlegacy code

Meta показала рецепт для AI-агентів у легасі-коді

Meta описала, як за допомогою 50+ агентів перетворити легасі-код із «племінними знаннями» на компактну карту для AI automation. Для бізнесу це важливо, бо не треба згодовувати моделі весь код. Це різко прискорює дослідження, знижує витрати токенів і робить старі системи готовими до AI integration.

Технічний контекст

Я люблю такі інженерні розбори не за красивий піар, а за те, що з них можна витягнути робочу схему для AI implementation у реальних легасі-системах. Meta не намагалася засунути в модель весь код. Вона побудувала «компас» поверх коду, і ось це вже доросла AI architecture.

Початкові дані там неприємні, як і буває в живому проді: 4 репозиторії, 3 мови, 4100+ файлів, купа tribal knowledge, яке не лежить ні в Jira, ні в архітектурних схемах. Замість одного «розумного» агента вони запустили 50+ спеціалізованих агентів через 9 фаз.

Я покопався в деталях, і найсильніше тут не кількість агентів, а дисципліна процесу. Аналітики відповідали по кожному файлу на 5 запитань: що він робить, які в ньому патерни, де неочевидні пастки, які залежності, які негласні угоди треба знати. Потім райтери збирали чернетки, а критики влаштовували 3 раунди злого рев'ю.

Так, саме злого. Не «злегка поправити», а зруйнувати сумнівні висновки, витягнути галюцинації, знайти застарілі посилання. Після цього фіксер-агенти допрацьовували матеріали, і середня оцінка якості зросла з 3.65 до 4.20 з 5.

На виході вийшло 59 компактних context files, по 25-35 рядків кожен, сумарно близько 1000 токенів. Це менше 0.1% сучасного контекстного вікна. Сенс простий: не енциклопедія, а короткі підказки, які запускають точний retrieval на вимогу.

Ось тут я й зупинився. Більшість команд досі сперечаються, чи можна взагалі подружити AI з «особливим» легасі. Meta фактично показала, що проблема не в унікальності коду, а у відсутності машинно-читаної карти мікрорішень, які живуть тільки в головах людей.

Вплив на бізнес та автоматизацію

Практичний висновок дуже приземлений: якщо ви робите AI automation поверх старої системи, лити весь репозиторій у контекст зазвичай нерозумно й дорого. Коротка карта домену дає менше викликів, менше токенів і значно стабільніше маршрутизує агента по коду.

Цифри у Meta бадьорі: на 40% менше викликів, на 40% менше токенів, задачі на дослідження впали з двох днів до 30 хвилин. Для команди це вже не «цікавий експеримент», а прямий вплив на вартість підтримки та швидкість змін.

Виграють компанії з важким легасі, де експертиза розмазана по людях і репах. Програють ті, хто все ще сподівається, що код сам по собі залишається єдиним source of truth для агента. На практиці ми в Nahornyi AI Lab вирішуємо саме такі вузькі місця: спочатку витягуємо приховані правила системи, а потім уже будуємо AI solutions for business без зайвих витрат на хаотичну генерацію.

Якщо у вас агент тоне в старому коді, а команда втрачає дні на розкопки, я б почав не з нової моделі, а з карти знань. Якщо хочете, давайте розберемо ваш стек і подивимося, як у Nahornyi AI Lab можна build AI automation так, щоб вона реально знімала рутину, а не спалювала бюджет на порожні токени.

Поділитися статтею