Contexte technique
J'adore ce genre d'analyses techniques, non pas pour le coup de pub, mais parce qu'on peut en extraire un plan d'action concret pour l'implémentation de l'IA dans des systèmes legacy réels. Meta n'a pas essayé de fourrer toute la base de code dans le modèle. Ils ont construit une 'boussole' par-dessus le code, et ça, c'est ce que j'appelle une architecture IA mature.
Le point de départ était complexe, comme souvent en production : 4 dépôts, 3 langages, plus de 4100 fichiers, et une tonne de connaissances tribales non documentées dans Jira ou les schémas d'architecture. Au lieu d'un seul agent 'intelligent', ils ont déployé plus de 50 agents spécialisés en 9 phases.
J'ai creusé les détails, et le plus puissant ici n'est pas le nombre d'agents, mais la discipline du processus. Pour chaque fichier, les analystes répondaient à 5 questions : que fait-il, quels patterns contient-il, où sont les pièges non évidents, quelles sont ses dépendances, et quelles sont les conventions tacites à connaître. Ensuite, des agents rédacteurs préparaient des brouillons, et des agents critiques menaient 3 cycles de revues impitoyables.
Oui, impitoyables. Pas 'corriger légèrement', mais démolir les conclusions douteuses, exposer les hallucinations et trouver les références obsolètes. Après cela, des agents 'réparateurs' affinaient les documents, et le score de qualité moyen est passé de 3,65 à 4,20 sur 5.
Le résultat : 59 fichiers de contexte compacts, de 25 à 35 lignes chacun, pour un total d'environ 1000 tokens. C'est moins de 0,1% d'une fenêtre de contexte moderne. L'idée est simple : pas une encyclopédie, mais des aide-mémoires qui déclenchent une récupération précise à la demande.
C'est là que j'ai eu le déclic. La plupart des équipes débattent encore pour savoir si l'IA peut même s'entendre avec leur code legacy 'particulier'. Meta a montré que le problème n'est pas l'unicité du code, mais l'absence d'une carte lisible par machine des micro-décisions qui n'existent que dans la tête des gens.
Impact sur le business et l'automatisation
La conclusion pratique est très terre-à-terre : si vous construisez une AI automation sur un vieux système, injecter tout le dépôt dans le contexte est généralement stupide et coûteux. Une carte de domaine concise entraîne moins d'appels, moins de tokens et un routage de l'agent beaucoup plus stable à travers le code.
Les chiffres de Meta sont impressionnants : 40% d'appels en moins, 40% de tokens en moins, et des tâches de recherche qui prenaient deux jours sont maintenant bouclées en 30 minutes. Pour une équipe, ce n'est plus une 'expérience intéressante', mais un impact direct sur les coûts de maintenance et la vitesse de changement.
Les entreprises avec un lourd héritage legacy, où l'expertise est dispersée entre les gens et les dépôts, sont gagnantes. Les perdants sont ceux qui espèrent encore que le code lui-même reste l'unique source de vérité pour un agent. En pratique, chez Nahornyi AI Lab, nous résolvons précisément ces goulots d'étranglement : nous extrayons d'abord les règles cachées du système, puis nous construisons des AI solutions for business sans gaspiller d'argent sur de la génération chaotique.
Si votre agent se noie dans du vieux code et que votre équipe perd des jours en investigation, je ne commencerais pas par un nouveau modèle, mais par une carte des connaissances. Si vous le souhaitez, analysons votre stack et voyons comment, chez Nahornyi AI Lab, nous pouvons build AI automation pour qu'elle élimine vraiment la routine au lieu de brûler votre budget en tokens vides.