Technischer Kontext
Ich liebe solche technischen Analysen nicht wegen der schicken PR, sondern weil man daraus eine funktionierende Blaupause für die AI-Implementierung in echten Legacy-Systemen ziehen kann. Meta hat nicht versucht, die gesamte Codebasis in das Modell zu stopfen. Sie haben einen 'Kompass' über dem Code gebaut, und das ist eine erwachsene KI-Architektur.
Die Ausgangslage war unübersichtlich, wie es in der Praxis üblich ist: 4 Repositories, 3 Sprachen, über 4100 Dateien und eine Menge Stammeswissen, das weder in Jira noch in Architekturdiagrammen zu finden ist. Statt eines 'intelligenten' Agenten setzten sie über 50 spezialisierte Agenten in 9 Phasen ein.
Ich habe mir die Details angesehen, und das Stärkste hier ist nicht die Anzahl der Agenten, sondern die Prozessdisziplin. Analysten beantworteten für jede Datei 5 Fragen: Was tut sie, welche Muster enthält sie, wo lauern versteckte Fallen, welche Abhängigkeiten gibt es und welche ungeschriebenen Regeln muss man kennen. Dann erstellten Writer-Agents Entwürfe, und Critic-Agents führten 3 Runden knallharter Reviews durch.
Ja, knallhart. Nicht 'leicht überarbeiten', sondern zweifelhafte Schlussfolgerungen widerlegen, Halluzinationen aufdecken und veraltete Referenzen finden. Danach überarbeiteten Fixer-Agents die Materialien, und die durchschnittliche Qualitätsbewertung stieg von 3,65 auf 4,20 von 5.
Das Ergebnis waren 59 kompakte Kontextdateien mit je 25-35 Zeilen, insgesamt etwa 1000 Tokens. Das sind weniger als 0,1 % eines modernen Kontextfensters. Die Idee ist einfach: keine Enzyklopädie, sondern kurze Hinweise, die bei Bedarf eine präzise Informationsabfrage auslösen.
An diesem Punkt hat es bei mir Klick gemacht. Die meisten Teams streiten immer noch darüber, ob KI überhaupt mit ihrem 'besonderen' Legacy-Code zurechtkommt. Meta hat effektiv gezeigt, dass das Problem nicht die Einzigartigkeit des Codes ist, sondern das Fehlen einer maschinenlesbaren Karte von Mikro-Entscheidungen, die nur in den Köpfen der Leute existieren.
Auswirkungen auf Business und Automatisierung
Die praktische Schlussfolgerung ist sehr bodenständig: Wenn Sie eine AI automation auf einem alten System aufbauen, ist es meist dumm und teuer, das gesamte Repository in den Kontext zu laden. Eine kurze Domänenkarte führt zu weniger Aufrufen, weniger Tokens und leitet den Agenten viel stabiler durch den Code.
Die Zahlen von Meta sind beeindruckend: 40 % weniger Aufrufe, 40 % weniger Tokens, und Rechercheaufgaben, die früher zwei Tage dauerten, sind jetzt in 30 Minuten erledigt. Für ein Team ist das kein 'interessantes Experiment' mehr, sondern ein direkter Einfluss auf die Wartungskosten und die Änderungsgeschwindigkeit.
Unternehmen mit schwergewichtigem Legacy, bei dem das Fachwissen auf Mitarbeiter und Repositories verteilt ist, gewinnen. Verlierer sind diejenigen, die immer noch hoffen, dass der Code allein die einzige 'Source of Truth' für einen Agenten bleibt. In der Praxis lösen wir bei Nahornyi AI Lab genau solche Engpässe: Zuerst extrahieren wir die verborgenen Regeln des Systems und bauen erst dann AI solutions for business, ohne Geld für chaotische Generierung zu verschwenden.
Wenn Ihr Agent im alten Code ertrinkt und Ihr Team Tage mit der Suche verbringt, würde ich nicht mit einem neuen Modell beginnen, sondern mit einer Wissenskarte. Wenn Sie möchten, lassen Sie uns Ihren Tech-Stack analysieren und sehen, wie wir bei Nahornyi AI Lab eine AI automation so build, dass sie wirklich Routineaufgaben beseitigt, anstatt Ihr Budget für leere Tokens zu verbrennen.