Technischer Kontext
Ich würde hier nicht über Geschmack streiten. Wenn ein Agent auf einer Codex-ähnlichen Pipeline standardmäßig context7 lädt und dafür Minuten vor dem Start benötigt, ist das für mich ein Warnsignal. In der AI automation führen solche Kleinigkeiten später zu stundenlangen Verlusten und seltsamen Antworten.
Ich habe mir den Fall genauer angesehen, und die Logik ist sehr vertraut: Ein externer MCP-Server holt veraltete Dokumente, bläht den Kontext auf und hindert das Modell daran, das zu tun, was es bereits selbst kann – nämlich über die integrierte GPT-Suche nach aktuellen Informationen zu suchen. Im Ergebnis behebt der Agent die Aufgabe nicht, sondern erfindet selbstbewusst das Rad neu. An diesem Punkt drücke ich normalerweise auf Stopp.
Das Problem ist nicht MCP als Idee. Das Problem ist eine schlechte Standardeinstellung. Wenn im Voraus unnötiges Rauschen in den Kontext geladen wird, verliert das Modell den Fokus, denkt länger nach, wählt häufiger den falschen Weg und hat Schwierigkeiten, die Lösungsarchitektur beizubehalten.
Bei context7 ist dies besonders auffällig, wenn die Quelle lange nicht bereinigt wurde: alte Snippets, fragwürdige Beispiele, Duplikate, unbrauchbare Teile der Dokumentation. Die eigene Suche von GPT ist für solche Aufgaben mittlerweile oft einfach besser: Sie ruft aktuelle Daten schneller ab und überfüllt das Kontextfenster nicht vor dem ersten nützlichen Token.
Technisch ist die Lösung langweilig, und das ist ihr Vorteil: Ich würde context7 einfach in der MCP-Konfiguration deaktivieren oder diesen Server zur Laufzeit für den Code-Agenten nicht laden. Benötigen Sie GitHub oder ein hochspezialisiertes Tool? Das behalten wir. Benötigen Sie eine allgemeine Dokumentensuche? Ich würde dem Modell zuerst seine eingebaute Suche geben, keine externe Krücke.
Was dies für Unternehmen und Automatisierung bedeutet
Gewinner sind Teams, die einen vorhersagbaren Agenten benötigen, keine Magie mit Überraschungen. Weniger Tokens werden für Müll verschwendet, Antworten kommen schneller, und das Risiko, dass der Agent einen Dienst neu schreibt, anstatt eine gezielte Korrektur vorzunehmen, sinkt erheblich.
Verlierer sind nur alte Pipelines, bei denen Werkzeuge nach dem Prinzip „je mehr, desto klüger“ hinzugefügt wurden. Das ist keine AI integration, das ist eine Systemüberlastung. Ich habe oft gesehen, wie ein übermäßiges Toolset die Qualität stärker beeinträchtigt als ein schwaches Modell.
Bei Nahornyi AI Lab räumen wir genau solche Bereiche auf: wo ein Agent echte Werkzeuge braucht und wo man ihn besser nicht stört. Wenn Ihr Code-Assistent langsam ist, seltsame Lösungen produziert oder grundlos das Budget verbraucht, können Sie die Pipeline getrost zerlegen und eine AI solution development ohne dieses Rauschen aufbauen. Manchmal bringt das Deaktivieren eines einzigen context7 mehr als ein weiteres Modell-Upgrade.