Contexte technique
Je n'entrerais même pas dans un débat de préférences. Si un agent sur un pipeline de type Codex charge context7 par défaut et y consacre des minutes avant de démarrer, c'est déjà un signal d'alarme pour moi. Dans l'AI automation, de tels détails finissent par se transformer en heures de perte de temps et en réponses étranges.
J'ai examiné le cas, et la logique est très familière : un serveur MCP externe récupère des documents obsolètes, gonfle le contexte et empêche le modèle de faire ce qu'il sait déjà faire lui-même, c'est-à-dire rechercher des informations fraîches via la recherche intégrée de GPT. En conséquence, l'agent ne résout pas la tâche, mais commence avec assurance à réinventer la roue. C'est généralement à ce moment-là que j'appuie sur stop.
Le problème n'est pas le MCP en tant qu'idée. Le problème est un mauvais réglage par défaut. Lorsque du bruit inutile est préchargé dans le contexte, le modèle perd sa concentration, réfléchit plus longtemps, choisit plus souvent la mauvaise voie et a du mal à maintenir l'architecture de la solution.
Avec context7, c'est particulièrement visible si la source n'a pas été nettoyée depuis longtemps : vieux snippets, exemples discutables, doublons, extraits de documentation inutiles. La recherche propre à GPT est souvent tout simplement meilleure pour de telles tâches aujourd'hui : elle récupère les données fraîches plus rapidement et n'encombre pas la fenêtre de contexte avant le premier jeton utile.
Techniquement, la solution est ennuyeuse, et c'est là son avantage : je désactiverais simplement context7 dans la configuration du MCP ou ne chargerais pas ce serveur à l'exécution pour l'agent de code. Besoin de GitHub ou d'un outil hautement spécialisé ? On le garde. Besoin d'une recherche générale dans la documentation ? Je laisserais d'abord le modèle utiliser sa recherche intégrée, pas une béquille externe.
Ce que cela change pour l'entreprise et l'automatisation
Les gagnants sont les équipes qui ont besoin d'un agent prévisible, pas de magie avec des surprises. Moins de jetons sont gaspillés, les réponses arrivent plus vite, et le risque que l'agent réécrive un service au lieu d'une correction ciblée diminue considérablement.
Les seuls perdants sont les anciens pipelines où les outils étaient ajoutés sur le principe du « plus il y en a, plus c'est intelligent ». Ce n'est pas de l'AI integration, c'est une surcharge du système. J'ai vu de nombreuses fois comment un ensemble d'outils excessif dégrade la qualité plus qu'un modèle faible.
Chez Nahornyi AI Lab, nous nettoyons précisément ces zones : là où un agent a besoin de vrais outils et là où il vaut mieux ne pas l'entraver. Si votre assistant de code est lent, produit des solutions étranges ou gaspille le budget, vous pouvez démonter le pipeline et construire un développement de solutions IA sans ce bruit. Parfois, la désactivation d'un seul context7 apporte plus de bénéfices qu'une nouvelle mise à niveau du modèle.