Le contexte technique
Je ne chercherais pas de magie ici. Lorsque dans Claude Code, en plus du /plan habituel, on active les Superpowers avec une chaîne comme brainstorming, writing-plans et subagent-driven-development, je m'attends presque immédiatement à une surcharge. C'est un piège typique de l'automatisation par IA : on pense ajouter des « modes intelligents », mais en réalité, on gonfle le contexte et le nombre d'étapes internes.
Les rapports des utilisateurs brossent un tableau cohérent : une petite tâche, des modifications valant quelques commits, une session fraîche, et pourtant l'agent mouline pendant près d'une heure. Sur Opus 4.7 xhigh, c'est particulièrement frustrant car le temps d'attente ne correspond pas à l'ampleur du travail.
J'ai examiné la mécanique des Superpowers, et tout est logique : le plugin impose une discipline par le biais de plans, de cycles TDD, de sous-agents, de revues et de points de contrôle. Sur le papier, c'est magnifique. En pratique, chaque couche ajoute des instructions, des artefacts intermédiaires et de nouveaux passages sur le contexte.
Cela explique le sentiment que Claude Code « est devenu de plus en plus lent ». Il ne s'agit pas nécessairement de throttling. Je n'ai vu aucune confirmation officielle de délais artificiels pour les utilisateurs Enterprise. Cependant, l'hypothèse de la « graisse de tokens » semble très plausible : plus il y a de structure, plus le modèle lit ses propres résultats au lieu du code.
Un autre signal intéressant des discussions : les gens désinstallent Superpowers et reviennent au /plan par défaut. C'est révélateur. Si la suppression d'un seul pack de compétences accélère notablement le travail, le problème ne vient pas d'un modèle spécifique, mais de l'architecture d'orchestration des prompts qui l'entoure.
Impact sur l'entreprise et l'automatisation
Pour les entreprises, ma conclusion est simple : toutes les surcouches d'agents ne sont pas utiles en production. Si votre implémentation d'IA s'enlise dans une « intelligence » à plusieurs étapes, vous ne payez pas pour le résultat, mais pour les rituels que le modèle exécute au sein de la session.
Les équipes qui privilégient des processus stricts, une couverture de tests et une discipline formelle y trouveront leur compte. Mais celles qui ont besoin d'une intégration rapide de l'IA dans des pipelines réels de développement, de support ou d'automatisation interne sans bruit de tokens inutile seront perdantes.
Je testerais cela de manière très pragmatique : la même tâche avec et sans Superpowers, en enregistrant le temps, les tokens et le nombre d'itérations. Chez Nahornyi AI Lab, c'est exactement ainsi que nous construisons l'architecture des solutions d'IA pour nos clients, car un beau schéma d'agents sans mesure se transforme rapidement en une illusion coûteuse.
Si votre Claude Code a déjà commencé à ralentir et que votre équipe perd des heures à attendre, ne spéculez pas sur des complots d'abonnements. Décomposez plutôt votre flux de travail étape par étape : où le contexte gonfle-t-il, où le plugin interfère-t-il, et comment construire une automatisation par IA sans la surcharge superflue ? Si vous le souhaitez, chez Nahornyi AI Lab, je peux vous aider à analyser rapidement cela et à élaborer un schéma fonctionnel pour votre processus.