Skip to main content
Claude CodeAnthropicAI automation

Wird Claude Code langsamer? Superpowers könnte der Grund sein

Nutzer von Claude Code bemerken weithin eine Verlangsamung nach der Installation von Superpowers. Die Skills blähen den Kontext auf, und lange Agenten-Ketten verbrauchen Zeit und Tokens. Dies ist für die KI-Automatisierung entscheidend, da eine komplexe Orchestrierung leicht die Geschwindigkeit, die Kosten und die Vorhersehbarkeit einer Implementierung zunichtemachen kann.

Der technische Kontext

Ich würde hier nicht nach Magie suchen. Wenn in Claude Code zusätzlich zum üblichen /plan die Superpowers mit einer Kette wie Brainstorming, Writing-Plans und Subagent-Driven-Development aktiviert werden, erwarte ich fast sofort einen Overhead. Dies ist eine typische Falle bei der KI-Automatisierung: Man denkt, man fügt „intelligente Modi“ hinzu, aber in Wirklichkeit bläht man den Kontext und die Anzahl der internen Schritte auf.

Nutzerberichte zeichnen ein einheitliches Bild: eine kleine Aufgabe, Änderungen im Umfang weniger Commits, eine frische Sitzung, und doch arbeitet der Agent fast eine Stunde. Bei Opus 4.7 xhigh ist das besonders frustrierend, weil die Wartezeit nicht zum Umfang der Arbeit passt.

Ich habe mir die Mechanik von Superpowers angesehen, und alles ist logisch: Das Plugin erzwingt Disziplin durch Pläne, TDD-Zyklen, Sub-Agenten, Reviews und Checkpoints. Auf dem Papier sieht das großartig aus. In der Praxis fügt jede dieser Schichten Anweisungen, Zwischenartefakte und neue Durchläufe über den Kontext hinzu.

Das erklärt das Gefühl, dass Claude Code „jeden Tag langsamer geworden ist“. Das ist nicht unbedingt Throttling. Ich habe keine offizielle Bestätigung für künstliche Verzögerungen für Enterprise-Nutzer gesehen. Die Hypothese des „Token-Fetts“ erscheint jedoch sehr plausibel: Je mehr Gerüst, desto mehr liest das Modell seine eigene Ausgabe anstelle des Codes.

Ein weiteres interessantes Signal aus den Diskussionen ist, dass die Leute Superpowers deinstallieren und zum Standard-/plan zurückkehren. Das ist aufschlussreich. Wenn das Entfernen eines einzigen Skill-Pakets die Arbeit merklich beschleunigt, liegt das Problem nicht bei einem bestimmten Modell, sondern bei der Architektur der Prompt-Orchestrierung um es herum.

Auswirkungen auf Geschäft und Automatisierung

Für Unternehmen ist meine Schlussfolgerung einfach: Nicht jedes agentenbasierte Add-on ist in der Produktion nützlich. Wenn Ihre KI-Implementierung in mehrstufiger „Intelligenz“ versinkt, zahlen Sie nicht für das Ergebnis, sondern für die Rituale, die das Modell innerhalb der Sitzung durchführt.

Teams, die strenge Prozesse, Testabdeckung und formale Disziplin priorisieren, könnten profitieren. Aber diejenigen, die eine schnelle KI-Integration in echte Entwicklungs-, Support- oder interne Automatisierungspipelines ohne unnötigen Token-Lärm benötigen, werden verlieren.

Ich würde dies sehr pragmatisch testen: dieselbe Aufgabe mit und ohne Superpowers ausführen und dabei Zeit, Tokens und die Anzahl der Iterationen protokollieren. Bei Nahornyi AI Lab bauen wir genau auf diese Weise die Architektur von KI-Lösungen für Kunden, denn ein schönes Agentenschema ohne Messung wird schnell zu einer teuren Illusion.

Wenn Ihr Claude Code bereits langsamer geworden ist und Ihr Team Stunden mit Warten verliert, spekulieren Sie nicht über Abonnement-Verschwörungen. Analysieren Sie stattdessen Ihren Workflow Schritt für Schritt: Wo bläht sich der Kontext auf, wo stört das Plugin, und wie können Sie KI-Automatisierung ohne den zusätzlichen Overhead aufbauen? Wenn Sie möchten, kann ich Ihnen bei Nahornyi AI Lab helfen, dies schnell zu analysieren und ein funktionierendes Schema für Ihren Prozess zu erstellen.

Die hier beschriebenen Leistungsprobleme und Grenzen stehen im Einklang mit umfassenderen Diskussionen über die Optimierung von KI-Workflows. So haben wir beispielsweise bereits untersucht, wie parallele Claude Code-Agenten effektiv zur Erkennung von Race Conditions in Pull-Requests eingesetzt werden können, was praktische Strategien zur Reduzierung von CI/CD-Risiken und zur Verwaltung der Betriebskosten mit dem Sonnet-Modell aufzeigt.

Diesen Artikel teilen