Skip to main content
cybersecuritynpmclaude-code

Malware in KI-Tools überlebt die Deinstallation

Ein bösartiges npm-Paket sichert seine Persistenz durch die Modifikation von .claude/settings.json und .vscode/tasks.json, wodurch es `npm uninstall` überlebt. Für Unternehmen bedeutet dies ein stilles Risiko für Entwicklungstools, das Workflows kompromittiert, die auf KI-Integration und -Automatisierung basieren, da sich die Malware über legitime IDE-Hooks erneut ausführen kann.

Technischer Kontext

Ich bin auf diese Geschichte nicht wegen eines weiteren npm-Vorfalls aufmerksam geworden, sondern wegen ihres Persistenzmechanismus. Hier klammert sich die Malware nicht an das Paket selbst. Sie nutzt normale, legitime Hooks in Claude Code und VS Code, um sich bei bestimmten Tool-Ereignissen erneut zu starten.

Laut Veröffentlichungen ist das Ziel einfach und bösartig: sich in .claude/settings.json und .vscode/tasks.json einzutragen. Danach behebt ein normales npm uninstall das Problem nicht mehr, da der Wiedereintrittspunkt in der Konfiguration verbleibt. Dies hebt den Angriff auf eine andere Ebene der Lieferkettenbedrohung.

Ich bewerte solche Dinge immer aus der Perspektive der praktischen KI-Integration, nicht nur aus der Sicherheitstheorie. Wenn ein Team Claude Code für die Generierung, das Refactoring oder interne KI-Automatisierungsszenarien verwendet, wird eine Kompromittierung von einer einfachen Maschineninfektion zu einem dauerhaften Zugriff auf den Arbeitszyklus des Entwicklers.

Besonders heimtückisch ist hier, dass der Angreifer keine exotische Schwachstelle ausnutzt, sondern eine als Standardfunktion der IDE geltende Funktion verwendet. Das bedeutet, dass viele Teams wochenlang nach einem Paket suchen könnten, während der eigentliche Persistenzmechanismus bereits in den lokalen Projekt- oder Benutzereinstellungen verankert ist.

Bisher gibt es nur wenige öffentliche technische Details, und darüber müssen wir ehrlich sein. Aber auch ohne einen vollständigen Satz von IOCs ist das Bild klar: Wenn ein npm-Paket diese Dateien jemals modifiziert hat, bedeutet das Entfernen der Abhängigkeit nicht, dass die Umgebung sauber ist.

Ich würde mindestens drei Dinge prüfen: unerwartete Task-Einträge in VS Code, verdächtige Hooks in Claude Code und alle Autostart-Skripte, die ohne eine explizite Teamentscheidung aufgetaucht sind. Wenn Sie Repository-Vorlagen, Devcontainer-Einstellungen oder Bootstrap-Skripte haben, sollten Sie diese ebenfalls überprüfen.

Was dies für Unternehmen und Automatisierung ändert

Die erste Konsequenz ist banal, aber teuer: Das Vertrauen in KI-Entwickler-Tools kann nicht mehr allein auf einer Abhängigkeitsliste beruhen. Sie benötigen Kontrolle über Konfigurationen und das Verhalten nach der Installation, sonst wird die KI-Implementierung in der Entwicklung zu einem unnötigen Einfallstor.

Zweitens werden Teams ohne eine grundlegende Härtungsrichtlinie für ihre IDEs und Agenten-Tools verlieren. Gewinnen werden diejenigen, die Referenzkonfigurationen pflegen, auf Abweichungen (Drift) prüfen und lokale Experimente von der Produktionskette trennen.

Bei Nahornyi AI Lab schließen wir genau diese Lücken zwischen Sicherheit und Automatisierung mit KI: Wo kein schicker Demo-Agent benötigt wird, sondern eine solide KI-Architektur mit überprüfbaren Hooks, Sandboxing und Audits des Entwicklungsprozesses. Wenn Sie bereits KI-Tools in Ihre Entwicklung integriert haben und verstehen möchten, wo sich eine solche Bedrohung verstecken könnte, lassen Sie uns Ihren Workflow analysieren und eine KI-Automatisierung ohne versteckte Überraschungen aufbauen.

Die Absicherung von KI-Entwicklungsumgebungen gegen solch hartnäckige Bedrohungen ist von größter Bedeutung. Wir haben bereits untersucht, wie KI-Agenten Sandboxes durch Befehlsketten umgehen können, was wichtige Einblicke in die damit verbundenen Risiken und die notwendigen Kontrollmechanismen für eine sichere KI-Ausführung liefert.

Diesen Artikel teilen