Skip to main content
DeFiкибербезопасностьAI-агенты

KI-Agenten und die Welle der DeFi-Hacks

Im April 2026 verlor DeFi tatsächlich über 600 Mio. $, aber die Behauptung bestätigter KI-Hacker ist unbewiesen. Für Unternehmen ist die Erkenntnis eine andere: KI-Automatisierung senkt die Kosten für die Schwachstellensuche drastisch. Das bedeutet, die Anforderungen an Überwachung, KI-Integration und Sicherheitsarchitektur haben sich bereits grundlegend geändert.

Was ich überprüft habe

Ich habe mir die Zusammenfassungen für April angesehen und schnell ein bekanntes Problem erkannt: Die Zahlen verbreiten sich schneller als die Post-Mortem-Analysen. Die großen Vorfälle, insbesondere bei Kelp DAO und Drift, waren real, und der Gesamtschaden überstieg tatsächlich 600 Millionen US-Dollar. Die Liste aus dem Chat stimmte jedoch nicht immer mit bestätigten Namen und Beträgen überein, und die Geschichte von massenhaften KI-Hackern bleibt eher eine Hypothese als eine bewiesene Tatsache.

Zum Beispiel war die Rede von Aftermath Protocol, nicht von Aftermath Finance. Bei Kelp DAO wurde öffentlich ein Infrastrukturkompromiss, ein DDoS-Angriff und eine Lücke im Verifizierungsschema für Bridge-Nachrichten analysiert. Das ist nicht mehr die romantische Vorstellung, dass "ein Smart Contract um ein einziges 'require' falsch lag", sondern ein normaler, vielschichtiger Hack, der sowohl die Infrastruktur als auch Vertrauensannahmen ins Visier nimmt.

Vor diesem Hintergrund denke ich nicht an den Hype, sondern an die AI implementation in der Verteidigung. Selbst wenn KI-Agenten in diesen speziellen Fällen nicht bestätigt wurden, sinken die Kosten für massenhafte Aufklärung drastisch. Einen schwachen RPC, eine schlechte Konfiguration, eine verdächtige Admin-Rolle oder fehlerhafte Oracle-Logik zu finden, ist heute viel schneller möglich als noch vor einem Jahr.

Was mich beunruhigt: Der Markt entwirft Protokolle immer noch so, als ob Angreifer manuell arbeiten und nachts schlafen. Aber ein Angreifer schläft heute vielleicht gar nicht mehr.

Was das für Unternehmen und Automatisierung bedeutet

Die erste Konsequenz ist einfach: Manuelle Sicherheitsüberprüfungen reichen als alleinige Schutzschicht nicht mehr aus. Wenn Sie eine Bridge, eine Lending- oder Staking-Plattform oder eine Wallet-Infrastruktur betreiben, benötigen Sie eine kontinuierliche AI automation, um Anomalien bei Zugriffsrechten, Konfigurationen, On-Chain-Flüssen und DevOps-Änderungen zu finden.

Zweitens gewinnen die Teams, bei denen Sicherheit in die AI architecture des Produkts integriert ist und nicht erst nach einem Vorfall nachgerüstet wird. Verlierer sind diejenigen, die kritische Annahmen auf einen einzigen Verifizierer, einen einzigen Schlüssel, einen einzigen RPC-Anbieter oder eine einzige Person mit Zugriff stützen.

Und drittens: Ein Bug Bounty für "danke und 2.000$" wirkt heute fast wie eine Beleidigung. Wenn der Markt White-Hat-Forscher nicht bezahlt, werden andere die Schwachstellen monetarisieren.

Das sehe ich auch in Kundenprojekten: Sicherheit lässt sich nicht mehr von Automatisierung trennen, denn sowohl Verteidiger als auch Angreifer nutzen Automatisierung. Wenn Sie ein DeFi-Produkt, eine Wallet oder eine hochriskante Web3-Integration haben, können wir die Architektur systematisch analysieren und einen soliden Überwachungsrahmen aufbauen. Im Nahornyi AI Lab tun wir genau das in der Praxis: von der Entwicklung von KI-Lösungen für Detektions-Pipelines bis hin zur gezielten AI integration in bestehende Prozesse, damit Ihr Unternehmen nicht auf sein eigenes Post-Mortem warten muss.

Die erheblichen Verluste in DeFi unterstreichen die dringende Notwendigkeit zu verstehen, wie KI-Agenten für unbefugte Handlungen ausgenutzt werden können. Wir haben bereits detailliert beschrieben, wie KI-Agenten Sicherheits-Sandboxes durch Befehlsketten umgehen könnten, was einen Einblick in die raffinierten Methoden gibt, die bei solchen Finanz-Exploits potenziell zum Einsatz kommen.

Diesen Artikel teilen