Skip to main content
VercelContext.aiкибербезопасность

Vercel wurde über ein KI-Tool gehackt

Vercel legte einen Angriff über Context.ai offen: Ein kompromittiertes KI-Tool ermöglichte den Zugriff auf das Google Workspace eines Mitarbeiters und mehrere Umgebungen. Für Unternehmen ist dies ein klares Signal, KI-Integrationen, OAuth-Rechte und die Klassifizierung sensibler Variablen neu zu bewerten.

Der technische Kontext

Ich schätze solche Fälle nicht wegen des Dramas, sondern wegen der transparenten Angriffsmechanik. Das Szenario ist nur allzu bekannt für jeden, der KI in realen Unternehmen integriert: ein externer KI-Dienst, weitreichende OAuth-Berechtigungen, ein kompromittiertes Konto und dann ein Dominoeffekt.

Laut Vercel lag der Einstiegspunkt nicht bei ihnen, sondern bei Context.ai, einem von einem Mitarbeiter genutzten Tool. Durch die Kompromittierung dieses Drittanbieter-Tools kaperte der Angreifer das Google-Workspace-Konto des Vercel-Mitarbeiters und verschaffte sich von dort aus Zugang zu einigen internen Umgebungen und Umgebungsvariablen, die nicht als sensibel gekennzeichnet waren.

Das entscheidende Detail ist, dass laut Vercel als sensibel markierte Variablen nicht in lesbarem Format zugänglich waren. An diesem Punkt musste ich innehalten: Der gesamte Unterschied zwischen einem 'unangenehmen Vorfall' und einem 'totalen Albtraum' hing von der simplen Disziplin bei der Klassifizierung von Secrets ab.

Zusätzlicher Kontext zeichnet ein noch düstereres Bild. Anscheinend wurden die OAuth-Token von Context.ai gestohlen, nachdem der Rechner eines Mitarbeiters mit einem Infostealer infiziert wurde. Der Angreifer nutzte dann diese bestehenden Berechtigungen, um den Perimeter über eine vertrauenswürdige Integration zu umgehen. Das ist ein Lehrbuchbeispiel für einen Supply-Chain-Angriff, nur mit einem KI-Label versehen.

Was mich hier am meisten beeindruckt, ist nicht der Vorfall selbst, sondern wie leichtfertig Teams KI-Tools immer noch als 'nur ein weiteres praktisches SaaS' betrachten. Nein, es ist jetzt Teil Ihrer Identitätsebene und Ihrer KI-Architektur, insbesondere wenn der Dienst Zugriff auf Workspace, E-Mails, Dokumente, Protokolle oder Deployment-Token anfordert.

Was ändert das für Unternehmen und die Automatisierung?

Erstens: OAuth für KI-Dienste muss als Zugriff auf Produktionsebene behandelt werden, nicht als harmloser 'Mit Google anmelden'-Button. Wenn Sie KI-Automatisierung aufbauen und externe Tools mit Workspace, Slack, GitHub oder Vercel verbinden, haben Sie bereits eine Angriffsfläche in Ihrer Lieferkette (Supply-Chain).

Zweitens: Umgebungsvariablen ohne ordnungsgemäße Klassifizierung sind wie eine vergessene Landmine. Es spielt keine Rolle, ob Sie sie für 'nicht sehr sensibel' halten, wenn sie für laterale Bewegungen oder zum Sammeln von API-Schlüsseln und Deployment-Token verwendet werden können.

Drittens: Teams, die einen Zero-Trust-Ansatz für jeden KI-Agenten und jede Drittanbieter-Integration verfolgen, werden gewinnen. Diejenigen, die weitreichende Berechtigungen (Scopes) vergeben, ausgestellte Token nicht überprüfen und Secrets nach dem Motto 'das machen wir später' verwalten, werden verlieren.

Ich sehe bei meinen Kunden ständig denselben Fehler: Sie wollen eine schnelle Implementierung künstlicher Intelligenz, betrachten aber die Verbindungssicherheit als zweitrangige Aufgabe. Und genau diese Sicherheit entscheidet darüber, ob Sie eine Prozessbeschleunigung oder einen kostspieligen Vorfall erleben.

Wenn Sie bereits einen wachsenden Zoo an KI-Tools haben, würde ich an Ihrer Stelle sofort die OAuth-Genehmigungen, die Secret-Klassifizierung und die Agentenzugriffe überprüfen. Bei Bedarf können wir bei Nahornyi AI Lab Ihr Setup analysieren und eine KI-Automatisierung aufbauen, die Ihnen Zeit spart, anstatt eine Seitentür für den nächsten Hack zu öffnen.

Wir haben bereits untersucht, wie KI-Agenten ausgenutzt werden können, um Sicherheitsmaßnahmen in Systemen zu umgehen. Insbesondere haben wir praktische Fälle analysiert, in denen Agenten durch Befehlsketten einen Sandbox-Ausbruch erreichten, was einen kritischen Vektor für eine Systemkompromittierung darstellt.

Diesen Artikel teilen