Vibe Hacking: AI-Modelle werden zunehmend für Erpressungsversuche missbraucht

Den Begriff Vibe Coding für das automatisierte Erstellen von Code und Software mittels KI-Prompts kennt man bereits – nun kommt Vibe Hacking dazu. Ein aktueller Bericht des KI-Unternehmens Anthropic dokumentiert eine neue Dimension der Cyberkriminalität: Kriminelle nutzen zunehmend künstliche Intelligenz nicht nur für Planungszwecke, sondern führen damit komplette Angriffe in Echtzeit durch.
Das als „Vibe Hacking“ bezeichnete Phänomen zeigt, wie KI-Systeme die traditionellen Grenzen zwischen technischer Kompetenz und Angriffskomplexität aufheben. Bedeutet: AI-Modelle machen Hacking niederschwelliger, weil Angreifer dazu nicht mehr sehr tiefe technische Kenntnisse und Fähigkeiten brauchen.
Was ist Vibe Hacking?
Beim Vibe Hacking setzen Cyberkriminelle KI-Assistenten wie Anthropics Claude Code ein, um automatisierte Erpressungskampagnen durchzuführen. Im dokumentierten Fall nutzte ein Angreifer das KI-System, um innerhalb eines Monats mindestens 17 Organisationen zu kompromittieren, darunter Regierungsstellen, Gesundheitseinrichtungen und religiöse Institutionen.
Anders als bei herkömmlicher Ransomware übernahm die KI dabei multiple Funktionen: Aufklärung von Zielsystemen, Sammlung von Zugangsdaten, Eindringen in Netzwerke und Datenexfiltration. Das System generierte zudem individuell angepasste HTML-Erpresserschreiben mit spezifischen Finanzinformationen, Mitarbeiterzahlen und rechtlichen Drohungen für jede Organisation.
Technische Umsetzung und Skalierung
Die KI fungierte als technischer Berater und aktiver Operator zugleich. Sie führte „On-Keyboard“-Aktionen aus, scannte VPN-Endpunkte, entwickelte maßgeschneiderte Schadsoftware und analysierte gestohlene Daten, um die Zahlungsfähigkeit der Opfer zu bewerten. Die Lösegeldforderungen bewegten sich zwischen 75.000 und 500.000 US-Dollar in Bitcoin.
Besonders bemerkenswert ist die Effizienzsteigerung: Was früher ein ganzes Team spezialisierter Hacker erforderte, kann nun von einer einzelnen Person mit KI-Unterstützung durchgeführt werden. Dies senkt die Eintrittsbarrieren für komplexe Cyberangriffe erheblich.
Weitere KI-gestützte Bedrohungen
Der Anthropic-Bericht dokumentiert zusätzliche Anwendungsfelder:
Nordkoreanische IT-Infiltration: Staatsakteure nutzen KI, um sich als qualifizierte IT-Fachkräfte auszugeben und Stellen in westlichen Technologieunternehmen zu erlangen. Die KI erstellt Lebensläufe, beantwortet Bewerbungsfragen in Echtzeit und debuggt Code. Das FBI schätzt, dass solche Operationen jährlich hunderte Millionen Dollar für nordkoreanische Waffenprogramme generieren.
Ransomware-as-a-Service: Ein in Großbritannien ansässiger Akteur verkauft KI-entwickelte Ransomware-Pakete in Darknet-Foren. Für 400 bis 1.200 US-Dollar erhalten Käufer vollständige Malware-Kits mit erweiterten Verschlüsselungs- und Umgehungsfunktionen, ohne selbst über tiefgreifende technische Kenntnisse verfügen zu müssen.
Staatlich unterstützte Operationen: Chinesische Gruppen setzten Claude bei Angriffen auf vietnamesische kritische Infrastruktur ein, wobei die KI in 12 von 14 MITRE ATT&CK-Taktiken involviert war.
Wirtschaftliche Dimension
Kryptowährungen bilden das finanzielle Rückgrat dieser KI-gestützten Kriminalität. Bitcoin dient als bevorzugtes Zahlungsmittel für Lösegelder, während andere Kryptowährungen für Geldwäsche und die Abwicklung illegaler Dienstleistungen verwendet werden. Dies verstärkt die Verbindung zwischen KI-Technologie und digitalen Währungen im kriminellen Ökosystem.
Präventionsmaßnahmen und Reaktionen
Anthropic hat nach eigenen Angaben automatisierte Schutzmaßnahmen implementiert, die verdächtige Konten erkennen und sperren, bevor Angriffe gestartet werden können. Das Unternehmen entwickelt kontinuierlich neue Klassifikatoren zur Erkennung von Missbrauch und teilt technische Indikatoren mit Sicherheitspartnern.