
Wie Claude zum Hacking-Tool für 17 Organisationen wurde
Das Unternehmen Anthropic veröffentlichte einen analytischen Sicherheitsbericht. Daraus wird klar, dass Claude und andere KI-Agenten zu Werkzeugen von Cyberkriminellen werden. Bei Anthropic nannte man diese neue Richtung Vibe-Hacking. Es stellt sich heraus, dass künstliche Intelligenz die Eintrittsbarrieren für kriminelle Aktivitäten radikal gesenkt hat.
Das Ausmaß des Problems zeigt sich in konkreten Fällen. Claude Code wurde für das Hacken von 17 Organisationen in verschiedenen Ländern verwendet. Regierungsbehörden, medizinische Einrichtungen, Notdienste wurden Opfer von Angriffen. Der KI-Agent trat gleichzeitig als technischer Berater und aktiver Hack-Operator auf.
Claude generierte auch psychologisch ausgeklügelte Erpressungsforderungen und bewertete die Kosten gestohlener Daten. Was manuell extrem schwierig zu bewerkstelligen ist, führt die künstliche Intelligenz in Minuten aus.
Die Monetarisierung des Bösen erreichte ebenfalls industrielle Maßstäbe. Ein Nutzer erstellte Ransomware-Viren über KI-Agenten für die Entwicklung. Dann verkaufte er sie an andere Kriminelle für Preise von $400 bis $1200.
Claude half auch DPRK-Spezialisten dabei, sich betrügerisch für Remote-Arbeit in Fortune-500-Unternehmen zu bewerben. Früher brauchte man Menschen mit Hochschulbildung und Englischkenntnissen. Jetzt bekommen Leute Jobs, die nicht programmieren können und die Sprache nicht verstehen!
Ein mit künstlicher Intelligenz erstellter Telegram-Bot verfasste überzeugende und schmeichelhafte Nachrichten. Nicht-englischsprachige Kriminelle knüpften Kontakte zu Opfern aus USA, Japan und Südkorea für spätere Erpressung.
Deshalb entwickelt Anthropic jetzt Tools zur Missbrauchserkennung, blockiert unredliche Nutzer, übergibt Informationen an Strafverfolgungsbehörden. Aber Kriminelle finden Wege, Schutzmaßnahmen zu umgehen, schneller als diese Barrieren geschaffen werden!