WormGPT

Hacker bauen sich eigene KI-Modelle

Es war zu befürchten: Im Darknet tauchen erste KI-Modelle auf, mit denen Hacker ihre Phishing-Angriffe skalieren und sich immer raffinierter auf ihre Ziele einschießen können.
Von 
CSO | 17. Juli 2023 11:50 Uhr
Generative AI hilft Hackern, ihre Angriffe zu skalieren und passgenau auf ihre Ziele abzustimmen.
Generative AI hilft Hackern, ihre Angriffe zu skalieren und passgenau auf ihre Ziele abzustimmen.
Foto: Mdisk - shutterstock.com

Viele Cyber-Security-Experten haben davor gewarnt. Nun scheint der Albtraum Realität zu werden. Cyberkriminelle missbrauchen Generative-AI-Technologie, um sich eigene Tools zu bauen, mit denen sie ihre Angriffe effizienter und erfolgreicher fahren können. Daniel Kelley, Ex-Black-Hat-Hacker, der heute mit dem Security-Anbieter Slashnext zusammenarbeitet, hat WormGPT entdeckt, ein Werkzeug für sogenannte Business-E-Mail-Compromise-(BEC-)Attacken.

KI-Entwicklungen wie ChatGPT von OpenAI hätten einen neuen Vektor für BEC-Angriffe geschaffen, schreibt Kelley in einem Blog-Beitrag. Der Konversations-Bot generiere Texte, die den Eindruck erweckten, reale Menschen hätten sie verfasst. Cyberkriminelle nutzten diese Technologie, um automatisiert überzeugende, auf bestimmte Empfängergruppen zugeschnittene gefälschte E-Mails zu erstellen. Damit erhöhten sie die Erfolgsaussichten ihrer Angriffe.

WormGPT - diskret und leicht verdientes Geld

Kelley und sein Forscherteam haben WormGPT in einem Darknet-Forum gefunden. "Die beste GPT-Alternative für Blackhat", wird das Tool dort angepriesen, "Privacy focused - easy money". WormGPT basiert Kelley zufolge auf GPT-J, einem Large Language Model (LLM), das Eleuther AI 2021 als Open-Source-Modell veröffentlicht hat. Offensichtlich haben Cyberkriminelle GPT-J mit Hilfe von Malware-Daten trainiert und so WormGPT entwickelt.

Lesen Sie, wie Hacker künstliche Intelligenz ausnutzen:

Kelley berichtet von einem Experiment mit WormGPT. Das Modell wurde angewiesen, eine E-Mail zu generieren, die einen ahnungslosen Kundenbetreuer dazu bringen sollte, eine betrügerische Rechnung zu bezahlen. Die Ergebnisse seien erschreckend gewesen, so der Ex-Hacker. "WormGPT produzierte eine E-Mail, die nicht nur bemerkenswert überzeugend, sondern auch strategisch gerissen war." Das Tool funktioniere ähnlich wie ChatGPT, kenne aber keine ethischen Grenzen oder Einschränkungen. Kelleys Fazit: "Das Experiment unterstreicht die erhebliche Bedrohung, die von generativen KI-Technologien wie WormGPT ausgeht, selbst in den Händen von unerfahrenen Cyberkriminellen."

KI verfasst Phishing-Mails genauso gut wie ein Mensch

Von KI verfasste Phishing-Emails funktionieren mindestens genauso gut wie herkömmlich von Menschenhand generierte Inhalte. Das hat eine Untersuchung von SoSafe ergeben. Auf der Awareness-Plattform des Security-Anbieters wurden im März 2023 rund 1.500 simulierte Phishing-Angriffe anonym ausgewertet und die Erfolgswahrscheinlichkeit von KI-generierten im Vergleich zu von Menschen geschaffenen Phishing-Templates analysiert.

Per KI erstellte Mails wurden von 78 Prozent der Empfänger nicht auf den ersten Blick als schädlich erkannt und geöffnet. Davon klickten 21 Prozent auf schädliche Inhalte wie Links oder Anhänge. Knapp zwei Drittel wurden von den KI-generierten Mails sogar dazu verleitet, persönliche Informationen in Eingabefeldern auf verlinkten Webseiten preiszugeben.

Die von Menschenhand geschaffenen Phishing-Angriffe klickten die Personen in der Studie etwas häufiger an (27 Prozent), während die Öffnungsraten bei KI- und menschengenerierten Phishing-E-Mails gleich hoch waren. Die Interaktionsraten lagen laut SoSafe bei den KI-generierten E-Mails sogar höher, da nur 60 Prozent der Empfänger weitere Daten gegenüber den menschlichen Verfassern von E-Mails preisgaben.

Maßgeschneiderte Attacken und hoch skalierbar

Die SoSafe-Verantwortlichen kommen zu dem Schluss, dass Generative-AI-Tools Hackern dabei helfen, Phishing-Mails um mindestens 40 Prozent schneller zu verfassen. Schon mit einfachen Mitteln könnten Cyberkriminelle ihre Erfolgsraten signifikant steigern. Zugleich würden auch die Einstiegshürden für breit gestreute Spear-Phishing-Angriffe sinken. Dabei dienten Präferenzen und Gewohnheiten von bestimmten Zielpersonen als Basis für maßgeschneiderte Attacken. Auch diese Personalisierung von Phishing-Angriffen werde durch KI skalierbar.

KI-Tools ließen sich mit persönlichen Informationen füttern, die dabei helfen könnten, die Qualität der Spear-Phishing-Angriffe hochzuhalten - auch bei besonders vielen Angriffszielen. Des weiteren verschafften Generative-AI-Tools den Hackern kreative Vorteile und neue Ideen. So könnten die Cyberkriminellen in geringerer Zeit weitaus mehr Phishing-Mails in verschiedenen Sprachen mit korrekter Rechtschreibung und Grammatik versenden, als es bisher der Fall war. Großangelegte Phishing-Attacken würden dadurch viel effizienter - und auch effektiver.

Tools wie WormGPT werden die Skalierung der Personalisierung auf ein neues Level heben und die Angriffe damit noch gefährlicher machen, sagt SoSafe-Mitgründer und CEO Niklas Hellemann.
Tools wie WormGPT werden die Skalierung der Personalisierung auf ein neues Level heben und die Angriffe damit noch gefährlicher machen, sagt SoSafe-Mitgründer und CEO Niklas Hellemann.
Foto: SoSafe

"Erste Studien haben gezeigt, dass KI schon heute bessere Phishing-Mails schreiben kann als der Mensch", konstatierte Niklas Hellemann, CEO und Gründer von SoSafe. Bereits jeder Fünfte falle auf KI-erstellte Phishing-Angriffe rein. Die Technologie werde sich laufend weiterentwickeln und Cyberkriminellen zusätzliche maßgeschneiderte Optionenbieten - so wie WormGPT. "Das wird die Skalierung der Personalisierung auf ein neues Level heben und die Angriffe damit noch gefährlicher machen."

Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP; Betreuung von News und Titel-Strecken in der Print-Ausgabe der COMPUTERWOCHE.