WormGPT
Hacker bauen sich eigene KI-Modelle
Foto: Mdisk - shutterstock.com
Viele Cyber-Security-Experten haben davor gewarnt. Nun scheint der Albtraum Realität zu werden. Cyberkriminelle missbrauchen Generative-AI-Technologie, um sich eigene Tools zu bauen, mit denen sie ihre Angriffe effizienter und erfolgreicher fahren können. Daniel Kelley, Ex-Black-Hat-Hacker, der heute mit dem Security-Anbieter Slashnext zusammenarbeitet, hat WormGPT entdeckt, ein Werkzeug für sogenannte Business-E-Mail-Compromise-(BEC-)Attacken.
KI-Entwicklungen wie ChatGPT von OpenAI hätten einen neuen Vektor für BEC-Angriffe geschaffen, schreibt Kelley in einem Blog-Beitrag. Der Konversations-Bot generiere Texte, die den Eindruck erweckten, reale Menschen hätten sie verfasst. Cyberkriminelle nutzten diese Technologie, um automatisiert überzeugende, auf bestimmte Empfängergruppen zugeschnittene gefälschte E-Mails zu erstellen. Damit erhöhten sie die Erfolgsaussichten ihrer Angriffe.
WormGPT - diskret und leicht verdientes Geld
Kelley und sein Forscherteam haben WormGPT in einem Darknet-Forum gefunden. "Die beste GPT-Alternative für Blackhat", wird das Tool dort angepriesen, "Privacy focused - easy money". WormGPT basiert Kelley zufolge auf GPT-J, einem Large Language Model (LLM), das Eleuther AI 2021 als Open-Source-Modell veröffentlicht hat. Offensichtlich haben Cyberkriminelle GPT-J mit Hilfe von Malware-Daten trainiert und so WormGPT entwickelt.
Lesen Sie, wie Hacker künstliche Intelligenz ausnutzen:
Kelley berichtet von einem Experiment mit WormGPT. Das Modell wurde angewiesen, eine E-Mail zu generieren, die einen ahnungslosen Kundenbetreuer dazu bringen sollte, eine betrügerische Rechnung zu bezahlen. Die Ergebnisse seien erschreckend gewesen, so der Ex-Hacker. "WormGPT produzierte eine E-Mail, die nicht nur bemerkenswert überzeugend, sondern auch strategisch gerissen war." Das Tool funktioniere ähnlich wie ChatGPT, kenne aber keine ethischen Grenzen oder Einschränkungen. Kelleys Fazit: "Das Experiment unterstreicht die erhebliche Bedrohung, die von generativen KI-Technologien wie WormGPT ausgeht, selbst in den Händen von unerfahrenen Cyberkriminellen."
KI verfasst Phishing-Mails genauso gut wie ein Mensch
Von KI verfasste Phishing-Emails funktionieren mindestens genauso gut wie herkömmlich von Menschenhand generierte Inhalte. Das hat eine Untersuchung von SoSafe ergeben. Auf der Awareness-Plattform des Security-Anbieters wurden im März 2023 rund 1.500 simulierte Phishing-Angriffe anonym ausgewertet und die Erfolgswahrscheinlichkeit von KI-generierten im Vergleich zu von Menschen geschaffenen Phishing-Templates analysiert.
Per KI erstellte Mails wurden von 78 Prozent der Empfänger nicht auf den ersten Blick als schädlich erkannt und geöffnet. Davon klickten 21 Prozent auf schädliche Inhalte wie Links oder Anhänge. Knapp zwei Drittel wurden von den KI-generierten Mails sogar dazu verleitet, persönliche Informationen in Eingabefeldern auf verlinkten Webseiten preiszugeben.
Die von Menschenhand geschaffenen Phishing-Angriffe klickten die Personen in der Studie etwas häufiger an (27 Prozent), während die Öffnungsraten bei KI- und menschengenerierten Phishing-E-Mails gleich hoch waren. Die Interaktionsraten lagen laut SoSafe bei den KI-generierten E-Mails sogar höher, da nur 60 Prozent der Empfänger weitere Daten gegenüber den menschlichen Verfassern von E-Mails preisgaben.
Maßgeschneiderte Attacken und hoch skalierbar
Die SoSafe-Verantwortlichen kommen zu dem Schluss, dass Generative-AI-Tools Hackern dabei helfen, Phishing-Mails um mindestens 40 Prozent schneller zu verfassen. Schon mit einfachen Mitteln könnten Cyberkriminelle ihre Erfolgsraten signifikant steigern. Zugleich würden auch die Einstiegshürden für breit gestreute Spear-Phishing-Angriffe sinken. Dabei dienten Präferenzen und Gewohnheiten von bestimmten Zielpersonen als Basis für maßgeschneiderte Attacken. Auch diese Personalisierung von Phishing-Angriffen werde durch KI skalierbar.
KI-Tools ließen sich mit persönlichen Informationen füttern, die dabei helfen könnten, die Qualität der Spear-Phishing-Angriffe hochzuhalten - auch bei besonders vielen Angriffszielen. Des weiteren verschafften Generative-AI-Tools den Hackern kreative Vorteile und neue Ideen. So könnten die Cyberkriminellen in geringerer Zeit weitaus mehr Phishing-Mails in verschiedenen Sprachen mit korrekter Rechtschreibung und Grammatik versenden, als es bisher der Fall war. Großangelegte Phishing-Attacken würden dadurch viel effizienter - und auch effektiver.
Foto: SoSafe
"Erste Studien haben gezeigt, dass KI schon heute bessere Phishing-Mails schreiben kann als der Mensch", konstatierte Niklas Hellemann, CEO und Gründer von SoSafe. Bereits jeder Fünfte falle auf KI-erstellte Phishing-Angriffe rein. Die Technologie werde sich laufend weiterentwickeln und Cyberkriminellen zusätzliche maßgeschneiderte Optionenbieten - so wie WormGPT. "Das wird die Skalierung der Personalisierung auf ein neues Level heben und die Angriffe damit noch gefährlicher machen."