Missbrauch von ChatGPT

Hacker versuchen OpenAI-Beschränkungen zu umgehen

Russische Hacker versuchen aktuell, die Beschränkungen von OpenAI zu umgehen, um ChatGPT für kriminelle Zwecke zu nutzen.
Von 
CSO | 19. Januar 2023 15:55 Uhr
Russische Hacker tauschen sich aktuell in Darknet-Foren darüber aus, wie sie die Zugangsbeschränkungen für ChatGPT umgehen können.
Russische Hacker tauschen sich aktuell in Darknet-Foren darüber aus, wie sie die Zugangsbeschränkungen für ChatGPT umgehen können.
Foto: Alexander Weickart - shutterstock.com

ChatGPT sorgt seit mehreren Wochen für großen Wirbel. Das von OpenAI entwickelte KI-Tool kann automatisiert Texte generieren und Softwarecode schreiben. Doch auch Cyberkriminelle könnten ChatGPT-Funktionen nutzen, um Malware und Phishing-Nachrichten zu erstellen.

Forscher des Sicherheitsanbieters Check Point haben kürzlich beobachtet, dass in russischen Hackerkreisen bereits geprüft wird, wie sich die Zugangsbeschränkungen für die KI-Anwendung umgehen lassen. In Darknet-Foren werden eifrig diskutiert, wie sie die Kontrollen von IP-Adressen, Zahlungskarten und Telefonnummern überbrücken können.

Hacker tauschen sich in Darknet-Foren aus

Als Beispiel führen die Analysten eine Forumsdiskussion an, in der ein Hacker fragt, wie er am besten mit einer gestohlenen Zahlungskarte an einen aufgerüsteten Account bei OpenAI kommt. Dieser soll den Zugang zu leistungsfähigeren und spezialisierteren Modellen und Funktionen ermöglichen. Zudem zeigt Check Point einen weiteren Beitrag, in dem über die Umgehung der Geokontrollen diskutiert wird.

Den Security-Forschern zufolge auch schon viele Anleitungen in russischen, halblegalen Online-SMS-Diensten, die zeigen, wie man sich bei ChatGPT registrieren kann.

Doch welche Auswirkung wird die kriminelle Nutzung von ChatGPT auf die IT-Sicherheit haben? Sergey Shykevich, Threat Intelligence Group Manager bei Check Point, geht aktuell nicht davon aus, dass die neue Technologie die gesamte Bedrohungslandschaft auf den Kopf stellen wird. Er rechnet vielmehr mit einem Anstieg massenhaft produzierter Malware und vor allem wesentlich besser erstellter Phishing-E-Mails.

Tim Berghoff, Security Evangelist bei G DATA CyberDefense, stimmt dem zu: "Dass aus den 'Gehversuchen' krimineller Hacker auch ein erhöhtes Malware-Aufkommen resultieren wird, ist nur natürlich." KI-entwickelte Malware sei aber derzeit in ihrer Qualität und Funktion nicht besser oder schlechter als bisherige Schadprogramme. "Das einzige Alleinstellungsmerkmal ist, dass eben eine KI die Schadsoftware geschrieben hat und kein Mensch. Ein qualitativer Unterschied ist hier nicht zu beobachten", so Berghoff.

Nach Meinung des G-Data-Experten ist es auch nicht besonders überraschend, dass es Versuche gibt, eine Technologie wie ChatGPT zu missbrauchen. "Kriminelle sind immer bestrebt, neue und mächtige Werkzeuge auszuprobieren." ChatGPT bilde da keine Ausnahme, meint er: "Gleiches haben wir schon mit Angriffswerkzeugen gesehen, die von Penetration Testern eingesetzt werden, wie etwa Cobalt Strike."

Dass KI für die Entwicklung von (Schad-)Software genutzt werde, sei ebenfalls nichts Neues. "Angebote wie Githubs "Copilot" gehören schon lange zum Handwerkszeug von Entwicklern. ChatGPT macht es lediglich noch einfacher für Kriminelle, die über keine oder nur rudimentäre Programmierkenntnisse verfügen", so Berghoff der G-Data-Spezialist.

Julia Mutzbauer ist  Editor bei CSO. Ihr Schwerpunkt ist Security.