BlackBerry-Umfrage
Britische IT-Chefs fürchten Missbrauch von ChatGPT
Foto: CKA - shutterstock.com
Die meisten britischen IT-Leiter glauben, dass ausländische Staaten den Chatbot ChatGPT bereits für böswillige Zwecke gegen andere Nationen einsetzen. Dies geht aus einer neuen Studie von BlackBerry hervor, für die 500 britische IT-Entscheidungsträger befragt wurden. Während 60 Prozent der Befragten ChatGPT im Allgemeinen für "gute" Zwecke einsetzen, sind 72 Prozent besorgt über die Gefahren im Cyberraum. Fast die Hälfte (48 Prozent) sagt voraus, dass innerhalb der nächsten 12 Monate ein erfolgreicher Cyberangriff auf die Technologie zurückgeführt werden wird. Die Ergebnisse folgen auf jüngsten Untersuchungen, die gezeigt haben, wie Angreifer ChatGPT nutzen können, um Phishing- und BEC-Betrügereien (Business Email Compromise) erheblich zu verbessern.
ChatGPT, der kostenlose Chatbot von OpenAI, der auf GPT-3.5 basiert, wurde am 30. November 2022 veröffentlicht und verzeichnete innerhalb von fünf Tagen eine Million Nutzer. Er ist in der Lage, E-Mails, Aufsätze, Code und Phishing-E-Mails zu schreiben, wenn der Benutzer weiß, wie er fragen muss. Laut BlackBerry stellt dabei die Fähigkeit der Angreifer, damit glaubwürdige und legitim klingende Phishing-E-Mails zu verfassen, für 57 Prozent der befragten britischen IT-Leiter die größte Sorge dar. Es folgen die zunehmende Raffinesse der Angriffe (51 Prozent) und die Möglichkeit, neue Social-Engineering-Angriffe zu beschleunigen (49 Prozent).
Darüber hinaus ist rund die Hälfte der Befragten darüber besorgt, dass ChatGPT zur Verbreitung von falschen Informationen genutzt wird (49 Prozent), sowie über die Möglichkeit, dass weniger erfahrene Hacker ihre technischen Kenntnisse verbessern können (47 Prozent). 88 Prozent der Befragten sehen die Regierungen in der die Verantwortung, fortschrittliche Technologien wie ChatGPT zu regulieren.
"ChatGPT wird seinen Einfluss in der Cyberindustrie im Laufe der Zeit wahrscheinlich noch verstärken", kommentiert Shishir Singh, CTO Cybersecurity bei BlackBerry, die Ergenisse. "Es gab einen großen Hype und Panikmache, aber der Puls der Branche bleibt ziemlich pragmatisch - und das aus gutem Grund. Diese fortschrittliche Technologie bietet viele Vorteile, und wir beginnen gerade erst, an der Oberfläche zu kratzen, aber wir können auch die Auswirkungen nicht ignorieren."
Lesetipp: Hacker versuchen OpenAI-Beschränkungen zu umgehen
ChatGPT kann Phishing- und BEC-Betrügereien erheblich verbessern
Im Januar demonstrierten Forscher des Sicherheitsunternehmens WithSecure, wie das GPT-3-Modell zur Generierung natürlicher Sprache eingesetzt werden kann, um Social-Engineering-Angriffe wie Phishing- oder BEC-Betrügereien (Business Email Compromise) schwieriger zu erkennen und leichter durchzuführen. Die Studie zeigte, dass Angreifer nicht nur einzigartige Variationen desselben Phishing-Köders mit grammatikalisch korrektem und menschenähnlich geschriebenem Text erstellen können, sondern auch ganze E-Mail-Ketten, um ihre E-Mails überzeugender zu gestalten. Selbst die Erstellung von Nachrichten mit dem Schreibstil echter Menschen auf der Grundlage von zur Verfügung gestellten Kommunikationsmustern ist möglich.
"Die Generierung von vielseitigem Text in natürlicher Sprache aus einer kleinen Menge von Eingaben wird unweigerlich das Interesse von Kriminellen wecken, insbesondere von Cyberkriminellen - falls dies nicht schon geschehen ist", so die Forscher in ihrem Papier. "Ebenso könnte jeder, der das Internet nutzt, um Betrug, gefälschte Nachrichten oder Fehlinformationen im Allgemeinen zu verbreiten, ein Interesse an einem Tool haben, das glaubwürdige, möglicherweise sogar überzeugende Texte mit übermenschlicher Geschwindigkeit erstellt."
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation CSO Online.