Generative-AI-Angebot

Cyberangriffe vorhersagen mit SafeGPT?

Ein neues Angebot auf Generative-AI-Basis verspricht, Ransomware-Angriffe und Datenschutzverletzungen weissagen zu können.
Von 
CSO | 05. Juni 2023 17:39 Uhr
"Wahrsagen" geht jetzt auch im Security-Umfeld - allerdings auf Daten- statt auf Eingebungsbasis.
"Wahrsagen" geht jetzt auch im Security-Umfeld - allerdings auf Daten- statt auf Eingebungsbasis.
Foto: goffkein.pro - shutterstock.com

SaaS-Anbieter SAFE Security hat mit seiner "Cyber Risk Cloud of Clouds" ein neues Produkt angekündigt, das nach Angaben des Unternehmens generative künstliche Intelligenz nutzt, um Unternehmen dabei zu unterstützen, Cybersicherheitsvorfälle zu antizipieren und zu vermeiden.

Das kann SafeGPT

Dazu versieht der US-Sicherheitsanbieter sein Angebot mit einem Generative-AI-Interface im Stil von ChatGPT: SafeGPT basiert auf Large Language Models (LLMs) und soll Unternehmen einen möglichst verständlichen Überblick über ihre Cybersicherheitslage ermöglichen. Zu diesem Zweck sollen die Nutzer SafeGPT mit gezielten Fragen zu ihren Risikodaten füttern. Die könnten laut SAFE Security folgendermaßen aussehen:

  • Wie wahrscheinlich ist es, dass wir in den nächsten zwölf Monaten von einer Ransomware-Attacke betroffen sein werden?

  • Wie hoch ist die Wahrscheinlichkeit, von neuartiger Malware wie "Snake" getroffen zu werden?

  • Wie sehen die finanziellen Folgen eines solchen Angriffs aus?

  • Welche priorisierten Maßnahmen lassen sich proaktiv ergreifen, um die Wahrscheinlichkeit eines Ransomware-Angriffs und das finanzielle Risiko zu minimieren?

Die Cyber Risk Cloud of Clouds führt darüber hinaus unterschiedliche Security-Signale und Bedrohungsdaten in einer Ansicht zusammen, darunter die von:

  • CrowdStrike,

  • AWS,

  • Azure,

  • Google Cloud Platform,

  • ServiceNow,

  • Qualys,

  • Tanium und

  • Rapid7.

Die externen Bedrohungsdaten werden mit kundeneigenen Risikodaten kombiniert, um eine umfassende Echtzeit-Übersicht über die Bedrohungslage zu erzeugen. Dabei hat der Security-Anbieter den Datenschutz stets im Blick, wie ein Sprecher des Unternehmens gegenüber unseren US-Kollegen versicherte: "Wir haben den Azure OpenAI Service in unserem eigenen Rechenzentrum implementiert, so dass die Kundendaten dieses nicht verlassen. Azure verfügt zudem über verschiedene Maßnahmen, um die Datensicherheit zu gewährleisten und Kundendaten werden nicht dazu verwendet, die Modelle zu trainieren." (fm)

Sie wollen weitere interessante Beiträge rund um das Thema IT-Sicherheit lesen? Unser kostenloser Newsletter liefert Ihnen alles, was Sicherheitsentscheider und -experten wissen sollten, direkt in Ihre Inbox.

Jetzt CSO-Newsletter sichern

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation CSO Online.

Michael Hill schreibt für unsere US-Schwesterpublikation CSO Online.