Generative-AI-Angebot
Cyberangriffe vorhersagen mit SafeGPT?
Foto: goffkein.pro - shutterstock.com
SaaS-Anbieter SAFE Security hat mit seiner "Cyber Risk Cloud of Clouds" ein neues Produkt angekündigt, das nach Angaben des Unternehmens generative künstliche Intelligenz nutzt, um Unternehmen dabei zu unterstützen, Cybersicherheitsvorfälle zu antizipieren und zu vermeiden.
Announcing the FIRST Cyber Risk Cloud of Clouds with #SafeGPT to predict & prevent #cybersecurity breaches https://t.co/z2BcF4LkCs
— Safe Security (@SafeCRQ) June 1, 2023
Discover the world's most comprehensive, data-rich cloud aggregating signals from 50+ API integrations. PLUS, our new #generativeAI interface. pic.twitter.com/hwh7mQeCCO
Das kann SafeGPT
Dazu versieht der US-Sicherheitsanbieter sein Angebot mit einem Generative-AI-Interface im Stil von ChatGPT: SafeGPT basiert auf Large Language Models (LLMs) und soll Unternehmen einen möglichst verständlichen Überblick über ihre Cybersicherheitslage ermöglichen. Zu diesem Zweck sollen die Nutzer SafeGPT mit gezielten Fragen zu ihren Risikodaten füttern. Die könnten laut SAFE Security folgendermaßen aussehen:
Wie wahrscheinlich ist es, dass wir in den nächsten zwölf Monaten von einer Ransomware-Attacke betroffen sein werden?
Wie hoch ist die Wahrscheinlichkeit, von neuartiger Malware wie "Snake" getroffen zu werden?
Wie sehen die finanziellen Folgen eines solchen Angriffs aus?
Welche priorisierten Maßnahmen lassen sich proaktiv ergreifen, um die Wahrscheinlichkeit eines Ransomware-Angriffs und das finanzielle Risiko zu minimieren?
Die Cyber Risk Cloud of Clouds führt darüber hinaus unterschiedliche Security-Signale und Bedrohungsdaten in einer Ansicht zusammen, darunter die von:
CrowdStrike,
AWS,
Azure,
Google Cloud Platform,
ServiceNow,
Qualys,
Tanium und
Rapid7.
Die externen Bedrohungsdaten werden mit kundeneigenen Risikodaten kombiniert, um eine umfassende Echtzeit-Übersicht über die Bedrohungslage zu erzeugen. Dabei hat der Security-Anbieter den Datenschutz stets im Blick, wie ein Sprecher des Unternehmens gegenüber unseren US-Kollegen versicherte: "Wir haben den Azure OpenAI Service in unserem eigenen Rechenzentrum implementiert, so dass die Kundendaten dieses nicht verlassen. Azure verfügt zudem über verschiedene Maßnahmen, um die Datensicherheit zu gewährleisten und Kundendaten werden nicht dazu verwendet, die Modelle zu trainieren." (fm)
Sie wollen weitere interessante Beiträge rund um das Thema IT-Sicherheit lesen? Unser kostenloser Newsletter liefert Ihnen alles, was Sicherheitsentscheider und -experten wissen sollten, direkt in Ihre Inbox.
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation CSO Online.