Microsoft Security Copilot
Mit GPT-4 zu mehr Sicherheit?
Foto: Yurchanka Siarhei - shutterstock.com
Microsoft hat mit Security Copilot ein Generative-AI-System angekündigt, das KI-Features in die hauseigene Sicherheitssuite injiziert und Kunden eine Vielzahl neuer Visualisierungs- und Analysefunktionen bieten soll.
Das grundlegende Interface des KI-getriebenen Security Copilot ähnelt der von ChatGPT bekannten Chatbot-Funktionalität und ermöglicht, auch Security-Fragen natürlichsprachlich zu stellen. Beeindruckendere Funktionen sollen durch die Integration mit verschiedenen Microsoft-Sicherheitsprodukten entstehen, etwa:
Copilot soll Daten aus den genannten Produkten interpretieren und auf dieser Grundlage automatische, detaillierte Erklärungen (einschließlich Visualisierungen) sowie Vorschläge für Abhilfemaßnahmen liefern können. Darüber hinaus wird das System laut Microsoft in der Lage sein, bestimmte Arten von Bedrohungen abzuwehren - beispielsweise, indem es bösartige E-Mail-Nachrichten löscht. Dabei weisen die Redmonder darauf hin, dass der generative Security Copilot zusätzliches Training und Input beziehungsweise Daten benötigt, um sein volles Potenzial auszuschöpfen.
Der Windows-Konzern kündigte zudem an, die Konnektivitätsoptionen von Security Copilot über das eigene Produktportfolio hinaus erweitern zu wollen, gab dazu aber zunächst keine weiteren Details bekannt.
With Microsoft Security Copilot, we're combining advanced AI models with domain- and task-specific data, context, and skills to empower every defender and transform every aspect of SOC productivity. https://t.co/AmNBDGQp3M
— Satya Nadella (@satyanadella) March 28, 2023
Sie wollen weitere interessante Beiträge rund um das Thema IT-Sicherheit lesen? Unser kostenloser Newsletter liefert Ihnen alles, was Sicherheitsentscheider und -experten wissen sollten, direkt in Ihre Inbox.
Analysten sind skeptisch
Nach Ansicht von KI-Experten handelt es sich beim GPT-4-basierten Security Copilot um ein performantes System - das allerdings nicht ganz so neu sei, wie Microsoft Glauben machen mag: "IBM bietet mit seiner Watson-KI schon seit Jahren ähnliche Funktionen", merkt Gartner-Analystin Avivah Litan an und ergänzt: "Die KI ist inzwischen schneller und besser, aber die Funktionalität ist dieselbe. Ein nettes Angebot, das aber nicht die Probleme der Anwender mit generativer KI löst."
Ungeachtet dieser Probleme (von denen sich das größte in möglicherweise ungenauen Informationen manifestiert) ist Chris Kissel, Vice President bei IDC Research, von den potenziellen Benefits des Security Copilot beeindruckt: "Der große Vorteil ist, dass noch viel mehr Dinge automatisiert werden könnten. Die Aussicht, dass ChatGPT dynamisch Texte verfasst und eine Analytics-Engine es - auf dem gleichen Layer - im Kontext beurteilt, ist für mich ein schlagendes Argument."
Skeptisch zeigen sich beide Research-Spezialisten hingegen, wenn es um Microsofts erklärte Politik des Data Sharing geht. Die besagt im Grunde, keine persönlichen Daten zu nutzen, um grundlegende KI-Modelle zu trainieren und die Nutzerdaten unter die Kontrolle der User zu stellen. Das Problem dabei sei, dass Daten über Incidents für Security Copilot von essenzieller Bedeutung sind - und die Kunden keine umfassenden Einblicke in den genauen Umgang mit solchen Daten hätten. "Woher soll man wissen, dass Daten wirklich geschützt sind, wenn man nicht die nötigen Tools an die Hand bekommt, um das einzusehen?", fragt sich Gartner-Analystin Litan.
Wann Microsofts Security Copilot offiziell für die Kunden verfügbar sein wird, ist derzeit noch nicht bekannt - ein baldiger Release ist jedoch zu erwarten. (fm)
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation CSO Online.