Generative-AI-Security-Studie
Je populärer das LLM-Projekt, desto unsicherer
Foto: Tada Images - shutterstock.com
Security-Anbieter Rezilion hat im Rahmen seiner Studie "Expl[AI]ning the Risk" (Link führt zum Download - im Austausch gegen Daten) 50 populäre Gen-AI-Projekte auf der Entwicklerplattform GitHub hinsichtlich ihres Sicherheitsniveaus analysiert. Dazu nutzten die Sicherheitsexperten die OpenSSF Scorecard. Dieses quelloffene Tool überprüft verschiedene Bereiche der Software Supply Chain - unter anderem den Quellcode, Build-Abhängigkeiten, Testing oder die Projektwartung. Am Ende steht dabei ein Score zwischen 0 (schlecht) und 10 (optimal).
Die alarmierende Feststellung der Experten: Je beliebter ein Generative-AI- beziehungsweise Large-Language-Model (LLM) -Projekt ist, desto niedriger fällt sein Security Score (auf Basis der OpenSSF Scorecard) aus. "Das unterstreicht die Tatsache, dass die Popularität eines Projekts nichts über dessen Qualität - geschweige denn sein Security-Niveau - aussagt", schreiben die Forscher in ihrem Bericht.
"LLM-Sicherheitslage lässt zu wünschen übrig"
Auto-GPT - eines der aktuell beliebtesten GPT-Projekte auf GitHub - bringt es laut den Forschern etwa auf einen Sicherheits-Score von 3,7 - trotz seiner 138.000 Sterne auf der Plattform. Und auch die anderen untersuchten Generative-AI-Projekte performen nicht besser: Der Durchschnittswert der 50 untersuchten KI-Projekte auf GitHub lag bei ernüchternden 4,6 von 10 Punkten.
"Der Reifegrad und die Sicherheitslage des Open-Source-Ökosystems rund um Large Language Models lässt enorm zu wünschen übrig", resümieren die Security-Profis in ihrem Bericht und mahnen: "Solange diese Systeme an Popularität und Akzeptanz gewinnen - die Sicherheitsstandards, nach denen sie entwickelt und gewartet werden, jedoch unverändert bleiben, ist es unvermeidlich, dass auch weiterhin signifikante Schwachstellen auftauchen werden, die von Cyberkriminellen ausgenutzt werden können."
Yotam Perkal, Director of Vulnerability Research bei Rezilion, empfiehlt Unternehmen deshalb: "Bleiben Sie wachsam und priorisieren Sie Sicherheitsmaßnahmen, um neu aufkommende Risiken zu mindern und eine verantwortungsvolle und sichere Nutzung von Large Language Models zu gewährleisten."
Unterstützend empfiehlt der Experte Unternehmen:
auch bei Generative-AI-Systemen auf den Security-by-Design-Ansatz zu setzen;
bestehende Frameworks wie SAIF, NeMo Guardrails oder MITRE ATLAS zu nutzen;
LLM-Interaktionen kontinuierlich zu überwachen und zu protokollieren sowie
große Sprachmodelle regelmäßig zu aktualisieren und zu optimieren.
"Die Verantwortung dafür, Gen-AI-Risiken zu mindern und zu managen, liegt sowohl bei den Organisationen, die die Technologie integrieren, als auch bei den Entwicklern, die daran beteiligt sind, diese Systeme aufzubauen und instandzuhalten", unterstreicht Perkal. (fm)
Sie wollen weitere interessante Beiträge rund um das Thema IT-Sicherheit lesen? Unser kostenloser Newsletter liefert Ihnen alles, was Sicherheitsentscheider und -experten wissen sollten, direkt in Ihre Inbox.
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation CSO Online.