LLM-Risiken und -Missbrauch vermeiden Kontrollen und Maßnahmen zur sicheren Einführung von LLMs

Von Bernhard Lück 2 min Lesedauer

Anbieter zum Thema

Elastic hat in seinen Elastic Security Labs die Sicherheit von Large Language Models (LLMs) untersuchen lassen. Die aus den Ergebnissen erstellte Sicherheitsbewertung empfiehlt Best Practices, um Angriffe zu entschärfen sowie Maßnahmen, um LLM-Missbrauch zu vermeiden.

Trotz des Potenzials von LLMs löst deren umfassende Einführung bei Unternehmensleitungen noch Unbehagen aus.(Bild:  © dariaren – stock.adobe.com)
Trotz des Potenzials von LLMs löst deren umfassende Einführung bei Unternehmensleitungen noch Unbehagen aus.
(Bild: © dariaren – stock.adobe.com)

Die Implementierungen von generativer KI und LLMs haben in den vergangenen 18 Monaten stark zugenommen und werden in einigen Unternehmen schnellstmöglich umgesetzt. Dadurch, so Elastic, habe sich die Angriffsfläche vergrößert. Gleichzeitig mangele es für Entwickler und Sicherheitsteams an klaren Richtlinien, um die neuen LLM-Technologien sicher einzuführen.

„Trotz des Potenzials von LLMs löst deren umfassende Einführung bei Unternehmensleitungen noch Unbehagen aus, da sie potenziellen Angreifern ein weiteres Einfallstor bieten, um private Daten abzugreifen oder in IT-Ökosysteme einzudringen“, sagt Jake King, Head of Threat and Security Intelligence bei Elastic. „Die Veröffentlichung offener Erkennungsinhalte liegt in der DNA von Elastic. Sicherheitswissen sollte für alle frei zugänglich sein, denn nur gemeinsam sind wir sicher. Wir hoffen, dass alle Organisationen von diesen neuen Regeln und Richtlinien profitieren, unabhängig davon, ob sie Kunden von Elastic sind oder nicht.“

Der Bericht „LLM Safety Assessment: The Definitive Guide on Avoiding Risk and Abuses“ basiert auf der Forschungsarbeit des Open Web Application Security Project (OWASP) und konzentriert sich auf die gängigsten LLM-Angriffstechniken. Die Forschungsergebnisse enthalten wichtige Informationen, mit denen Sicherheitsteams ihre LLM-Implementierungen schützen können, u. a. ausführliche Erklärungen von Risiken und Best Practices sowie empfohlene Maßnahmen, um Angriffe abzuwehren.

Die im Bericht vorgestellten Gegenmaßnahmen decken verschiedene Bereiche der Unternehmensarchitektur ab – hauptsächlich produktinterne Kontrollen –, die Entwickler bei der Erstellung von Anwendungen mit LLM-Integration übernehmen sollten. Sie stellen außerdem Maßnahmen zur Informationssicherheit vor, die Security Operations Center (SOC) hinzufügen und überprüfen müssen, um die sichere Nutzung von LLMs zu gewährleisten.

Zusätzlich zu den mehr als 1.000 bereits veröffentlichten und auf GitHub verfügbaren Erkennungsregeln haben die Elastic Security Labs eine weitere Reihe von Erkennungsregeln speziell für LLM-Missbrauchsfälle hinzugefügt.

„Mit der Normalisierung und Standardisierung von Datenerfassung und -analyse können wir die Branche für alle sicherer gestalten, und genau darauf zielt diese Forschung ab“, erklärt King. „Unser Repository mit Erkennungsregeln, ein verlässliches und extrem schnelles Werkzeug zur Überwachung von Bedrohungen, deckt jetzt auch LLM-Implementierungen ab. Die Regeln wurden in Übereinstimmung mit der Elastic-Selbstverpflichtung für Transparenz erstellt.“

(ID:50038354)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung