Positionspapier des BSI Stärken, Schwächen und Risiken von KI-Sprachmodellen

Von Martin Hensel Lesedauer: 2 min

Anbieter zum Thema

Große KI-Sprachmodelle („Large Language Models“, LLMs) sind aktuell in aller Munde. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat deshalb ein Positionspapier veröffentlicht, das Chancen und Risiken der Technologie beleuchtet.

KI-Sprachmodelle bieten vielfältige Chancen, aber auch Risiken und Gefahren.
KI-Sprachmodelle bieten vielfältige Chancen, aber auch Risiken und Gefahren.
(Bild: Julius H. / Pixabay)

KI-Sprachmodelle sind seit der Veröffentlichung von Modellen wie ChatGPT weithin bekannt. Im Rahmen des 19. Deutschen IT-Sicherheitskongresses hat das BSI deshalb in einem Positionspapier die Stärken, Schwächen und Risiken sowie geeignete Vorsichtsmaßnahmen rund um derartige Sprachmodelle zusammengefasst.

„In Sachen IT-Sicherheit können KI-Sprachmodelle sich als nützliche Werkzeuge erweisen. Sie können beim Erkennen von Spam oder Phishing-Mails hilfreich sein oder beim Aufspüren unerwünschter Inhalte wie Fake News oder Hate Speech auf Social-Media-Plattformen“, erklärt BSI-Vizepräsident Dr. Gerhard Schabhüser. In gleichem Maße würden die Modelle aber auch Risiken bergen. Bereits jetzt werde im Darknet über den Einsatz von KI zur Erstellung von Schadcode und Phishing-Mails diskutiert. „Und: KI-gestützte Sprachmodelle eignen sich leider sehr gut zur Erstellung und Verbreitung von Falschinformationen. Dagegen müssen wir jetzt aktiv werden und unsere Gesellschaft für den Umgang mit KI schulen“, meint Schabhüser.

Risikobehaftete Werkzeuge

Das BSI sieht unter anderem in manipulierten Bildern, Videos und Sprachausgaben Risiken, denen mit geeigneten Vorsichtsmaßnahmen begegnet werden sollte. So könnte etwa die Authentizität von Texten und Nachrichten durch Verschlüsselungsverfahren nachgewiesen werden, die ihre Urheberschaft technisch belegen. Zudem sei die Aufklärung der Nutzer über die Fähigkeiten einer KI besonders wichtig. Angesichts der sprachlich oftmals fehlerfreien Textgenerierung entstehe häufig der Eindruck eines menschenähnlichen Leistungsvermögens und damit zu großes Vertrauen in KI-generierte Inhalte. Sensibilisierung für diese Problematik sei hier nötig.

Unternehmen oder Behörden, die LMMs in ihre Prozesse integrieren wollen, sollten zunächst eine Risikoanalyse für ihren konkreten Anwendungsfall vornehmen. Das BSI rät zudem dazu, die im Positionspapier genannten Risiken zu evaluieren und festzustellen, ob diese eine Gefahr für die Arbeitsabläufe darstellen. Existierende Sicherheitsmaßnahmen sollten dann entsprechend angepasst werden. Grundsätzlich betrachtet das BSI KI-Sprachmodelle derzeit als Werkzeuge, deren Ergebnisse in jedem Fall durch eine menschliche Intelligenz überprüft werden sollten.

(ID:49459090)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung