Mit zunehmendem Einsatz generativer Künstlicher Intelligenz (KI) wächst auch die Verantwortung: Unternehmen müssen sicherstellen, dass ihre KI-Systeme nicht nur leistungsfähig, sondern auch zuverlässig und nachvollziehbar und vor Missbrauch geschützt sind. Insbesondere große Sprachmodelle (Large Language Models – LLMs) müssen validiert und abgesichert werden, um Missbrauch durch Cyberkriminelle zu verhindern.
Der Autor: Steve Barrett ist VP EMEA bei Datadog
(Bild: Datadog)
Verbesserte Beobachtbarkeit (Observability) und kontinuierliches Monitoring der Modellverhalten sowie eine konsequente Nutzung von Data-Lineage-Techniken sind entscheidend, um rechtzeitig zu identifizieren, wann und wie LLMs kompromittiert wurden. Diese Methoden stärken die Sicherheitslage und schützen die KI-Investitionen von Unternehmen. Gleichzeitig sorgen moderne Debugging-Techniken dafür, dass die KI-Anwendungen dauerhaft zuverlässig und performant arbeiten.
Unternehmen sollten daher einen vorsichtigen und strukturierten Ansatz verfolgen, um die Sicherheit und Wirtschaftlichkeit ihrer KI-Produkte langfristig zu gewährleisten.
Sicherheitsplanken für LLMs
Durch den Einsatz neuer KI-Lösungen erhöht sich die Datenmenge, die in Unternehmen verarbeitet wird, erheblich. Organisationen müssen gleichzeitig jederzeit nachvollziehen können, welche Informationen sie ihren Modellen zur Verfügung stellen – und wie diese verarbeitet und ausgespielt werden.
LLMs sind nicht deterministisch. Das heißt: Selbst bei identischen Eingaben kann es zu unterschiedlichen Ausgaben kommen. Diese Unvorhersehbarkeit macht sie faszinierend – aber auch potenziell riskant. Sie können „halluzinieren“ und dabei falsche, irrelevante oder schädliche Inhalte produzieren. Unternehmen sollten daher klare Sicherheitsleitplanken („Guardrails") implementieren, um sicherzustellen, dass die Modelle weder illegale noch gefährliche Informationen aufnehmen oder weitergeben können.
Jailbreaking & Co: Wenn Nutzer klüger sind als die Schutzmechanismen
Eine zentrale Aufgabe moderner KI-Systeme ist es, zu erkennen, wenn sie für böswillige Zwecke missbraucht werden. Besonders kundenorientierte LLM-Anwendungen wie Chatbots sind durch sogenannte Jailbreaking-Attacken gefährdet, bei denen Angreifer gezielt Schutzmaßnahmen umgehen, um sensible Informationen zu extrahieren.
Um diese Risiken zu minimieren, ist ein umfassendes Monitoring der KI-Modelle unverzichtbar. Durch konsequente Beobachtung der Zugriffsverhalten, Eingabedaten und Modellausgaben können ungewöhnliche Aktivitäten schnell erkannt und abgewehrt werden. Dies ermöglicht es Sicherheitsteams und Data Scientists, proaktiv Sicherheitslücken und Angriffen entgegenzuwirken, sensible Daten zu schützen und die Integrität der LLM-Anwendungen zu wahren.
Data Lineage als Spurensicherung im Daten-Dschungel
Einer der unterschätztesten Risikofaktoren in der KI-Entwicklung sind verfälschte oder unsaubere Datenquellen. Und diese müssen nicht einmal aus böser Absicht kommen – schon eine unzureichende Dokumentation oder veraltete Informationen können reichen, um ein Modell in die Irre zu führen.
Hier kommen Data-Lineage-Verfahren ins Spiel: Durch das Nachverfolgen der Herkunft und des Weges der Daten können Sicherheitsteams gezielt überprüfen, ob Datenquellen vertrauenswürdig und authentisch sind. Dadurch wird gewährleistet, dass nur validierte Daten in KI-Produkte integriert werden.
Debugging per Clustering
Neben der Sicherheit ist auch die langfristige Performance von KI-Produkten entscheidend, um ihren wirtschaftlichen Nutzen zu maximieren. Hier kommen insbesondere Debugging-Techniken wie Clustering zum Einsatz. Dabei werden, Ereignisse in Gruppen gebündelt, schnell und effizient auf Fehlverhalten der KI analysiert und behoben.
Beispielsweise können mittels Clustering bei einem Chatbot besonders häufig gestellte Fragen analysiert werden, um Muster fehlerhafter Antworten zu identifizieren. Das spart wertvolle Zeit und Ressourcen und verbessert gleichzeitig die Qualität der KI-Ergebnisse im produktiven Einsatz.
Langfristig erfolgreiche KI-Nutzung
Seit der Veröffentlichung leistungsfähiger Modelle wie GPT, LaMDA oder LLaMA gewinnt Generative KI in Wirtschaft, Finanzen, Sicherheit und Forschung zunehmend an Bedeutung. Doch bei aller Geschwindigkeit dürfen Unternehmen Sicherheits- und Leistungsfragen nicht vernachlässigen. Ein fehlerhaftes oder kompromittiertes KI-Produkt bedeutet nicht nur finanzielle Risiken, sondern kann auch rechtliche und sicherheitsrelevante Konsequenzen nach sich ziehen. Techniken wie Data Lineage, umfassende Beobachtbarkeit und fortgeschrittenes Debugging sind daher essenziell, um generative KI langfristig erfolgreich einzusetzen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.