gesponsertAufbau einer AI Governance im Unternehmen Erste Schritte zur Etablierung von AI Governance

3 min Lesedauer

Gesponsert von

Weltweit diskutieren Unternehmen, wie sie die Vorteile von AI auf gesetzeskonforme Weise maximieren können. Doch wie startet man, um eine verantwortungsvolle Nutzung von AI sicherzustellen?

AI Governance ist ein komplexes Thema voller Fallstricke. OneTrust hilft mit tiefgreifendem Know-how weiter.(Bild:  OneTrust)
AI Governance ist ein komplexes Thema voller Fallstricke. OneTrust hilft mit tiefgreifendem Know-how weiter.
(Bild: OneTrust)

Mit dem Wachstum von Artificial Intelligence (AI) entstehen neue Anwendungsfälle, die Unternehmen verändern. Die hohen Erwartungen an AI bringen neue Herausforderungen und Risiken mit sich, die das Vertrauen untergraben können. Unternehmen müssen daher ernsthafte Schritte unternehmen, um sich auf die Auswirkungen von AI vorzubereiten.

Weltweit sind Regulierungsbehörden bereits darauf fokussiert, Risiken von AI zu minimieren und verantwortungsvolle Innovation zu unterstützen. Datenschutz und Transparenz stehen im Mittelpunkt der Politikgestaltung. Um diesen neuen Anforderungen gerecht zu werden, etablieren immer mehr Unternehmen AI-Governance-Programme.

Was ist AI Governance?

AI Governance vereint Rahmenwerke, Richtlinien und Best Practices der Industrie zu einem neuen Compliance-Bereich, der die negativen Auswirkungen von AI mindert und Unternehmen ermöglicht von AI zu profitieren. Ein verantwortungsvolles Programm umfasst die Überwachung des Datenlebenszyklus, um rechtliche, datenschutzrechtliche, ethische und Standards der Informationssicherheit einzuhalten.

Case Study: Wie OneTrust AI Governance im Unternehmen etabliert hat

OneTrust hat ein interdisziplinäres AI-Governance-Gremium mit Experten aus Recht, Ethik, Datenschutz, Informationssicherheit, Architektur, F&E, Produktentwicklung und Management etabliert. Dieses Gremium überwacht AI-bezogene Richtlinien und berichtet an ein Komitee, das Datenschutz- und Sicherheitsoperationen integriert und bei Bedarf an das Management weiterleitet.

Die ersten Schritte der Zusammenarbeit der Teams können in vier Schlüsselbereiche gegliedert werden:

  • 1. Entwicklung von Richtlinien
  • 2. Risikomanagement für Drittanbieter
  • 3. Umsetzung von Compliance-Vorgaben
  • 4. Förderung der AI-Kompetenz

Entwicklung von Richtlinien

Die Schaffung sicherer Bedingungen für die Bereitstellung von AI beginnt mit der Entwicklung von Kontrollen zur Bewältigung bekannter Risiken und deren Kommunikation durch klare Richtlinien. Wie beim Management von Datenschutzprogrammen werden klare Ziele, Richtlinien, Kontrollen und Überwachungsmechanismen im AI-Programmmanagement eingesetzt.

Die Entwicklung umfassender Nutzungsrichtlinien für den Einsatz von AI ist aufgrund begrenzter Informationen über Risiken und Kontrollen herausfordernd. Diverse Teams arbeiteten zusammen, um grundlegende Standards und robuste Grenzen zu entwickeln, die abteilungsübergreifend eine sichere Umgebung für die Implementierung von AI schaffen sollen.

Risikobewertung von Drittanbietern

Die Schaffung eines robusten Prozesses für die Integration von AI-Dienstleistern ist entscheidend. Die Hauptaufgabe des Datenschutzteams besteht darin, wesentliche Datenschutzrisiken im Zusammenhang mit AI zu identifizieren und Anbieter effizient zu bewerten, um diese Risiken zu adressieren. Informationssicherheits-, Sicherheitsarchitektur-, Rechts- und Ethikteams tragen zu AI-Risikobewertungen bei. Regelmäßige Neubewertungen von AI-Systemen gewährleisten Rechenschaftspflicht und die frühzeitige Erkennung von Verstößen gegen Anwendungsfälle. Systemanbieter werden in zwei Listen verwaltet: genehmigt und verboten. Genehmigte AI-Systeme und Anwendungsfälle müssen durch eine Risikobewertung (u.a. Datensparsamkeit, Begrenzung der Datenaufbewahrung, Datensicherheit und Rechenschaftspflicht) geprüft und vom AI-Governance-Gremium genehmigt werden. Die Entwicklung und Verbreitung dieser Listen stellt sicher, dass nur geprüfte Systeme im Unternehmen verwendet werden. Genehmigte AI-Systeme werden in einem Inventar zusammengefasst und nach Risikostufen gruppiert.

Umsetzung von Compliance-Vorgaben

Die Regulierungsbehörden für AI führen laufend neue Vorschriften ein, darunter zusätzliche Transparenzoffenlegungen und Bias-Assessments. Diese Vorschriften betreffen Kernbereiche des Datenschutzes.

Das Datenschutzteam von OneTrust überwacht AI-bezogene Compliance-Anforderungen und sammelt zusätzliche Informationen von AI-Anbietern, um Systemoperationen und Auswirkungen zu verstehen. Dieses Verständnis ist entscheidend für die Bewertung von Datenschutzrisiken in hochriskanten AI-Systemen. Neue Vorschriften können erfordern, dass AI-Benutzer Opt-outs von Datenverarbeitungszwecken für Entscheidungsfindungszwecke anbieten.

Förderung der AI-Kompetenz

Die Aufklärung aller Mitarbeiterinnen und Mitarbeiter über AI und ihre Risiken fördert den verantwortungsvollen Umgang mit der Technologie. Bei OneTrust führt ein spezielles Trainingsprogramm in AI-Konzepte, die Klassifizierung von Systemen und Nutzungsrichtlinien ein. Es adressiert ebenso, wie neue AI-Systembewertungen angefordert und Bedenken gemeldet werden können.

Unternehmen, die AI-Systeme einführen, müssen stark risikobehaftete Daten vor Missbrauch schützen. Ziel sollte es sein, AI-Tools verantwortungsvoll einzusetzen, um die Einhaltung regulatorischer Standards sicherzustellen, ohne das Vertrauen der Nutzer zu gefährden. Um dies zu erreichen, sollten Unternehmen bestehende Infrastrukturen daraufhin überprüfen, wie sie an die neuen Herausforderungen der AI Governance angepasst werden können.

Weitere Informationen:

Weitere Details über OneTrusts Weg zu einem holistischen AI-Governance-Programm lesen Sie hier.

(ID:50054784)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung