Suchen

Kommentar von Prof. Michael Huth, XAIN AG Wie entwickelt man DSGVO-konforme Modelle Künstlicher Intelligenz?

| Autor / Redakteur: Prof. Michael Huth / Nico Litzel

Für die Entwicklung von KI-Modellen braucht man große Mengen an guten Trainingsdaten. Je mehr Daten gesammelt werden, desto größer ist allerdings die Wahrscheinlichkeit, dass es zu Datenschutzverletzungen kommen kann. Die DSGVO schreibt deshalb eine Rechtsgrundlage für das Verarbeiten von personenbezogenen Daten vor.

Firmen zum Thema

Der Autor: Michael Huth ist CTO der XAIN AG und Professor am Imperial College London
Der Autor: Michael Huth ist CTO der XAIN AG und Professor am Imperial College London
(Bild: XAIN AG)

Der Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten ist ein Grundrecht.” Was kurz und prägnant beginnt, hat in den vergangenen Jahren für viel Diskussionen und Zündstoff gesorgt: die Datenschutzgrundverordnung (DSGVO). Kritiker monieren, dass die DSGVO zu mehr Verwaltungsaufwand führe, während Verfechter wie beispielsweise die Digitalpolitikerin und SPD-Bundesvorsitzende Saskia Esken betonen, dass es sich um ein „wunderbar durchsetzungsfähiges Datenschutzrecht“ handele.

Fakt ist, dass seit dem Inkrafttreten vor zwei Jahren Unternehmen viele Prozesse und Strukturen überprüfen und gegebenenfalls umstellen mussten. In einigen Fällen ließ sich das leichter umsetzen, in anderen Fällen ist dies sehr viel komplizierter – zum Beispiel, wenn Daten in technische Modelle einfließen, die Entscheidungsprozesse unterstützen.

Das AI Privacy Dilemma: Buridans Esel für die Neuzeit

Künstliche Intelligenz (KI) verarbeitet im maschinellen Lernen Daten in sogenannten KI-Modellen. Für die Entwicklung dieser KI-Modelle ergeben sich daraus ganz spezielle Herausforderungen. Dreh- und Angelpunkt ist hierbei das sogenannte AI Privacy Dilemma. Es lässt sich wie folgt zusammenfassen: Für maschinelles Lernen braucht man große Mengen guter Trainingsdaten. Die Qualität eines KI-Modells steht und fällt unter anderem auch mit der Quantität guter Daten. Je mehr Daten gesammelt werden, desto größer ist andererseits allerdings auch die Wahrscheinlichkeit, dass es zu (potenziellen) Datenschutzverletzungen kommen kann. Die DSGVO schreibt deshalb eine Rechtsgrundlage für das Verarbeiten von personenbezogenen Daten vor.

Neben den berechtigten ethisch-moralischen Bedenken kommen hier darüber hinaus auch noch rechtliche Aspekte zum Tragen: Mit der DSGVO ist ein Regelwerk in Kraft getreten, das für Unternehmen bei Datenschutzverletzungen zu empfindlichen Strafen führen kann, wie ein Blick auf den GDPR Enforcement Tracker der internationalen Kanzlei CMS verdeutlicht.

Was können Unternehmen also tun, damit sie bei der KI-Anwendung nicht wie Buridans Esel zwischen zwei Heuhaufen – Privacy Compliance und Effektive KI – verhungern? Welche technischen Möglichkeiten gibt es, um KI-Modelle so zu trainieren, dass der Datenschutz bereits von Beginn an integriert ist?

Lösungsansätze im Vergleich: Datenanonymisierung vs. Federated Learning

Um dieses AI Privacy Dilemma aufzulösen, kann man unterschiedliche Wege einschlagen. Die wohl populärste Methode ist die Datenanonymisierung. Darunter versteht man ein Bündel von Methoden deren Einsatz die Datenmenge so verändern, dass in ihr kein Personenbezug mehr besteht, sie aber immer noch hohen Informationswert für das maschinelle Lernen oder andere Analysen besitzt. Hierfür müssen die einzelnen Anwendungsfälle und Datenmengen evaluiert werden, um zu verstehen, welche Anonymisierungsmethoden im konkreten Falle am besten in welcher Kombination angewandt werden sollten.

Dies ist nicht nur aufwändig, sondern ist zum Teil auch mit erheblichen Risiken verbunden. Zum Beispiel können Ansätze des maschinellen Lernens verwendet werden, um aus derart anonymisierten Datenmengen wieder einen Personenbezug herzustellen. Selbst bei neueren und vielversprechenden Anonymisierungsmethoden – wie der Generierung von synthetischen Daten oder der sogenannten Differential Privacy – muss dieser zusätzliche Aufwand betrieben werden – und auch in diesen Fällen gibt es noch erhebliche Restrisiken.

Einen anderen Ansatz verfolgt das sogenannte Federated Learning. Anstatt die gesammelten Daten zu verändern, setzt diese dezentrale Methode bei den Algorithmen an. Die Daten, die zum Trainieren der KI-Modelle benötigt werden, werden gar nicht erst gesammelt, sondern bleiben auf den Endgeräten und somit beim Nutzer. Es werden hierbei also nicht die Daten zum Algorithmus, sondern der Algorithmus zu den Daten gebracht. Statt eines großen zentralen KI-Modells gibt es hier eine Vielzahl einzelner Modelle, die im ersten Schritt direkt auf den Endgeräten mit den dort befindlichen Daten trainiert werden. In einem zweiten Schritt werden lediglich die Ergebnisse dieser einzelnen Modelle schließlich zu einem aggregierten Modell zusammengefasst. Da bereits trainierte KI-Modelle, unter Berücksichtigung etwaiger technischer Angriffspunkte, aus rechtlicher Sicht nicht unter die DSGVO fallen, erleichtert dies für Unternehmen vieles.

Federated Learning führt insgesamt zu einer viel komplexeren KI, als wenn nur an einer zentralen Stelle mit (eventuell auch noch veränderten) Daten trainiert worden wäre. Zwar ist für diese Methode somit ein größerer Entwicklungsaufwand notwendig, allerdings bietet Federated Learning ein sehr hohes Maß an Datenschutz. Einmal auf die Schiene gestellt, ist sie auch noch hochgradig nutz- und skalierbar. Hinzu kommt, dass die Methode auch asynchron funktioniert und nicht mehr große Datenmengen verschickt werden müssen, was Kosten sparen kann. Außerdem ermöglicht es einen größeren Schutz vor potenziellen Angriffen, da mögliche Angreifer eine Vielzahl an Endgeräten gleichzeitig ins Visier nehmen müssten.

Fazit: DSGVO als Innovationstreiber

Die DSGVO hat viele bestehende Prozesse – zurecht – in Frage gestellt. Gleichzeitig führt dies allerdings auch zu einem Innovationsschub, da hier auch gleich grundlegende Parameter neu gedacht werden können. Darüber hinaus hat die Verordnung auch Strahlkraft für weitere Gesetzgebungsprozesse in aller Welt entwickelt. Für Unternehmen bedeutet dies, dass sie ihre Technologien besser heute als morgen „future-proof“ machen sollten – zum Beispiel mit dem Einsatz DSGVO-konformer KI-Modelle.

Professor Michael Huth

Professor Michael Huth (Ph.D.) ist Mitgründer sowie CTO der XAIN AG und lehrt seit 2001 Computer Science am Imperial College London. Seine Spezialgebiete sind u. a. Cybersecurity sowie Sicherheit und Datenschutz beim Machine Learning. Er agierte als Technischer Leiter des Projekts „Harnessing Economic Value“ beim britischen PETRAS IoT Cybersecurity Research Hub. Gemeinsam mit Leif-Nissen Lundbæk und Felix Hahmann gründete er 2017 XAIN. Das Berliner Unternehmen entwickelt eine eigene Plattform und Anwendungen für datenschutzkonforme KI-Lösungen.

Artikelfiles und Artikellinks

(ID:46648795)