Kommentar von Adriana Calomfirescu, Endava Datenschutz im KI-Zeitalter – das kommt auf Unternehmen zu

Von Adriana Calomfirescu Lesedauer: 6 min

Anbieter zum Thema

Wie (weit) sollte Künstliche Intelligenz (KI) reguliert werden? Diese Frage hat durch den KI-Boom der letzten Monate eine neue Dringlichkeit erhalten. Häufig dreht sich die Diskussion dabei um die Sorge, dass unregulierte KIs schwerwiegende Folgen für die Gesellschaft haben können, zum Beispiel durch die Verbreitung von Desinformationen. Doch auch der Datenschutz spielt eine wichtige Rolle, schließlich werden die Systeme mit riesigen Datenmengen trainiert.

Die Autorin: Adriana Calomfirescu ist Group Head of Data Delivery bei Endava
Die Autorin: Adriana Calomfirescu ist Group Head of Data Delivery bei Endava
(Bild: Endava)

OpenAI hat eine wahre Welle losgetreten: Seitdem das Start-up seinen Chatbot ChatGPT und den Bildgenerator DALL-E 2 im vergangenen Jahr für die Öffentlichkeit verfügbar gemacht hat, springen mehr und mehr Unternehmen auf den KI-Trend auf oder werden neu gegründet, um KI-Modelle und ‑Anwendungen zu entwickeln. In Deutschland stufen laut dem aktuellen Emerging Technologies Report von Endava zudem knapp drei Viertel der Organisationen (73 Prozent) KI-basierte Automatisierung als relevant oder sehr relevant ein. Und zwei von fünf (39 Prozent) Befragten haben bereits eine Strategie für die Implementierung umgesetzt.

Unternehmen müssen sich der Gefahren und Chancen bewusst sein

Doch der Hype um KI bringt auch neue Risiken mit sich: So warnten etwa verschiedene KI-Forscher, darunter auch der CEO von OpenAI, in einem gemeinsamen Aufruf, dass KI das Potenzial besäße, die Menschheit auszulöschen. Konkrete Gefahr drohe beispielsweise durch die Entwicklung von Chemiewaffen durch KI-Systeme oder eine Machtergreifung durch mehrere KIs, die kollaborieren.

Wann (und ob) sie dazu in der Lage sein könnten, ist derzeit zwar fraglich, aber schon jetzt ist ernsthaftes Konfliktpotenzial erkennbar. So hat ein von einer KI erstelltes Bild von einer Explosion am Pentagon kürzlich für Aufregung gesorgt. Realistische Fälschungen und sogenannte Deepfakes, nicht nur von Bilder, sondern auch Videos, Stimmen und mehr, können sich schnell verbreiten und zu einem Klima der Desinformation beitragen. Auf persönlicher Ebene sollte sich darüber hinaus jeder Internetnutzer fragen, inwieweit KI-Unternehmen seine Daten verarbeiten, um die ihren Anwendungen zugrundeliegenden Modelle zu trainieren.

Die Thematik des Datenschutzes kam rund um die Veröffentlichung von ChatGPT bereits auf: Da laut der italienischen Datenschutzbehörde unter anderem für die Nutzer nicht ersichtlich war, welche der von ihnen eingegebenen Informationen gespeichert wurden, wurde der Chatbot kurzzeitig in dem Land verboten. Inzwischen ist er zwar wieder verfügbar, doch die Europäische Union drängt angesichts der rasanten Fortschritte inzwischen umso stärker auf die Regulierung von Künstlicher Intelligenz.

Unternehmen, die KI-Anwendungen in der täglichen Arbeit einsetzen oder eigene anbieten wollen, müssen daher umsichtig agieren und brauchen eine Strategie für den (rechts-)sicheren Umgang mit Daten. Diese sollte dabei verschiedene Aspekte umfassen, die auch ineinandergreifen:

Die gesetzlichen Vorgaben

Auch fünf Jahre nach ihrem Inkrafttreten stellt die Datenschutzgrundverordnung (DSGVO) viele Unternehmen noch immer vor Herausforderungen – obwohl zuvor eine zweijährige Übergangsfrist galt. In dieser Zeit sollten sie ihre internen Systeme so aufstellen, dass sie beispielsweise Fragen zur Verarbeitung persönlicher Daten problemlos beantworten können. Doch stattdessen wurden viele Unternehmen von der DSGVO und ihren Implikationen überrascht.

Das sollte sich bei der Regulierung von Künstlicher Intelligenz nicht wiederholen. Noch ist KI ein Spielplatz, an dem man sich weitestgehend frei ausprobieren kann. Doch das wird sich ändern und Organisationen müssen darauf vorbereitet sein. Das bedeutet konkret, dass sie zunächst ihre Kernmärkte definieren sollten: die Märkte, die für ihr Geschäft die größte Bedeutung haben und in denen sie mit hoher Wahrscheinlichkeit KI einsetzen werden. Anschließend können Unternehmen sich auf die KI-Debatten und -Regulierungsvorhaben in diesen Märkten konzentrieren. In der EU ist dies der AI Act. Aber beispielsweise auch in den USA wird zunehmend über dieses Thema diskutiert – auch weil die Anbieter selbst sich dafür einsetzen.

Letzteres passiert sicher nicht (nur) aus dem Gedanken heraus, dass KI einen gesetzlichen Rahmen braucht, sondern auch aus dem Wunsch, diesen mitzugestalten. Durch Partizipation können Organisationen sicherstellen, dass sie in Zukunft genug Freiraum für echte Innovationen haben. Gleichzeitig sind diejenigen, die sich proaktiv an Diskussionen beteiligen, natürlich viel besser auf Gesetze vorbereitet als Unternehmen, die die Entwicklungen nur von der Peripherie aus beobachten.

Die IT-Architektur

Daten sind der Schlüssel für KI, keine Frage – doch wie gehen Unternehmen mit diesen Daten konkret um? Das war schon ein zentraler Punkt bei der DSGVO und wird es nun erneut sein, allerdings in noch größerem Ausmaß. Unternehmen müssen deshalb heute schon entscheiden, wie sie ihr Datenmanagement im KI-Zeitalter aufstellen wollen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Derzeit werden Unternehmensdaten oft in zentralen Repositories wie einem Data Lake oder Data Warehouse gespeichert – zumindest in der Theorie. In der Praxis sind Datensätze oft im gesamten Unternehmen auf verschiedensten Servern und anderen Speicherorten verteilt und nicht miteinander verbunden, sie befinden sich also in Silos. Dies ist in vielerlei Hinsicht ein Problem: Wollen Unternehmen eine eigene KI-Anwendung mit ihren Daten trainieren, müssen sie relevante Datensätze erst suchen und zusammenführen. Das ist mühsam und kostet Zeit. Zudem werden Daten dafür oft kopiert, was wiederum dazu führen kann, dass deren Qualität sinkt – je nachdem wie gut die Daten gepflegt wurden, war sie womöglich schon von vornerein nicht wirklich gut . Aber um KI-Systeme zu trainieren, brauchen Organisationen qualitativ hochwertige, vertrauenswürdige Daten. Ist dies nicht der Fall, könnte dies zu Verzerrungen und falschen Entscheidungen führen. Schließlich verursacht das Kopieren von Daten auch zusätzliche Kosten für die Speicherung und kreiert neue Datensilos.

Unternehmen sollten sich daher überlegen, welche Daten für ihre KI-Anwendungen relevant sind und wie sie ihre IT-Architektur anpassen können, um diese Daten so nahtlos wie möglich für die entsprechenden Zwecke zu nutzen. Womöglich ist ein zentrales Repository der richtige Weg, wenn eine hohe Datenqualität sichergestellt wird. Vielleicht bietet sich aber auch eine Data-Mesh-Lösung an, bei der die Daten dezentral verbleiben und bei Bedarf in einer virtuellen Schicht zusammengeführt werden können.

Eine unternehmensweite Aufgabe

Unabhängig davon, wo und wie KI-relevante Daten gespeichert werden, müssen Unternehmen in der Lage sein, Data-Governance-Richtlinien und ‑Kontrollen umzusetzen. Dies ist entscheidend, damit tatsächlich nur die Daten für das Training von KIs verwendet werden, die dafür verwendet werden dürfen. So möchten manche Kunden vielleicht nicht, dass ihre persönlichen Daten oder Interaktionen zu diesem Zweck eingesetzt werden. Und, wie ein Beispiel von Samsung zeigt, fehlt unter Mitarbeitern manchmal das Bewusstsein, dass unternehmenskritische oder vertrauliche Informationen nicht in öffentlich zugängliche Anwendungen eingefügt werden sollten.

Das heißt: Neben technischen Lösungen, die den Umgang mit Daten regeln und den Datenschutz sicherstellen sollen, müssen Unternehmen auch Aufklärungsarbeit betreiben. KI und Daten sollten als unternehmensweite Aufgabe betrachtet werden. Denn früher oder später werden nahezu alle Mitarbeiter mit KI in Berührung kommen und müssen dann zumindest die Grundregeln für den Umgang kennen. Ist dies nicht der Fall, wird es womöglich – ähnlich wie bei der DSGVO – zu hohen Strafen für Organisationen kommen. Dies gilt es zu verhindern. Zudem sollte es Unternehmen ein Anliegen sein, die Arbeit mit KI intern zu fördern, weil sich dadurch die Produktivität steigern und die innerbetriebliche Effizienz erhöhen lässt, während die Mitarbeiter monotone Aufgaben abgeben können.

Unternehmen brauchen eine ganzheitliche KI-Strategie

Der Hype um KI ist nicht verwunderlich – ChatGPT ist zwar für Nutzer erstmal nur ein Textfeld, doch der Mehrwert erschließt sich vielen sofort, wenn sie sich Informationen zusammenfassen, Texte vorschreiben oder Ideen liefern lassen. Doch stehen wir dabei gerade erst am Anfang und können uns noch nicht vorstellen, wie KI die Welt verändern wird. Unternehmen müssen sich dennoch heute schon darauf vorbereiten und neben den Chancen auch die Risiken in den Blick nehmen. Dafür brauchen sie eine holistische Strategie, die KI in der gesamten Organisation etabliert und dabei Compliance in den Mittelpunkt stellt. Teil dieser Strategie sollte auch „AI-Alignment“ sein – ein Forschungsbereich, der sicherstellen will, dass KI-Systeme zuverlässig das tun, was Menschen von ihnen erwarten. So können Unternehmen KI-Systeme entwickeln, die an menschlichen Werten ausgerichtet sind und so einen gesellschaftlichen Mehrwert bieten.

(ID:49589889)