Interview mit Jessica Newman, Zentrum für langfristige Cybersicherheit an der UC Berkeley „Die Kluft zwischen den USA und der EU im Bereich KI ist übertrieben“
Anbieter zum Thema
Eine „Bill of Rights“ für die KI-gestützte Welt, regulatorische Herausforderungen und soziotechnische Risiken: Im Interview wirft Jessica Newman vom Zentrum für langfristige Cybersicherheit an der UC Berkeley einen Blick auf die jüngsten KI-Entwicklungen in den Vereinigten Staaten und Europa.

BigData-Insider: Frau Newman, Sie schreiben, dass es sowohl „übertrieben als auch kontraproduktiv“ sei, sich auf die regulatorische „Kluft“ zwischen der EU und den USA bei der Entwicklung von KI-Standards zu konzentrieren. Warum sind Sie der Meinung, dass diese Unterschiede unverhältnismäßig stark hervorgehoben werden?
Newman: In der Öffentlichkeit ist die Auffassung weit verbreitet, dass die EU der technologische Wächter der Welt ist und die USA den digitalen Wilden Westen darstellen. Doch wenn es um KI geht, scheint die Realität etwas differenzierter zu sein. Das EU-Gesetz zur Künstlichen Intelligenz (Artificial Intelligence Act, AIA) verbietet eine kleine Anzahl von KI-Anwendungen, die unannehmbare Risiken darstellen, und führt Verpflichtungen für Systeme mit hohem Risiko ein. Der Großteil der KI-Nutzung bleibt jedoch ungeregelt, und es werden lediglich freiwillige Leitlinien vorgeschlagen, um einen verantwortungsvollen Einsatz zu fördern. Ich denke also nicht, dass es sich um einen extremen Regulierungsvorschlag handelt.
Gleichzeitig gibt es in den Vereinigten Staaten bereits Gesetze, die einen Teil der Regulierung leisten, die der AIA zu ermöglichen versucht. Viele Städte hierzulande haben die biometrische Echtzeitüberwachung durch die Strafverfolgungsbehörden bereits verboten. Auch die Federal Trade Commission hat angedeutet, dass KI-Produkte unter ihre Verbraucherschutzgesetze fallen werden. Die EU hat strengere Datenschutzgesetze, aber die Unterschiede zwischen Washington und Brüssel sind weniger grundlegend, wenn es um KI-Technologien geht.
Außerdem gibt es zahlreiche Signale für ein gemeinsames Interesse an transatlantischer Zusammenarbeit in diesem Bereich. Die OECD-Grundsätze für Künstliche Intelligenz wurden sowohl von den USA als auch von Deutschland sowie von Dutzenden anderer gleichgesinnter Länder gebilligt. Beide Länder sind Mitglieder der Globalen Partnerschaft zur Künstlichen Intelligenz (Global Partnership on Artificial Intelligence, GPAI). Die jüngsten Beratungen des EU-US-Handels- und Technologierats (Trade and Technology Council, TTC) sind eine wirklich gute Gelegenheit für die Verbündeten, bei kritischen Technologien zusammenzuarbeiten. Sowohl die USA als auch die EU erkennen an, dass KI-Technologien die Sicherheit und die Grundrechte der Menschen verletzen können, und sind sich einig, dass es dringend notwendig ist, diese gefährlichen und schädlichen Folgen durch Kooperation zu verhindern. Ziel ist es, Hochrisikofälle zu beseitigen und proaktiv gemeinsame KI-Standards festzulegen.
Eric Lander, der das Büro für Wissenschafts- und Technologie-Politik (Office of Science and Technology Policy, OSTP) im Weißen Haus leitet, und Alondra Nelson, OSTP-Vize-Chefin für Wissenschafts- und Gesellschaftspolitik, veröffentlichten kürzlich einen Beitrag in WIRED. Darin weisen sie darauf hin, dass das Weiße Haus eine „Bill of Rights für eine KI-gestützte Welt“ vorbereitet. Welche Folgen könnte dies für die amerikanische KI-Strategie haben?
Newman: Es ist ein gutes und wichtiges Zeichen, das einen Wandel in der KI-Politik der USA signalisiert. Es bedeutet nicht nur, dass wir KI-Risiken eindämmen werden, sondern auch, dass wir die Rechte und Werte der Amerikaner in den Mittelpunkt stellen werden, um sicherzustellen, dass unsere neuen Technologien die Art von Gesellschaft unterstützen, von der wir alle ein Teil sein wollen. Das bedeutet, dass es inakzeptabel ist, KI-Systeme zu haben, die Menschen massiv schaden werden. Wir müssen das Konzept kodifizieren, dass mächtige Technologien auch den Respekt für unsere demokratischen Werte voraussetzen. Derzeit befindet sich die „Bill of Rights“ in der Phase der öffentlichen Besprechungen, aber es wurde bereits angedeutet, dass sie sich auf die Anforderungen an die staatliche Auftragsvergabe auswirken oder zu neuen Gesetzen und Vorschriften führen könnte.
Sehen Sie eine Bereitschaft des Silicon Valley, die von Washington vorgeschlagenen „Bill“ zu unterstützen?
Newman: Ich habe den Eindruck, dass die Unternehmen im Valley zurzeit generell mehr Orientierung und Regulierung fordern. Die jüngsten Enthüllungen im Zusammenhang mit den Facebook Papers haben deutlich gemacht, dass die derzeitigen Rechenschaftsmechanismen für die großen Tech-Giganten nicht ausreichen.
Die „AI Bill of Rights“ ist nur für die USA gedacht, aber wir sprechen hier über Unternehmen, die länderübergreifend tätig sind ...
Newman: Bis zu einem gewissen Grad können sogar länderbezogene Gesetze beeinflussen, wie diese Unternehmen auf der globalen Bühne agieren. Dies ist zum Beispiel bei der Datenschutz-Grundverordnung der EU und dem kalifornischen Verbraucherschutzgesetz (California Consumer Privacy Act, CCPA) der Fall. Aber es geht nicht nur um den Schaden für den Einzelnen, sondern auch um die Folgen für Gemeinschaften und Gesellschaften, um die potenziellen Risiken sozialer Unruhen. Es könnte auch noch um die Auswirkungen von Social Credit Scoring auf gesellschaftlicher Ebene und den Zustand der Demokratien gehen. Ich denke, dass die Arbeit, die das Nationale Institut für Standards und Technologie (National Institute of Standards and Technology, NIST) derzeit leistet, um den Rahmen für das KI-Risikomanagement zu entwickeln, von großer Bedeutung sein wird. Es wird eine gemeinsame Sprache und eine Reihe von Praktiken bieten, mit denen Unternehmen arbeiten können, um eine robustere Reihe von KI-Praktiken mit Gemeinsamkeiten zwischen ihnen zu entwickeln. Und ich weiß, dass auch die EU den Fortgang dieser Arbeit genau verfolgt.
Olaf Groth, Professor für globale Strategie, spricht von der Magna Charta für die globale KI-Wirtschaft, einer kollektiv entwickelten KI-Charta der Rechte. Glauben Sie, dass so etwas möglich ist?
Newman: Ich mag diese Idee. Ich verstehe sie so, dass es um ein globales Dokument geht, das die Freiheit der Menschen und ihre Kontrolle über undurchsichtige maschinelle Entscheidungen bekräftigt. Es könnte sicherlich von einem der verschiedenen internationalen Foren aufgegriffen werden. Ich würde mir wünschen, dass sie mehr Anklang findet, denn wir brauchen sinnvolle globale Rahmenwerke dieser Art.
Welche Foren sind Ihrer Meinung nach derzeit die erfolgreichsten Austauschplattformen für die EU und die USA zum Thema KI?
Newman: Die GPAI leistet hervorragende Arbeit auf dem Gebiet der KI-Forschung. Die Normen, die derzeit entwickelt werden, und die Art und Weise, wie sie gestaltet werden, werden den Verlauf der technologischen Entwicklungen und deren Auswirkungen auf der ganzen Welt verändern. Die Zusammenarbeit zwischen der EU und den USA könnte also eine starke Voraussetzung bieten, um die Aushöhlung der Menschenrechte durch die Verbreitung von KI-Technologien zu verhindern.
Auch bei der ersten Sitzung des TTC in Pittsburgh wurden eine Reihe von Verpflichtungen eingegangen, mit denen die USA und die EU meiner Meinung nach zuallererst beginnen sollten. Hervorgehoben wurden Mechanismen für den Informationsaustausch und die Koordinierung internationaler Standards. Es wurde erörtert, wie Überwachung, Desinformation und soziale Manipulation mit KI-Technologien bekämpft werden können. Wie konvergente Kontrollansätze für sensible duale Technologien entwickelt werden können. Dies ist ein Bereich, der sehr bedeutsam sein kann. Ich denke, dass ein breites und vielfältiges Engagement der Interessengruppen für den langfristigen Erfolg des TTC im Allgemeinen entscheidend ist.
Was sind die größten Bedrohungen im Zusammenhang mit KI-Entwicklungen? Sind es Risiken für kritische Infrastrukturen, für die soziale Ordnung oder für demokratische Institutionen durch Verzerrungen, die durch Algorithmen verursacht werden können?
Newman: Am sinnvollsten ist es, die mit der KI verbundenen Gefahren als soziotechnische Risiken zu betrachten. Ein Aspekt davon ist die Art und Weise, wie KI-Systeme trainiert werden und wie es zu Verzerrungen kommt. Gleichzeitig sind es aber auch Menschen, die diese Datensätze kuratieren und entscheiden, was gebaut werden soll. Wenn wir nur die technische Dimension betrachten, übersehen wir gleich zu Beginn alle sozialen Einflüsse. Und dann ist da natürlich noch die Frage der Auswirkungen, der Impact-Faktor. Wir müssen darüber nachdenken, welche Länder und Gemeinschaften davon betroffen sind.
Verfügen wir derzeit über ausreichende Überwachungsmechanismen, um Kontrolle auszuüben?
Newman: Die OECD-Beobachtungsstelle für KI-Politik (OECD AI Policy Observatory, OECD.AI) verfolgt die verschiedenen Entwicklungen im Bereich der KI-Technologien und die Reaktionen der diversen Interessengruppen darauf. Die Partnership on AI hat die Artificial Intelligence Incident Database entwickelt. Damit wird versucht zu verfolgen, wann KI-Systeme Unfälle haben, Fehler machen oder versehentlich jemandem Schaden zufügen. Soweit ich weiß, sind derzeit unabhängige Forscher für diese Datenbank verantwortlich. Damit sie erweitert werden könnte, brauchen wir Anreize für Unternehmen, transparenter zu sein.
Das US-Verteidigungsministerium (U.S. Department of Defence, DoD) ist, wie einige Experten betonen, ein starker Befürworter des „Zentaurenmodells“; wie groß ist also die Gefahr einer raschen Militarisierung des KI-Bereichs in den USA?
Newman: Das gemeinsame Zentrum für Künstliche Intelligenz (Joint Artificial Intelligence Centre, JAIC) hat ein starkes Programm, um verantwortungsvolle KI-Praktiken im US-Verteidigungsministerium einzuführen. Ein Pilotprojekt zur verantwortungsvollen KI-Beschaffung ist derzeit im Gange. Damit soll sichergestellt werden, dass ein Rahmen vorhanden ist, um zu bewerten, welche Daten in die Entwicklung von KI-Technologien einfließen und wie sie von dem DoD erworben werden. Darüber hinaus hat das Ministerium eine Reihe von ethischen Grundsätzen für KI angenommen, nachdem über ein Jahr lang eine öffentliche Konsultation dazu stattgefunden hat. Ich habe auch mit Interesse zur Kenntnis genommen, dass die NATO kürzlich eine KI-Strategie veröffentlicht hat. Ich denke, dies ist ein weiteres Indiz dafür, dass die USA und andere Militärmächte verstanden haben, dass wir nicht so schnell vorgehen können, dass wir den Einsatz unsicherer Technologien riskieren.
Wo sehen Sie die größten Schwachstellen bei der Entwicklung ethischer Standards für KI, und wie können diese überwunden werden?
Newman: Zum jetzigen Zeitpunkt kann ich zwei zentrale Herausforderungen nennen. Die erste besteht darin, KI-Entwickler dazu zu bringen, sich an Standards zu halten, und die zweite Herausforderung ist die Repräsentation, also die Einbeziehung verschiedener Akteure. Entscheidungen über die KI-Ethik müssen von Menschen getroffen werden, die über ein breites Spektrum an Fachwissen verfügen und alle Bevölkerungsgruppen vertreten, auf die sich diese Entscheidungen auswirken werden. Insbesondere müssen wir den globalen Süden stärker einbeziehen, als dies bisher der Fall war.
In welchen Bereichen könnte die deutsch-amerikanische KI-Zusammenarbeit zu Synergieeffekten führen? Die Biden-Administration sprach Anfang dieses Jahres über das Konzept, „Techno-Demokratien“ zu vereinen? Ist das möglich? Oder ist das ein Wettlauf, bei dem jeder für sich ist?
Newman: Ich habe den Eindruck, dass es in Deutschland hervorragende KI-Forscher, Institute und wirklich einflussreiche und spannende Plattformen für die Ausarbeitung von KI-Richtlinien gibt. Der Bericht der Datenethikkommission, der das Risikoprofil für KI in Form einer Pyramide erstellt hat, war sehr einflussreich.
Es besteht ein gemeinsames Verständnis dafür, dass die Werte, die wir in die KI-Systeme einbringen, dann auf die ganze Welt übertragen werden. Es gibt also ein echtes Interesse daran, mit gleichgesinnten Demokratien zusammenzuarbeiten, um sicherzustellen, dass KI-Systeme die universellen Menschenrechte und demokratischen Grundsätze achten. Natürlich stehen auch nationale Interessen auf dem Spiel. Und natürlich garantieren die aktuellen Entwicklungen nicht, dass alle Nationen gleichermaßen unterstützt werden. Es müssen Anstrengungen unternommen werden, um mit den Ländern zusammenzuarbeiten, die Regionen außerhalb der EU haben, um sicherzustellen, dass ganze Teile der Welt nicht zurückgelassen werden.
Glauben Sie, dass die Entwicklungen im Bereich der Künstlichen Intelligenz, die wir derzeit erleben, weit über die technologische Seite hinausgehen? Dass wir uns mitten in einer globalen Umgestaltung befinden?
Newman: Ich bin tatsächlich der Meinung, dass wir uns in einer kognitiven Revolution befinden. Ich glaube, dass wir in bestimmten Branchen bereits ein gewisses Maß an Kontrolle darüber verlieren, wie Algorithmen Menschen und Gesellschaften beeinflussen. Wir sehen das in den sozialen Medien und im Finanzwesen, wo es darum geht, eine sinnvolle menschliche Kontrolle aufrechtzuerhalten und menschliche Werte zu schützen, während die Interaktion zwischen Mensch und KI zunimmt. Technologie sollte für uns arbeiten und menschliche Interessen und Werte fördern.
In seinem Buch „Rule of the Robots: How Artificial Intelligence will transform everything“ beschreibt Martin Ford zwei mögliche Szenarien, wie unsere Zukunft mit KI aussehen könnte. Das eine nennt er das „Star-Trek“-Szenario: Die Menschen sind hoch gebildet, gehen Herausforderungen nach, die sie als lohnend empfinden, und werden für ihre intrinsische Menschlichkeit geschätzt. Das zweite ist viel düsterer und eine Anspielung auf „The Matrix“. Die reale Welt wird zu ungleich, und die Bevölkerung beschließt, in alternative Realitäten zu fliehen. Wie lautet Ihre Prognose?
Newman: Ich denke, wir nähern uns jetzt dem düsteren Szenario, in dem Ungleichheiten und Ungerechtigkeiten innerhalb der Länder und in der Welt erheblich zunehmen. Ich glaube, dass wir hier wirklich eingreifen müssen, um diese zukünftigen Entwicklungen in Richtung des ersten Szenarios zu verschieben, in dem die Menschen in der Lage sind, sich an lohnenden Aktivitäten zu beteiligen und ein sinnvolles Leben zu führen.
Research for this article was made possible with the support of the Heinrich Boell Foundation Washington, DC.
(ID:47808386)