TU Berlin: Studie zu Large Language Models Nicht falsch, aber verzerrt: Wie KI unsere Meinung verschiebt

Von Berk Kutsal 3 min Lesedauer

Anbieter zum Thema

Large Language Models beeinflussen nicht nur Inhalte, sondern den Rahmen, in dem sie erscheinen. Eine Studie der TU Berlin zeigt, wie KI-Systeme Perspektiven gewichten und damit Meinungen leise verschieben.

Große Sprachmodelle prägen zunehmend die Wahrnehmung von Informationen: Die aktuelle Studie der TU Berlin zeigt, dass sie gesellschaftliche und politische Perspektiven verzerren können und regulatorische Lücken in der EU-KI-Gesetzgebung bestehen.(Bild:  ThisIsEngineering/pexels)
Große Sprachmodelle prägen zunehmend die Wahrnehmung von Informationen: Die aktuelle Studie der TU Berlin zeigt, dass sie gesellschaftliche und politische Perspektiven verzerren können und regulatorische Lücken in der EU-KI-Gesetzgebung bestehen.
(Bild: ThisIsEngineering/pexels)

Large Language Models (LLMs) gelten als neutrale Werkzeuge zur Informationsverarbeitung. Genau diese Annahme stellt die Studie „Communication Bias in Large Language Models: A Regulatory Perspective“ der TU Berlin infrage. Die Autoren beschreiben ein Phänomen, das weniger sichtbar ist als klassische Desinformation, aber potenziell weitreichender wirkt: den sogenannten „Communication Bias“.

Gemeint sei damit nicht die Verbreitung falscher Inhalte, sondern die systematische Gewichtung von Perspektiven. LLMs entscheiden, welche Argumente erscheinen, welche weggelassen werden und wie sie eingeordnet sind. Diese Auswahl formt den Interpretationsrahmen und damit die Wahrnehmung von Informationen. Communication Bias bezeichnet laut Studie die Bevorzugung bestimmter sozialer, kultureller oder politischer Sichtweisen in KI-generierten Antworten .

„Sprachmodelle liefern nicht nur Informationen. Sie strukturieren auch, welche Argumente sichtbar werden und welche Deutungen plausibel erscheinen. Diese oft subtilen Effekte sind für Nutzerinnen und Nutzer kaum sichtbar und können öffentliche Debatten und demokratische Meinungsbildung beeinflussen“, sagt Stefan Schmid, Leiter des Fachgebiets „Internet Architecture and Management“ an der TU Berlin und Projektleiter am Weizenbaum-Institut, der die Studie mit Adrian Kuenzler, Professor an der Rechtswissenschaftlichen Fakultät der University of Hong Kong, durchgeführt hat. Zusammen haben sie untersucht, wie solche Verzerrungen in großen Sprachmodellen entstehen und welche Herausforderungen sich daraus für Regulierung und Steuerung ergeben.

Zwischen wahr und verzerrt

Der Effekt bewegt sich nicht im klassischen Spannungsfeld von richtig oder falsch. Die Verzerrung entsteht dort, wo Inhalte formal korrekt sind, aber ungleich gewichtet werden. Argumente können vollständig zutreffen und dennoch ein verzerrtes Gesamtbild erzeugen, wenn Gegenpositionen fehlen oder abgeschwächt erscheinen. Die Studie spricht explizit von Aussagen, die „zwischen wahr und falsch“ liegen und dennoch eine Wirkung entfalten.

Verstärkt wird dieser Effekt durch die Interaktion mit Nutzern. Modelle passen Antworten an Gesprächsverläufe und vermutete Präferenzen an – ein Effekt, der in der Forschung als Sycophancy bezeichnet wird. Da diese Einflüsse häufig kontextabhängig und schwer messbar sind, lassen sich solche Verzerrungen bislang nur begrenzt systematisch erfassen.

Das erhöht die Relevanz einzelner Antworten, kann aber gleichzeitig bestehende Sichtweisen stabilisieren. Die Folge sind Rückkopplungseffekte, die bekannte Muster aus sozialen Netzwerken reproduzieren: Filterblasen entstehen nicht mehr nur durch Plattformlogik, sondern direkt im Dialog.

Neue Gatekeeper ohne sichtbare Redaktion

Mit der zunehmenden Integration in Suchmaschinen, Assistenten und Unternehmensanwendungen verschiebe sich die Rolle von LLMs. Sie liefern nicht mehr nur Inhalte, sondern strukturieren Zugang zu Informationen. Die Studie beschreibt diese Entwicklung als Übergang zu neuen Gatekeepern, die Auswahl und Darstellung von Wissen zentral steuern .

Damit verändere sich die Logik digitaler Öffentlichkeit. Während klassische Plattformen Inhalte sortieren, erzeugen LLMs Antworten selbst. Die kuratierende Instanz wird unsichtbar. Nutzer erhalten keine Liste von Quellen mehr, sondern eine synthetisierte Darstellung inklusive impliziter Gewichtung.

Regulierung adressiert das falsche Problem

Die Analyse der bestehenden EU-Regulierung fällt entsprechend nüchtern aus. Der AI Act setzt auf Anforderungen entlang der Wertschöpfungskette: Datenqualität, Risikomanagement, Dokumentation. Der Digital Services Act fokussiert auf Inhalte und deren Moderation. Beide Ansätze greifen jedoch vor allem bei klar identifizierbaren Risiken wie illegalen Inhalten oder Diskriminierung.

Communication Bias fällt durch dieses Raster. Die Verzerrung entsteht weder ausschließlich in den Trainingsdaten noch ausschließlich im Output, sondern im Zusammenspiel von Modell, Nutzung und Kontext. Entsprechend wird sie in bestehenden Regelwerken meist nur indirekt als Nebeneffekt anderer Maßnahmen adressiert.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Hinzu kommt ein strukturelles Problem: Viele Maßnahmen wirken vor allem vor der Markteinführung. Was Modelle im laufenden Betrieb erzeugen, entzieht sich weitgehend kontinuierlicher Kontrolle.

Wettbewerb als blinder Fleck

Neben regulatorischen Lücken identifiziert die Studie einen weiteren Faktor: Marktkonzentration. Wenn wenige Anbieter Modelle, Daten und Distributionskanäle kontrollieren, steigt die Wahrscheinlichkeit, dass bestimmte Perspektiven systematisch dominieren. Die Frage nach Bias wird damit auch zur Frage nach Wettbewerb und Zugang.

„Wer Risiken durch Sprachmodelle wirksam begrenzen will, darf nicht nur auf Verbote oder Einzelfallmoderation setzen“, sagt Adrian Kuenzler. „Es braucht ein Informationsökosystem, in dem Vielfalt, Nachvollziehbarkeit und Wettbewerb technisch, regulatorisch und institutionell mitgedacht werden.“

Ein umfassender Steuerungsansatz

Die Studie plädiert für einen breiteren Regulierungsansatz. Dazu gehören Vorgaben entlang der gesamten Entwicklungs- und Nutzungskette, überprüfbare Aufsichts- und Moderationsmechanismen, mehr Wettbewerb im Markt für KI-Systeme sowie eine technische Gestaltung, die Vielfalt und Transparenz gezielt stärkt.

Die Autoren verweisen unter anderem auf regelmäßige Audits, geeignete Benchmarks zur Untersuchung kommunikativer Verzerrungen, größere Transparenz über Trainingsdaten und Modellverhalten sowie wirksame Korrekturmöglichkeiten nach der Markteinführung. Ziel sei ein digitales Kommunikationsumfeld, das Verzerrungen begrenzt und eine vielfältige öffentliche Debatte unterstützt.

Über die Studie

Adrian Kuenzler, Stefan Schmid: Communication Bias in Large Language Models: A Regulatory Perspective.

Communications of the ACM. DOI: 10.1145/3769689

(ID:50807928)