Large Language Models beeinflussen nicht nur Inhalte, sondern den Rahmen, in dem sie erscheinen. Eine Studie der TU Berlin zeigt, wie KI-Systeme Perspektiven gewichten und damit Meinungen leise verschieben.
Große Sprachmodelle prägen zunehmend die Wahrnehmung von Informationen: Die aktuelle Studie der TU Berlin zeigt, dass sie gesellschaftliche und politische Perspektiven verzerren können und regulatorische Lücken in der EU-KI-Gesetzgebung bestehen.
(Bild: ThisIsEngineering/pexels)
Large Language Models (LLMs) gelten als neutrale Werkzeuge zur Informationsverarbeitung. Genau diese Annahme stellt die Studie „Communication Bias in Large Language Models: A Regulatory Perspective“ der TU Berlin infrage. Die Autoren beschreiben ein Phänomen, das weniger sichtbar ist als klassische Desinformation, aber potenziell weitreichender wirkt: den sogenannten „Communication Bias“.
Gemeint sei damit nicht die Verbreitung falscher Inhalte, sondern die systematische Gewichtung von Perspektiven. LLMs entscheiden, welche Argumente erscheinen, welche weggelassen werden und wie sie eingeordnet sind. Diese Auswahl formt den Interpretationsrahmen und damit die Wahrnehmung von Informationen. Communication Bias bezeichnet laut Studie die Bevorzugung bestimmter sozialer, kultureller oder politischer Sichtweisen in KI-generierten Antworten .
„Sprachmodelle liefern nicht nur Informationen. Sie strukturieren auch, welche Argumente sichtbar werden und welche Deutungen plausibel erscheinen. Diese oft subtilen Effekte sind für Nutzerinnen und Nutzer kaum sichtbar und können öffentliche Debatten und demokratische Meinungsbildung beeinflussen“, sagt Stefan Schmid, Leiter des Fachgebiets „Internet Architecture and Management“ an der TU Berlin und Projektleiter am Weizenbaum-Institut, der die Studie mit Adrian Kuenzler, Professor an der Rechtswissenschaftlichen Fakultät der University of Hong Kong, durchgeführt hat. Zusammen haben sie untersucht, wie solche Verzerrungen in großen Sprachmodellen entstehen und welche Herausforderungen sich daraus für Regulierung und Steuerung ergeben.
Zwischen wahr und verzerrt
Der Effekt bewegt sich nicht im klassischen Spannungsfeld von richtig oder falsch. Die Verzerrung entsteht dort, wo Inhalte formal korrekt sind, aber ungleich gewichtet werden. Argumente können vollständig zutreffen und dennoch ein verzerrtes Gesamtbild erzeugen, wenn Gegenpositionen fehlen oder abgeschwächt erscheinen. Die Studie spricht explizit von Aussagen, die „zwischen wahr und falsch“ liegen und dennoch eine Wirkung entfalten.
Verstärkt wird dieser Effekt durch die Interaktion mit Nutzern. Modelle passen Antworten an Gesprächsverläufe und vermutete Präferenzen an – ein Effekt, der in der Forschung als Sycophancy bezeichnet wird. Da diese Einflüsse häufig kontextabhängig und schwer messbar sind, lassen sich solche Verzerrungen bislang nur begrenzt systematisch erfassen.
Das erhöht die Relevanz einzelner Antworten, kann aber gleichzeitig bestehende Sichtweisen stabilisieren. Die Folge sind Rückkopplungseffekte, die bekannte Muster aus sozialen Netzwerken reproduzieren: Filterblasen entstehen nicht mehr nur durch Plattformlogik, sondern direkt im Dialog.
Neue Gatekeeper ohne sichtbare Redaktion
Mit der zunehmenden Integration in Suchmaschinen, Assistenten und Unternehmensanwendungen verschiebe sich die Rolle von LLMs. Sie liefern nicht mehr nur Inhalte, sondern strukturieren Zugang zu Informationen. Die Studie beschreibt diese Entwicklung als Übergang zu neuen Gatekeepern, die Auswahl und Darstellung von Wissen zentral steuern .
Damit verändere sich die Logik digitaler Öffentlichkeit. Während klassische Plattformen Inhalte sortieren, erzeugen LLMs Antworten selbst. Die kuratierende Instanz wird unsichtbar. Nutzer erhalten keine Liste von Quellen mehr, sondern eine synthetisierte Darstellung inklusive impliziter Gewichtung.
Regulierung adressiert das falsche Problem
Die Analyse der bestehenden EU-Regulierung fällt entsprechend nüchtern aus. Der AI Act setzt auf Anforderungen entlang der Wertschöpfungskette: Datenqualität, Risikomanagement, Dokumentation. Der Digital Services Act fokussiert auf Inhalte und deren Moderation. Beide Ansätze greifen jedoch vor allem bei klar identifizierbaren Risiken wie illegalen Inhalten oder Diskriminierung.
Communication Bias fällt durch dieses Raster. Die Verzerrung entsteht weder ausschließlich in den Trainingsdaten noch ausschließlich im Output, sondern im Zusammenspiel von Modell, Nutzung und Kontext. Entsprechend wird sie in bestehenden Regelwerken meist nur indirekt als Nebeneffekt anderer Maßnahmen adressiert.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Hinzu kommt ein strukturelles Problem: Viele Maßnahmen wirken vor allem vor der Markteinführung. Was Modelle im laufenden Betrieb erzeugen, entzieht sich weitgehend kontinuierlicher Kontrolle.
Wettbewerb als blinder Fleck
Neben regulatorischen Lücken identifiziert die Studie einen weiteren Faktor: Marktkonzentration. Wenn wenige Anbieter Modelle, Daten und Distributionskanäle kontrollieren, steigt die Wahrscheinlichkeit, dass bestimmte Perspektiven systematisch dominieren. Die Frage nach Bias wird damit auch zur Frage nach Wettbewerb und Zugang.
„Wer Risiken durch Sprachmodelle wirksam begrenzen will, darf nicht nur auf Verbote oder Einzelfallmoderation setzen“, sagt Adrian Kuenzler. „Es braucht ein Informationsökosystem, in dem Vielfalt, Nachvollziehbarkeit und Wettbewerb technisch, regulatorisch und institutionell mitgedacht werden.“
Ein umfassender Steuerungsansatz
Die Studie plädiert für einen breiteren Regulierungsansatz. Dazu gehören Vorgaben entlang der gesamten Entwicklungs- und Nutzungskette, überprüfbare Aufsichts- und Moderationsmechanismen, mehr Wettbewerb im Markt für KI-Systeme sowie eine technische Gestaltung, die Vielfalt und Transparenz gezielt stärkt.
Die Autoren verweisen unter anderem auf regelmäßige Audits, geeignete Benchmarks zur Untersuchung kommunikativer Verzerrungen, größere Transparenz über Trainingsdaten und Modellverhalten sowie wirksame Korrekturmöglichkeiten nach der Markteinführung. Ziel sei ein digitales Kommunikationsumfeld, das Verzerrungen begrenzt und eine vielfältige öffentliche Debatte unterstützt.
Über die Studie
Adrian Kuenzler, Stefan Schmid: Communication Bias in Large Language Models: A Regulatory Perspective.