Das Trolley-Problem ist ein Gedankenexperiment und moralisches Dilemma. Es beschäftigt sich mit einer außer Kontrolle geratenen Straßenbahn. Ein Weichensteller kann mehrere Leben retten, indem er das Leben einer einzelnen Person opfert. Die Grundfrage hinter dem Gedankenexperiment ist, ob der Tod eines Einzelnen in Kauf genommen werden darf, um mehrere Leben zu retten. Im Zuge der KI-Entwicklung hat die Beschäftigung mit dem Trolley-Problem wieder stark an Bedeutung gewonnen.
Der Begriff „Trolley-Problem“ leitet sich vom US-amerikanischen Wort für Straßenbahn „trolley“ ab. Es handelt sich um ein Gedankenexperiment, das auf eine Arbeit von Karl Engisch aus dem Jahr 1930 zurückgeht. Manchmal wird das Trolley-Problem auch als Trolley-Dilemma oder als Weichenstellerfall bezeichnet.
1967 formulierte Philippa Foot, eine britische Philosophin, das Trolley-Problem in einer neueren Fassung: Eine Straßenbahn ist außer Kontrolle und droht fünf Menschen zu überrollen und zu töten. Ein Weichensteller kann diese fünf Menschenleben retten, indem er die Straßenbahn auf ein anderes Gleis umleitet. Auf diesem Gleis befindet sich nur eine Person, die von der Straßenbahn im Fall der Umleitung wahrscheinlich getötet wird.
Im Kern geht es beim Trolley-Problem um die Fragestellung: Darf der Tod einer Person durch aktives Eingreifen (Umstellen einer Weiche) in Kauf genommen werden, um das Leben mehrerer Personen zu retten. Diese Fragestellung führt zu einem ethischen und moralischen Dilemma. Sie lässt sich aus moralischen und ethischen Gesichtspunkten kaum richtig beantworten. Beide Optionen führen zum Tod von Menschen. Je nach Kulturkreis, persönlicher Einstellung und anderen Einflussfaktoren entscheiden sich Menschen unterschiedlich. So gibt es sowohl die Grundhaltung, dass Menschenleben nicht gegeneinander aufgerechnet werden dürfen, als auch die Einstellung, so viele Menschenleben wie möglich retten zu wollen.
Nach Befragungen würden sich in Deutschland mehr Menschen dafür entscheiden, die Weiche umzustellen und das Leben der fünf Menschen zu retten. In der Rechtsprechung gibt es zum Trolley-Problem ebenfalls verschiedene Haltungen. In vielen Ländern wäre das Untätigbleiben des Weichenstellers gerechtfertigt und bliebe straffrei. Das aktive Eingreifen und Umstellen der Weiche bedarf einer differenzierteren rechtlichen Betrachtung und lässt auf den ersten Blick kein eindeutiges Urteil zu. Durch die Fortschritte im Bereich der Künstlichen Intelligenz und technische Entwicklungen wie autonomes Fahren hat die Beschäftigung mit dem Trolley-Problem wieder stark an Bedeutung gewonnen.
Varianten des Trolley-Problems
Das Trolley-Problem mit den fünf Personen auf dem Hauptgleis und der einen Person auf dem Nebengleis existiert in verschiedenen Abwandlungen:
In einer Variante führt das Nebengleis zum Hauptgleis zurück. Das Umstellen der Weiche führt sicher zum Tod der einzelnen Person. Da der Körper der einzelnen Person die Straßenbahn abbremst, werden die fünf Personen auf dem Hauptgleis gerettet. Der Tod der einen Person auf dem Nebengleis, ist nicht mehr, wie in der Ursprungsvariante, ein wahrscheinliches Eintrittsereignis, sondern zwingend notwendig, sollen die fünf Menschen gerettet werden.
In einer zweiten Variante kann das Leben der fünf Personen gerettet werde, indem man eine Person von einer Brücke auf das Gleis stößt und ihr Körper die Straßenbahn abbremst. In dieser Variante ist der Einsatz körperliche Gewalt gegen eine unbeteiligte Person und das aktive Herbeiführen ihres Todes notwendig, um Menschenleben zu retten.
Die drei geschilderten Varianten führen jeweils zu unterschiedlichen Entscheidungen der Befragten. Neben diesen Abwandlungen des ursprünglichen Trolley-Problems, sind mit der Zeit viele Varianten des Trolley-Problems entstanden, die das ursprüngliche Gedankenexperiment mehr oder weniger stark verändern. So geht es in einigen Varianten nicht darum, sich für die Rettung einer unterschiedlichen Anzahl von Menschenleben, sondern unterschiedlicher Personengruppen zu entscheiden. Die Fragestellung lautet zum Beispiel: Soll eher ein alter Mann oder ein Kind gerettet werden? Das Gedankenexperiment ist vielfältig variierbar. Beispielsweise kann es dazu auffordern, sich zwischen Mensch oder Tier, Mann oder Frau, Mutter oder Vater oder zwischen weiteren Alternativen zu entscheiden.
Beispiele für das Trolley-Problem in modernen, IT- und KI-geprägten Umgebungen
Technologien wie autonomes Fahren und Fortschritte im Bereich der Künstlichen Intelligenz haben zu einer Wiederbelebung der Beschäftigung mit dem Trolley-Problem geführt. In vielen Bereichen treffen mittlerweile Maschinen und Algorithmen Entscheidungen. Ingenieure und Programmierer stehen bei der Entwicklung moderner Technik und der Programmierung von Algorithmen vor Fragestellungen, die dem Trolley-Problem ähnlich sind.
Beispiel: Trolley-Problem und autonomes Fahren
Autonome Fahrzeuge müssen so programmiert sein, dass sie in bestimmten Situationen die richtigen Entscheidungen treffen. Wie das Trolley-Dilemma aber zeigt, gibt es in einigen Situationen auf bestimmte Fragestellungen keine moralisch und ethisch richtigen Antworten oder Lösungen. Soll ein Auto, wenn es nur diese zwei Möglichkeiten hat, zum Beispiel eher einem Kind ausweichen oder einer älteren Person?
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Eine andere Fragestellung könnte lauten: Sollen eher die Insassen des autonomen Fahrzeugs oder die anderen Verkehrsteilnehmer geschützt werden? Da die verschiedenen kulturellen Wertesysteme zum Teil zu unterschiedlichen Entscheidungen führen, müssten auch die Algorithmen der autonomen Fahrzeuge abhängig vom jeweiligen Kulturkreis unterschiedlich programmiert sein. In Deutschland beschäftigt sich eine vom Bundesminister für Verkehr und digitale Infrastruktur eingesetzte Ethik-Kommission „Automatisiertes und Vernetztes Fahren“ mit solchen Fragestellungen. Sie ist mit interdisziplinären Experten besetzt und hat den Auftrag, ethische Leitlinien für automatisiertes und vernetztes Fahren zu erarbeiten. Die Ethik-Kommission lehnt zum Beispiel ein Aufrechnung von Menschenleben in Notsituationen ab und qualifiziert das Töten oder schwere Verletzen von Personen durch autonome Fahrzeuge ohne Ausnahme als Unrecht.
Beispiel: Trolley-Problem, Künstliche Intelligenz und Sprachmodelle
Künstliche Intelligenz ist mittlerweile in der Lage, komplexe Szenarien zu beurteilen und daraus Entscheidungen abzuleiten. Steht die KI vor einem moralischen Dilemma vergleichbar mit dem Trolley-Problem, neigt sie aber unter Umständen zu rassistischen, sexistischen oder anderen diskriminierende Entscheidungen. Dies kann unter anderem auf Bias im Trainingsmaterial zurückzuführen sein. Diskriminierende Tendenzen wurden in vielen modernen KI-Sprachmodellen festgestellt. Sie treten zum Beispiel zutage, wenn man den Modellen dem Trolley-Problem ähnliche Szenarien schildert und ihnen Entscheidungen abverlangt.
Viele KI-Modelle entscheiden sich beispielsweise häufiger dafür, eher Männer als Frauen zu retten. Wird eine KI in Bereichen eingesetzt, in denen ihre Entscheidungen potenziell lebensbedrohliche Konsequenzen haben könnten (zum Beispiel in der Medizin), müssen entsprechende Vorkehrungen für faire, vorurteilsfreie Entscheidungen getroffen werden. Diskriminierende Tendenzen sind zu identifizieren und zu korrigieren.