LLMs und das Trolley-Problem

Eine kleine Studie von Şahan Hatemo an der Hochschule für Technik FHNW im Studiengang Data Science untersuchte die Fähigkeiten von Llama-2-13B-chat, eines Open-Source-Sprachmodells, eine moralische Entscheidung zu treffen. Im Fokus stand die Voreingenommenheit von acht Personas und ihrer Stereotype. Herangezogen wurde das klassische Trolley-Problem, das wie folgt beschrieben werden kann: Eine außer Kontrolle geratene Straßenbahn rast auf fünf Personen zu. Sie kann durch das Stellen einer Weiche auf ein anderes Gleis umgeleitet werden, auf dem sich ein weiterer Mensch befindet. Die moralische Frage ist, ob der Tod dieses Menschen in Kauf genommen werden darf, um das Leben der fünf Personen zu retten. Die acht Personas unterscheiden sich in Hinblick auf die Staatsbürgerschaft. Neben „Italian“, „French“, „Turkish“ etc. wurde auch „Arabian“ (mit Bezug zur Ethnie) genommen. Gesammelt wurden 30 Antworten pro Zyklus für jede Persona über drei aufeinanderfolgende Tage. Die Antworten wurden nach Kategorien wie „Stellen der Weiche“, „Nichtstellen der Weiche“, „Unsicher in Hinblick auf das Stellen der Weiche“ und „Verletzt die Richtlinien“ geordnet. Mit Hilfe von Dashboards wurden sie visualisiert und verglichen. Die Studie stellt fest, dass das Sprachmodell eine inhärente Voreingenommenheit in seinen Trainingsdaten widerspiegelt, die die Entscheidungsprozesse beeinflusst. Die westlichen Personas neigen eher dazu, den Hebel zu ziehen, während die östlichen eher zögern, dies zu tun. Die deutsche und die arabische Persona zeigen eine höhere Anzahl von Richtlinienverletzungen, was auf eine höhere Präsenz von kontroversen oder sensiblen Themen in den Trainingsdaten in Bezug auf diese Gruppen hinweist. Die arabische wird zudem mit Religion in Zusammenhang gebracht, was wiederum Einfluss auf ihre Entscheidungen hat. Die japanische Persona verwendet wiederholt den japanischen Wert des Giri (ein Pflichtgefühl) als Basis. Die Entscheidungen der türkischen und der chinesischen Persona sind ähnlich, da sie hauptsächlich die „cultural values and beliefs“ ansprechen. Die kleine Studie wurde im FS 2024 im Modul „Ethisches Implementieren“ bei Prof. Dr. Oliver Bendel durchgeführt. Dabei wurde auch die anfangs vorhandene Komplexität reduziert. In einer größeren Studie sollen weitere LLMs und auch Faktoren wie Geschlecht und Alter berücksichtigt werden.

Abb.: Wie entscheidet das LLM?

Der Bürgermeister musste sterben

Im Jahre 2012 wurde das Roboterauto-Problem entwickelt, das sich vom Trolley-Problem herleitete. Dieses ist ein klassisches und zugleich ein theoretisches Dilemma, jenes ein theoretisches Dilemma, und beide sind philosophische Gedankenspiele. Oliver Bendel beschrieb in seinem Paper den New Autonomous Car (NAC), der sich in einer Unfallsituation zwischen einem Bürgermeister auf dem Gehsteig, einer Bürgerrechtlerin in einem weiteren Roboterauto und einer Gruppe spielender Kinder entscheiden muss. Sein Student Matthias Schnyder erhielt den Auftrag, das Roboterauto-Problem theoretisch zu lösen. Er entwickelte eine Formel, mit der das autonome Auto quantifizieren und qualifizieren, also mögliche Opfer durchzählen und bewerten konnte. Der Bürgermeister musste sterben. Auf der European TA Conference in Prag im März 2013 stellte Oliver Bendel die Ergebnisse vor (wobei er auch die Umsetzbarkeit klassischer Modelle normativer Ethik diskutierte) und wies darauf hin, dass in diesem Zusammenhang weder das Quantifizieren noch das Qualifizieren eine vertretbare praktische Lösung sei. Eine solche zu finden, kann die Aufgabe von unklassischen bzw. praktischen Dilemmata oder auch einfach von „Faktenspielen“, die auf Konfliktsituationen verweisen, sein. So kann man die hohe Komplexität von realen Situationen untersuchen und die Bedeutung der Kommunikation im Stadtverkehr herausstreichen. Bei einer Konferenz der Audi AG wird Oliver Bendel am 20. September 2017 kurz auf die fünf Jahre alte Formel und auf die neue Version der Verkehrspyramide eingehen. Und die praktische Lösung vorschlagen, die er seit langer Zeit propagiert: Das selbstfahrende Auto gehört auf die Autobahn.

Abb.: Mit der Formel kann das Auto quantifizieren und qualifizieren

Trolley-Problem gelöst

Ein kleiner Junge namens Nicholas hat, wie Nerdcore meldet, das Trolley-Problem gelöst. In einem Video wird gezeigt, wie er mit Spielzeugbahn und -figuren an das Gedankenexperiment herangeführt wird. Er überlegt nicht lange, nimmt die eine Person von dem einen Gleis und legt sie auf das andere zu den fünf Personen, die bereits dort sind. Dann lässt er den Trolley bzw. die Bahn über die vergrößerte Gruppe rollen. Bisher hat man immer entweder die Weiche umgelegt oder eben nicht und sich für den Tod der einen Person oder den Tod der fünf Personen entschieden. Nerdcore schreibt dazu: „Zwar sieht das Gesetz für beide Standardlösungen des Trolley-Problems Möglichkeiten vor, die in Straflosigkeit münden. Aber bis dahin hat der junge Nicholas jede Menge Ärger am Hals und die Medien hacken auf ihm rum, tausend Shitstorms[,] weil er irgendwelche Leute umgebracht/nicht umgebracht hat und so weiter. Es ist daher völlig verständlich und nachvollziehbar, wenn sich Nicholas ganz einfach aller Zeugen entledigt, [sie] auf einen Haufen wirft und mit dem Zug über sie drüberrollert, bis sie Hackfleisch sind. Nicholas wird bestimmt mal 1a[-]Gangster.“ Ein Roboterauto könnte das Verhalten des Jungen nachahmen, wenn es Greifarme hätte, die nicht nur für das Verschieben von Personen, sondern auch zum Entgegennehmen einer Pizza oder eines Sofas sinnvoll wären. Artikel und Video über www.nerdcore.de/2016/09/01/2jaehriger-loest-trolley-problem/ (Link nicht mehr gültig).

boy_trolley

Abb.: Ein kleiner Junge hat das Trolley-Problem gelöst

Moralische Maschinen aus dem MIT

Die Maschinenethik ist eine junge, dynamische Disziplin. Insbesondere in den USA werden Konferenzen durchgeführt, Fachbücher veröffentlicht und Plattformen aufgebaut. Auch in Holland, England, Polen und in der Schweiz ist man aktiv. „Welcome to the Moral Machine!“ heißt es auf einer Website des MIT. „A platform for gathering a human perspective on moral decisions made by machine intelligence, such as self-driving cars.“ (Website MIT) Und weiter: „We show you moral dilemmas, where a driverless car must choose the lesser of two evils, such as killing two passengers or five pedestrians. As an outside observer, you judge which outcome you think is more acceptable. You can then see how your responses compare with those of other people.“ Es geht also um moralische Entscheidungen autonomer Systeme, denen wiederum moralische Urteile von Menschen folgen sollen. Damit verweist man auf eine lange Tradition von Gedankenexperimenten, die bereits in der Antike beliebt waren und mit dem Trolley-Problem und dem Fetter-Mann-Problem mit Blick auf Fahrzeuge und Menschen einschlägig wurden. Nun gibt es inzwischen einige Plattformen, die Dilemmata visuell aufbereiten, und auch das SRF hat sich Verdienste in diesem Bereich erworben. Besonders ist freilich folgende Option: „If you’re feeling creative, you can also design your own scenarios, for you and other users to browse, share, and discuss.“ Weitere Informationen über http://moralmachine.mit.edu/.

Tramway

Abb.: Berühmt ist das Trolley-Problem