LLMs und das Trolley-Problem

Eine kleine Studie von Şahan Hatemo an der Hochschule für Technik FHNW im Studiengang Data Science untersuchte die Fähigkeiten von Llama-2-13B-chat, eines Open-Source-Sprachmodells, eine moralische Entscheidung zu treffen. Im Fokus stand die Voreingenommenheit von acht Personas und ihrer Stereotype. Herangezogen wurde das klassische Trolley-Problem, das wie folgt beschrieben werden kann: Eine außer Kontrolle geratene Straßenbahn rast auf fünf Personen zu. Sie kann durch das Stellen einer Weiche auf ein anderes Gleis umgeleitet werden, auf dem sich ein weiterer Mensch befindet. Die moralische Frage ist, ob der Tod dieses Menschen in Kauf genommen werden darf, um das Leben der fünf Personen zu retten. Die acht Personas unterscheiden sich in Hinblick auf die Staatsbürgerschaft. Neben „Italian“, „French“, „Turkish“ etc. wurde auch „Arabian“ (mit Bezug zur Ethnie) genommen. Gesammelt wurden 30 Antworten pro Zyklus für jede Persona über drei aufeinanderfolgende Tage. Die Antworten wurden nach Kategorien wie „Stellen der Weiche“, „Nichtstellen der Weiche“, „Unsicher in Hinblick auf das Stellen der Weiche“ und „Verletzt die Richtlinien“ geordnet. Mit Hilfe von Dashboards wurden sie visualisiert und verglichen. Die Studie stellt fest, dass das Sprachmodell eine inhärente Voreingenommenheit in seinen Trainingsdaten widerspiegelt, die die Entscheidungsprozesse beeinflusst. Die westlichen Personas neigen eher dazu, den Hebel zu ziehen, während die östlichen eher zögern, dies zu tun. Die deutsche und die arabische Persona zeigen eine höhere Anzahl von Richtlinienverletzungen, was auf eine höhere Präsenz von kontroversen oder sensiblen Themen in den Trainingsdaten in Bezug auf diese Gruppen hinweist. Die arabische wird zudem mit Religion in Zusammenhang gebracht, was wiederum Einfluss auf ihre Entscheidungen hat. Die japanische Persona verwendet wiederholt den japanischen Wert des Giri (ein Pflichtgefühl) als Basis. Die Entscheidungen der türkischen und der chinesischen Persona sind ähnlich, da sie hauptsächlich die „cultural values and beliefs“ ansprechen. Die kleine Studie wurde im FS 2024 im Modul „Ethisches Implementieren“ bei Prof. Dr. Oliver Bendel durchgeführt. Dabei wurde auch die anfangs vorhandene Komplexität reduziert. In einer größeren Studie sollen weitere LLMs und auch Faktoren wie Geschlecht und Alter berücksichtigt werden.

Abb.: Wie entscheidet das LLM?

Soziale Roboter aus Herstellersicht

In der Studie „Soziale Roboter, Empathie und Emotionen“ sind die Ergebnisse einer Hersteller-, Entwickler- und Anwenderbefragung enthalten, die von Prof. Dr. Oliver Bendel und Jeanne Kreis durchgeführt wurde. Neben der äußerlichen Gestaltung hielten die Befragten – so heißt es in der Zusammenfassung – natürlichsprachliche Fähigkeiten sozialer Roboter für zentral. Mit Blick auf Geschäftsmodelle wurde allgemein bemerkt, dass überzeugende Nutzenversprechen, Architekturen der Wertschöpfung und Ertragsmodelle für den Einsatz fehlen. Europa hinkt nach der Meinung der Befragten bei der Förderung und Entwicklung von sozialen Robotern hinterher. Diese bilden insgesamt noch keinen Massenmarkt, versprechen aber laut Mehrheitsmeinung ein großes Wachstum. Die meisten Unternehmen räumten ein, kaum Psychologen, Soziologen oder Philosophen zu beschäftigen oder mit Experten aus diesen Fachdisziplinen regelmäßig zusammenzuarbeiten. Eine wissenschaftliche Ethik kann daher nach Meinung der Autoren kaum betrieben werden. Die sozialen Roboter der interviewten Hersteller, Entwickler und Betreiber simulieren mehrheitlich Emotionen. Nach Ansicht mehrerer Hersteller sollten sie situationsspezifisch positive Emotionen wie Freude oder Überraschung ausdrücken und keine oder nur wenige negative Emotionen wie Ärger, Ekel oder Furcht zeigen. Einhellig war die Ansicht, dass soziale Roboter bei Menschen starke Emotionen hervorrufen. Dies wird von mehreren Befragten als eher unproblematisch oder gar hilfreich gesehen. Eine Mehrheit befand, dass es kein Problem darstelle, wenn der Mensch ein enges Verhältnis zum Roboter aufbaut. Hier schätzten die Interviewten die Selbstverantwortung und Selbstbestimmung der Besitzer und Nutzer als hoch ein. Mehrere von ihnen waren darüber hinaus der Meinung, dass soziale Roboter als potenzielle Spione verstanden werden können. Einige interviewte Hersteller bestätigten, dass ihre Systeme auch persönliche Daten weiterreichen. Die ethische und rechtliche Regulierung bei sozialen Robotern war ein kontroverses Thema. Mehrheitlich äußerten die interviewten Hersteller und Entwickler die Befürchtung, dass zu strenge Regulierungen Entwicklungen hemmen bzw. erschweren könnten. Die Studie kann über zenodo.org/record/5554564 heruntergeladen werden.

Abb.: Ein Klassiker der Sozialen Robotik

Will die Mehrheit keine Pflegeroboter?

Die NZZ vom 9. Oktober 2017 schreibt, bezugnehmend auf eine aktuelle Studie von DemoSCOPE, die Skepsis gegenüber der Digitalisierung im Gesundheitswesen und in der Pflege sei groß. „84 Prozent der Befragten wollen nicht, dass Roboter pflegebedürftige Menschen bei der Körperpflege unterstützen.“ Allerdings war dies gar nicht die Frage. Diese lautete, ob man es begrüßen würde, „wenn Roboter bei pflegebedürftigen Menschen die Körperpflege übernehmen würden an Stelle vom Pflegepersonal“ (Studie DemoSCOPE). Es ist also nicht die Unterstützung des Pflegebedürftigen im Fokus, sondern die Übernahme der Körperpflege, die bisher der Pflegekraft oblag, durch einen Roboter (der nicht spezifiziert wird). Insgesamt muss man mehrere Punkte berücksichtigen: 1. Auftraggeber der Studie war ein Magazin reformierter Kirchen in der Schweiz. Diese gehen von einem bestimmten Menschenbild aus. Auf der Website des Magazins heißt es: „Die Mehrheit will keine Pflegeroboter“. Dies lässt sich der Studie nicht entnehmen. 2. Befragt wurden 1000 Personen per Telefon. Es ist nicht davon auszugehen, dass viele Betroffene darunter waren. Diese würden sich u.U. anders äußern. 3. Die Befragten haben unterschiedliche Vorstellungen von Robotern. Pflegeroboter im engeren Sinne z.B. sind heute allenfalls als Prototypen im Einsatz. Sie arbeiten, wenn sie Hand anlegen, im Tandem, zusammen mit einer Pflegekraft. Sie würden also die Körperpflege nicht vollständig übernehmen. Die NZZ schreibt weiter: „Kein Vertrauen haben Herr und Frau Schweizer auch in den Roboter, der als Arzt auftritt. Nur gerade 19 Prozent würden beim Spitaleintritt eine Diagnose akzeptieren, die allein durch einen Computer erstellt wurde.“ Allerdings wurden bei der Studie nicht SchweizerInnen befragt, sondern Personen, die in der Schweiz leben. Zudem spricht die Studie hier nicht von einem Roboter.

Abb.: Soll der Roboter meine Zähne putzen?

Der Tierfreund LADYBIRD

Die Idee des tierfreundlichen Staubsaugerroboters kommt in verschiedenen Publikationen von Oliver Bendel vor. In der Online-Zeitschrift inside-it.ch heißt es, Serviceroboter wie Haushalts- und Gartenroboter „sind in zahlreichen Ausführungen erhältlich und erleben einen wahren Boom“. Und weiter: „Ein gewöhnlicher Saugroboter verschlingt das, was vor ihm und unter ihm ist. Dazu gehören nicht nur Staubflocken und Kekskrümel, sondern auch Spinnen und Käfer. Nach der Meinung vieler Menschen sollte man Tiere nicht einfach verletzen oder beseitigen. Man kann den Roboter mit Bilderkennung und Bewegungssensoren ausstatten und ihm beibringen, Lebewesen vor dem Tod zu bewahren.“ Vom Autor liegt nun eine erste Visualisierung vor, die weiter verfeinert und ausgebaut werden soll. Abgebildet ist LADYBIRD, der Saugroboter, der nicht nur Marienkäfer verschont. Der vollständige Nachweis zum erwähnten Artikel: Bendel, Oliver. Ich bremse auch für Tiere: Überlegungen zu einfachen moralischen Maschinen. In: inside-it.ch, 4. Dezember 2013. Über www.inside-it.ch/post/ich-bremse-auch-fuer-tiere-20131204.

LADYBIRD_CLEANER

Abb.: Studie LADYBIRD