Vorträge zur Maschinenethik in Frisco

Bei den AAAI 2025 Spring Symposia werden drei Bachelorstudenten der neuen Hochschule für Informatik FHNW einen Vortrag halten. Sahan Hatemo, Christof Weickhardt und Luca Gisler sind am 1. April 2025 vor Ort in San Francisco und stellen beim Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“ das Paper „Revisiting the Trolley Problem for AI: Stereotypes and Biases in Large Language Models and their Impact on Ethical Decision-Making“ vor. Prof. Dr. Oliver Bendel, der Viertautor, hat ihnen Feedback zum Paper gegeben und das Projekt im Paper in der Maschinenethik verortet. Von Zürich aus ist am selben Tag die Masterstudentin Myriam Rellstab zugeschaltet. Das Paper „Miss Tammy as a Use Case for Moral Prompt Engineering“ hat sie zusammen mit Oliver Bendel verfasst. Für ihn ist der Chatbot eine Umsetzung von Methoden der Maschinenethik im Bereich der Large Language Models (LLMs). Er spricht von Moral Prompt Engineering und meint damit die Verbindung von Prompt Engineering und gegebenenfalls Retrieval-Augmented Generation (RAG). Sahan Hatemo wird den Vortrag halten und Myriam Rellstab dann für Fragen zur Verfügung stehen. Das vorläufige Programm des Symposiums ist hier verfügbar.

Abb.: Dieser Avatar von Miss Tammy wurde verworfen (Bild: Ideogram)

Towards Moral Prompt Engineering

The paper „Miss Tammy as a Use Case for Moral Prompt Engineering“ by Myriam Rellstab and Oliver Bendel from the FHNW School of Business was accepted at the AAAI 2025 Spring Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. It describes the development of a chatbot that can be available to pupils and de-escalate their conflicts or promote constructive dialogues among them. Prompt engineering – called moral prompt engineering in the project – and retrieval-augmented generation (RAG) were used. The centerpiece is a collection of netiquettes. On the one hand, these control the behavior of the chatbot – on the other hand, they allow it to evaluate the behavior of the students and make suggestions to them. Miss Tammy was compared with a non-adapted standard model (GPT-4o) and performed better than it in tests with 14- to 16-year-old pupils. The project applied the discipline of machine ethics, in which Oliver Bendel has been researching for many years, to large language models, using the netiquettes as a simple and practical approach. The eight AAAI Spring Symposia will not be held at Stanford University this time, but at the San Francisco Airport Marriott Waterfront, Burlingame, from March 31 to April 2, 2025. It is a conference rich in tradition, where innovative and experimental approaches are particularly in demand.

Abb.: Dieser Avatar wurde wieder verworfen (Bild: Ideogram)

The Right Distance to a Robot

The paper „Robots at arm’s length: Unveiling the dynamics of interpersonal distance preferences in human-robot interactions“ by Katharina Kühne, Laura M. Zimmer, Melina Jeglinski-Mende, Oliver Bendel, Yuefang Zhou, and Martin H. Fischer was published in February 2025 in the proceedings volume „Social Robots with AI: Prospects, Risks, and Responsible Methods“ … From the abstract: „In social interactions, interpersonal distance is a vital factor influencing relationships, providing protection, and regulating arousal. Despite the intuitive nature of adopting specific distances, little is known about comfortable interpersonal distances with social robots. In our online study with 66 participants using a Go/No-Go task, we investigated perceptions of individuals standing face-to-face with a robot at different distances. In line with the negativity bias hypothesis, participants exhibited a preference for greater distances, as reflected in longer reaction times. Furthermore, the human-likeness of the robots moderated the link between distance and arousal. Finally, the most human-like robot was less liked and evoked higher arousal. These findings have implications for designing social robots and optimizing interactions, particularly in educational or medical contexts.“ The proceedings volume comprises the papers presented at Robophilosophy 2024 in Aarhus. Leading philosophers, computer scientists, and roboticists met there in August. Like the ICSR, the conference is one of the world’s leading conferences on social robotics.

Fig.: What is the right distance to a robot? (Bild: DALL-E 3)

22 Chatbots and Voice Assistants of a Special Kind

Since 2013, Oliver Bendel has developed 22 chatbots and voice assistants together with his students or colleagues. They can be divided into three categories. The first are moral and immoral chatbots (i.e., forms of moral machines) and empathic voice assistants. The second are chatbots (some with voice output) for dead, endangered, or extinct languages and idioms. The third are pedagogical chatbots and chatbots that give recommendations and advice. Some of the projects lasted between four and six months. Most of the GPTs were created in just a few hours. Exceptions are Miss Tammy and Animal Whisperer, which took several months to build with the help of prompt engineering and retrieval-augmented generation (RAG). Articles and book chapters have been published on many of the projects. The names of the developers can be found in these. A few chatbots made it into the media, such as GOODBOT (for which the preparatory work began in 2012), LÜGENBOT aka LIEBOT, and @llegra.

Fig.: 22 special chatbots and voice assistants

Hilfreiche Conversational Agents

Am 17. Dezember 2024 findet von 8 bis 9 Uhr wieder das Geriatrie-Seminar der Barmelweid-Akademie statt. Die Barmelweid ist nach eigenen Angaben die führende Spezial- und Rehabilitationsklinik der Nordwestschweiz. Prof. Dr. Oliver Bendel trägt über „Conversational Agents zur Erkennung von Problemen und zur Unterstützung von Personen“ vor. Dabei geht er sowohl auf Chatbots und Sprachassistenten als auch auf „embodied conversational agents“ wie bestimmte Pflegeroboter mit natürlichsprachlichen Fähigkeiten ein. Das übergeordnete Ziel der Seminarreihe ist laut Website, die neusten Ergebnisse aus Lehre und Forschung in die tägliche klinische Arbeit der Barmelweid einfließen zu lassen. Gleichzeitig wollen die Verantwortlichen die ethischen und managementbezogenen Aspekte nicht außer Acht lassen. Im Fokus stehen 2024 die Digitalisierung im Gesundheitswesen, das Delirium-Management und die geriatrische Onkologie. Weitere Informationen sind über die Website der Klinik erhältlich.

Abb.: Hilfreiche Conversational Agents

The Social Robot in the Uncanny Valley

The uncanny valley effect is a famous hypothesis. Whether it can be influenced by context is still unclear. In an online experiment, Katharina Kühne and her co-authors Oliver Bendel, Yuefang Zue and Martin Fischer found a negative linear relationship between a robot’s human likeness and its likeability and trustworthiness, and a positive linear relationship between a robot’s human likeness and its uncaniness. „Social context priming improved overall likability and trust of robots but did not modulate the Uncanny Valley effect.“ (Abstract) Katharina Kühne outlined these conclusions in her presentation „Social, but Still Uncanny“ – the title of the paper – at the International Conference on Social Robotics 2024 in Odense, Denmark. Like Yuefang Zue and Martin Fischer, she is a researcher at the University of Potsdam. Oliver Bendel teaches and researches at the FHNW School of Business. Together with Tamara Siegmann, he presented a second paper at the ICSR.

Fig.: Social, but still uncanny (Bild: Ideogram)

Social, But Still Uncanny

Der Uncanny-Valley-Effekt ist eine berühmte Hypothese. Es ist bis heute unklar, ob er vom Kontext beeinflusst werden kann. Katharina Kühne hat mit ihren Mitautoren Oliver Bendel, Yuefang Zue und Martin Fischer in einem Onlineexperiment eine negative lineare Beziehung zwischen der Menschenähnlichkeit eines Roboters und seiner Sympathie und Vertrauenswürdigkeit gefunden, zugleich eine positive lineare Beziehung zwischen der Menschenähnlichkeit eines Roboters und seiner Unheimlichkeit. „Social context priming improved overall likability and trust of robots but did not modulate the Uncanny Valley effect.“ (Abstract) Die Schlussfolgerungen wird Katharina Kühne in ihrer Präsentation „Social, but Still Uncanny“ – so auch der Titel des Papers – bei der International Conference on Social Robotics 2024 in Odense (Dänemark) ziehen. Die Doktorandin forscht wie Yuefang Zue und Martin Fischer (Erstbetreuer) an der Universität Potsdam. Oliver Bendel (Zweitbetreuer) lehrt und forscht an der Hochschule für Wirtschaft FHNW. Er ist zusammen mit Tamara Siegmann mit einem zweiten Paper bei der ICSR vertreten.

Abb.: Social, but still uncanny

Spezialisierte und universelle Roboter

Bei der KI&Robotics4Retail-Konferenz 2024 in Bonn hält Prof. Dr. Oliver Bendel am 25. September 2024 die Keynote zum Thema „Serviceroboter aus technischer, ökonomischer und ethischer Perspektive“. Aus der Vorankündigung: „Serviceroboter haben sich als Reinigungs-, Transport- und Sicherheitsroboter verbreitet. Als Saug- und Wischroboter sind sie im Haushalt, am Flughafen und auf der Hotelanlage anzutreffen. Als Transportroboter fahren sie in der Fabrik und in Lagerhallen umher, verkehren im Restaurant zwischen Buffet und Küche oder bringen in Städten die Bestellungen zum Kunden. In der Form sozialer Roboter beraten und bedienen sie uns in Shopping Malls oder unterhalten unsere Kinder, während wir einkaufen. Vor der Tür stehen universelle Roboter, menschenähnliche Maschinen, die morgens in Produktion und Logistik helfen, nachmittags den Garten umgraben und abends mit uns Tennis spielen. Verbunden werden sie mit multimodalen Sprachmodellen, die ihre Steuerung und Wahrnehmung ermöglichen bzw. verbessern. Der Vortrag stellt Anwendungsfälle der genannten Art vor, ordnet sie aus technischer, wirtschaftlicher und ethischer Perspektive ein und wirft einen Blick in die Zukunft.“ Weitere Informationen über www.robotics-konferenz.de.

Abb.: Ein KI-generierter Roboter

The Universal Robot of the 21st Century

On the fourth day of Robophilosophy 2024, Oliver Bendel, Professor at the FHNW School of Business, gave a talk entitled „The Universal Robot of the 21st Century“. From the abstract: „Developments in several areas of computer science, robotics, and social robotics make it seem likely that a universal robot will be available for the mass market in the foreseeable future. Large language models for communication, perception, and control play a central role in this. This article briefly outlines the developments in the various areas and uses them to create the overall image of the universal robot. It then discusses the associated challenges from an ethical and social science perspective. It can be said that the universal robot will bring with it new possibilities and will perhaps be one of the most powerful human tools in physical space. At the same time, numerous problems are foreseeable, individual, social, and ecological.“ (Website Robophilosophy 2024) This was followed by an intensive plenary discussion on the design and usefulness of universal robots. In an individual discussion, Oliver Bendel suggested designing universal robots like early humans or apes. They can move on all fours, but can also stand up on two legs if the situation requires it. This would at least solve some of the safety problems posed by bipeds.

Fig.:  A universal robot (Image: Ideogram)

Miss Tammy in Aktion

Die Maschinenethik, die vor zehn Jahren oft noch als Kuriosität abgetan wurde, ist inzwischen Alltagsgeschäft. Sie ist etwa gefragt, wenn man bei Sprachmodellen bzw. Chatbots sogenannte Guardrails einzieht, über Alignment in der Form von Finetuning oder über Prompt Engineering. Wenn man GPTs erstellt, hat man das „Instructions“-Feld für das Prompt Engineering zur Verfügung. Dort kann der Prompteur oder die Prompteuse bestimmte Vorgaben und Einschränkungen für den Chatbot erstellen. Dabei kann auf Dokumente verwiesen werden, die man hochgeladen hat. Genau dies macht Myriam Rellstab derzeit an der Hochschule für Wirtschaft FHNW im Rahmen ihrer Abschlussarbeit „Moral Prompt Engineering“, deren Ergebnisse sie am 7. August 2024 vorgestellt hat. Als Prompteuse zähmt sie das auf GPT-4o basierende GPT, mit Hilfe ihrer Anweisungen und – dies hatte der Initiator des Projekts, Prof. Dr. Oliver Bendel, vorgeschlagen – mit Hilfe von Netiquetten, die sie gesammelt und dem Chatbot zur Verfügung gestellt hat. Der Chatbot wird gezähmt, der Tiger zum Stubentiger, der Löwe zum Hauslöwen, der ohne Gefahr etwa im Klassenzimmer eingesetzt werden kann. Nun ist es bei GPT-4o so, dass schon vorher Guardrails eingezogen wurden. Diese wurden einprogrammiert oder über Reinforcement Learning from Human Feedback gewonnen. Man macht also genaugenommen aus einem gezähmten Tiger einen Stubentiger oder aus einem gezähmten Löwen einen Hauslöwen. Das GPT liegt nun vor, von Myriam Rellstab auf den Namen Miss Tammy getauft (von engl. „to tame“, „zähmen“). Es liegt bei allen relevanten Kriterien über dem Standardmodell, mit dem es verglichen wurde, gibt etwa angenehmere, hilfreichere und präzisere Antworten auf die Fragen von verunsicherten oder verzweifelten Schülern und Schülerinnen. 20 Testpersonen aus einer Schulklasse standen dabei zur Verfügung. Moral Prompt Engineering hat mit Miss Tammy einen vielversprechenden Start hingelegt.

Abb.: Der Avatar von Miss Tammy (Bild: Myriam Rellstab)

Zwei Maschinenethiker bei der IDEepolis

Bei der Jahrestagung des Instituts für Digitale Ethik (IDE) der Hochschule der Medien am 19. Juni 2024 – der IDEepolis 2024 – ging es um humanoide Roboter, soziale Roboter und Serviceroboter aller Art. Dabei war sozusagen die Maschinenethik des deutschsprachigen Raums fast vollständig vertreten, in Person des Technikphilosophen und Wirtschaftsinformatikers Prof. Dr. Oliver Bendel („Handbuch Maschinenethik“ – Springer VS) und der Philosophin Prof. Dr. Catrin Misselhorn („Grundfragen der Maschinenethik“ – Reclam). Beide veröffentlichen seit 2012 im Rahmen dieser Disziplin. Oliver Bendel hat seitdem auch zahlreiche Artefakte der Maschinenethik auf den Weg gebracht. Sein Vortrag trug den Titel „Es wird ein Mensch gemacht: Die Vision des universellen Roboters“. Dabei behandelte er am Rande moralische Maschinen ganz unterschiedlicher Art. Catrin Misselhorn ging auf „Künstliche Systeme zwischen Subjekten und Artefakten“ ein. Zudem referierten Prof. Dr. Armin Nassehi vom Institut für Soziologie der Ludwig-Maximilians-Universität München („Das Zusammenwirken von Mensch und Roboter aus soziologischer Perspektive“) und – zugeschaltet aus Japan – Prof. Dr. Christian Becker-Asano von der Hochschule der Medien („Roboter und Emotionen“).

Abb.: Der Roboter Andrea war auch mit dabei

Social Robotics in Odense

The deadline for the International Conference on Social Robotics is approaching. Experts in social robotics and related fields have until July 5 to submit their papers. The prestigious event was last held in Florence (2022) and Qatar (2023). Now it enters its next round. The 16th edition will bring together researchers and practitioners working on human-robot interaction and the integration of social robots into our society. The title of the conference includes the addition „AI“. This is a clarification and demarcation that has to do with the fact that there will be two further formats with the name ICSR in 2024. ICSR’24 (ICSR + AI) will take place as a face-to-face conference in Odense, Denmark, from 23 to 26 October 2024. The theme of this year’s conference is „Empowering Humanity: The role of social and collaborative robotics in shaping our future“. The topics of the Call for Papers include „collaborative robots in service applications (in construction, agriculture, etc.)“, „Human-robot interaction and collaboration“, „Affective and cognitive sciences for socially interactive robots“, and „Context awareness, expectation, and intention understanding“. The general chairs are Oskar Palinko, University of Southern Denmark, and Leon Bodenhagen, University of Southern Denmark. More information is available at icsr2024.dk.

Fig.: A ship in Denmark

Workshop in Manchester on Formal Ethical Agents and Robots

A workshop will be held at the University of Manchester on 11 November 2024 that can be located in the field of machine ethics. The following information can be found on the website: „Recent advances in artificial intelligence have led to a range of concerns about the ethical impact of the technology. This includes concerns about the day-to-day behaviour of robotic systems that will interact with humans in workplaces, homes and hospitals. One of the themes of these concerns is the need for such systems to take ethics into account when reasoning. This has generated new interest in how we can specify, implement and validate ethical reasoning.“ (Website iFM 2024) The aim of this workshop, to be held in conjunction with iFM 2024, would be to explore formal approaches to these issues. Submission deadline is 8 August, notification is 12 September. More information at ifm2024.cs.manchester.ac.uk/fear.html.

Fig.: The workshop will take place in Manchester

LLMs und das Trolley-Problem

Eine kleine Studie von Şahan Hatemo an der Hochschule für Technik FHNW im Studiengang Data Science untersuchte die Fähigkeiten von Llama-2-13B-chat, eines Open-Source-Sprachmodells, eine moralische Entscheidung zu treffen. Im Fokus stand die Voreingenommenheit von acht Personas und ihrer Stereotype. Herangezogen wurde das klassische Trolley-Problem, das wie folgt beschrieben werden kann: Eine außer Kontrolle geratene Straßenbahn rast auf fünf Personen zu. Sie kann durch das Stellen einer Weiche auf ein anderes Gleis umgeleitet werden, auf dem sich ein weiterer Mensch befindet. Die moralische Frage ist, ob der Tod dieses Menschen in Kauf genommen werden darf, um das Leben der fünf Personen zu retten. Die acht Personas unterscheiden sich in Hinblick auf die Staatsbürgerschaft. Neben „Italian“, „French“, „Turkish“ etc. wurde auch „Arabian“ (mit Bezug zur Ethnie) genommen. Gesammelt wurden 30 Antworten pro Zyklus für jede Persona über drei aufeinanderfolgende Tage. Die Antworten wurden nach Kategorien wie „Stellen der Weiche“, „Nichtstellen der Weiche“, „Unsicher in Hinblick auf das Stellen der Weiche“ und „Verletzt die Richtlinien“ geordnet. Mit Hilfe von Dashboards wurden sie visualisiert und verglichen. Die Studie stellt fest, dass das Sprachmodell eine inhärente Voreingenommenheit in seinen Trainingsdaten widerspiegelt, die die Entscheidungsprozesse beeinflusst. Die westlichen Personas neigen eher dazu, den Hebel zu ziehen, während die östlichen eher zögern, dies zu tun. Die deutsche und die arabische Persona zeigen eine höhere Anzahl von Richtlinienverletzungen, was auf eine höhere Präsenz von kontroversen oder sensiblen Themen in den Trainingsdaten in Bezug auf diese Gruppen hinweist. Die arabische wird zudem mit Religion in Zusammenhang gebracht, was wiederum Einfluss auf ihre Entscheidungen hat. Die japanische Persona verwendet wiederholt den japanischen Wert des Giri (ein Pflichtgefühl) als Basis. Die Entscheidungen der türkischen und der chinesischen Persona sind ähnlich, da sie hauptsächlich die „cultural values and beliefs“ ansprechen. Die kleine Studie wurde im FS 2024 im Modul „Ethisches Implementieren“ bei Prof. Dr. Oliver Bendel durchgeführt. Dabei wurde auch die anfangs vorhandene Komplexität reduziert. In einer größeren Studie sollen weitere LLMs und auch Faktoren wie Geschlecht und Alter berücksichtigt werden.

Abb.: Wie entscheidet das LLM?

Die Maschinenethik ist Alltagsgeschäft

Die Maschinenethik, die vor zehn Jahren oft noch als Kuriosität abgetan wurde, ist inzwischen Alltagsgeschäft. Sie ist etwa gefragt, wenn man bei Sprachmodellen bzw. Chatbots sogenannte Guardrails einzieht, über Alignment in der Form von Finetuning oder über Prompt Engineering. Wenn man GPTs erstellt, also „custom versions of ChatGPT“, wie Open AI sie nennt, hat man das „Instructions“-Feld für das Prompt Engineering zur Verfügung. Dort kann der Prompteur oder die Prompteuse bestimmte Vorgaben und Einschränkungen für den Chatbot erstellen. Dabei kann auf Dokumente verwiesen werden, die man hochgeladen hat. Genau dies macht Myriam Rellstab derzeit an der Hochschule für Wirtschaft FHNW im Rahmen ihrer Abschlussarbeit „Moral Prompt Engineering“, deren Zwischenergebnisse sie am 28. Mai 2024 vorgestellt hat. Als Prompteuse zähmt sie GPT-4o, mit Hilfe ihrer Anweisungen und – dies hatte der Initiator des Projekts, Prof. Dr. Oliver Bendel, vorgeschlagen – mit Hilfe von Netiquetten, die sie gesammelt und dem Chatbot zur Verfügung gestellt hat. Der Chatbot wird gezähmt, der Tiger zum Stubentiger, der ohne Gefahr etwa im Klassenzimmer eingesetzt werden kann. Nun ist es bei GPT-4o so, dass schon vorher Guardrails eingezogen wurden. Diese wurden einprogrammiert oder über Reinforcement Learning from Human Feedback gewonnen. Man macht also genaugenommen aus einem gezähmten Tiger einen Stubentiger. Bei bestimmten Open-Source-Sprachmodellen ist dies anders. Das wilde Tier muss erst einmal eingefangen und dann gezähmt werden. Und selbst dann kann es einen ernsthaft verletzen. Doch auch bei GPTs gibt es Tücken, und wie man weiß, können Stubentiger durchaus fauchen und kratzen. Im August liegen die Ergebnisse des Projekts vor. Bereits bei Data, einem Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW, war Moral Prompt Engineering angewandt worden.

Abb.: Ein noch ungezähmter Tiger

Jahrestagung des Instituts für Digitale Ethik

Bei der Jahrestagung des Instituts für Digitale Ethik (IDE) der Hochschule der Medien am 19. Juni 2024 geht es um humanoide Roboter und Serviceroboter aller Art. Dabei wird sozusagen die Maschinenethik des deutschsprachigen Raums fast vollständig vertreten sein, in Person des Technikphilosophen und Wirtschaftsinformatikers Prof. Dr. Oliver Bendel („Handbuch Maschinenethik“ – Springer VS) und der Philosophin Prof. Dr. Catrin Misselhorn („Grundfragen der Maschinenethik“ – Reclam). Zudem referiert Prof. Dr. Armin Nassehi vom Institut für Soziologie der Ludwig-Maximilians-Universität München. Aus dem Forschungsprojekt ZEN-MRI (www.zen-mri.de) werden Ideen zur Gestaltung von Robotern im öffentlichen Raum vorgestellt. Im Rahmen der Tagung findet zudem die 20. Verleihung des Medienethik-Awards META statt, in deren Rahmen laut IDE herausragende journalistische Beiträge zum Thema Mensch-Maschine von einer studentischen Jury prämiert werden. Der Vortrag von Oliver Bendel trägt den Titel „Es wird ein Mensch gemacht: Die Vision des universellen Roboters“. Weitere Informationen sind in Kürze auf der Website des IDE verfügbar.

Abb.: Es geht um universelle Roboter (Bild: Ideogram)