Bei den AAAI 2025 Spring Symposia werden drei Bachelorstudenten der neuen Hochschule für Informatik FHNW einen Vortrag halten. Sahan Hatemo, Christof Weickhardt und Luca Gisler sind am 1. April 2025 vor Ort in San Francisco und stellen beim Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“ das Paper „Revisiting the Trolley Problem for AI: Stereotypes and Biases in Large Language Models and their Impact on Ethical Decision-Making“ vor. Prof. Dr. Oliver Bendel, der Viertautor, hat ihnen Feedback zum Paper gegeben und das Projekt im Paper in der Maschinenethik verortet. Von Zürich aus ist am selben Tag die Masterstudentin Myriam Rellstab zugeschaltet. Das Paper „Miss Tammy as a Use Case for Moral Prompt Engineering“ hat sie zusammen mit Oliver Bendel verfasst. Für ihn ist der Chatbot eine Umsetzung von Methoden der Maschinenethik im Bereich der Large Language Models (LLMs). Er spricht von Moral Prompt Engineering und meint damit die Verbindung von Prompt Engineering und gegebenenfalls Retrieval-Augmented Generation (RAG). Sahan Hatemo wird den Vortrag halten und Myriam Rellstab dann für Fragen zur Verfügung stehen. Das vorläufige Programm des Symposiums ist hier verfügbar.
Abb.: Dieser Avatar von Miss Tammy wurde verworfen (Bild: Ideogram)
„Robot Enhancement ist die Erweiterung und damit einhergehende Veränderung oder Verbesserung des Roboters durch den Benutzer bzw. eine Firma, etwa in funktionaler, ästhetischer, ethischer oder ökonomischer Hinsicht. Das Wort wurde in Anlehnung an ‚Human Enhancement‘ und ‚Animal Enhancement‘ gebildet, und man kann damit sowohl das Arbeitsgebiet als auch den Gegenstand bezeichnen. Eine Form des Robot Enhancement ist das Social Robot Enhancement, bei dem ein sozialer Roboter erweitert bzw. verändert und verbessert wird. Der Hersteller bietet vor dem Finishing unterschiedliche Optionen an, eine Tuningfirma nach der Produktion diverse Add-ons. Auch der Benutzer selbst kann in verschiedener Weise aktiv werden, etwa indem er das Gegenüber markiert und es dadurch personalisiert.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der vor vier Jahren, am 20. Februar 2021, im Gabler Wirtschaftslexikon erschienen ist. Inzwischen gibt es zahlreiche Beispiele für Robot Enhancement, auch und gerade im relativ neuen Bereich der Wearables Social Robots (der tragbaren sozialen Roboter). Für diesen stehen oft Kleidungsstücke und Kostüme zur Verfügung, und manche von ihnen kann man mit ChatGPT verbinden.
Abb.: Die Erweiterungen von tragbaren sozialen Robotern
„Wearable Robots sind Roboter oder robotische Komponenten, die man bei sich, auf sich oder in sich trägt. Sie können am Kopf, am Körper oder an der Kleidung befestigt bzw. mit Körperteilen und Organen dauerhaft verbunden werden. Manche sind aus harten, starren Materialien gefertigt, wie Hightechprothesen, Exoskelette und kleine soziale Roboter (Wearable Social Robots). Andere sind aus weichen, flexiblen Materialien, wie Exosuits und Exogloves (Soft Wearable Robots).“ Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel, der am 5. März 2025 im Gabler Wirtschaftslexikon veröffentlicht wurde. Im zweiten Abschnitt wird näher auf Wearable Social Robots eingegangen: „Kleine soziale Roboter werden an einer Halskette oder in der Brusttasche getragen – oder an Metallplättchen unter dem Stoff, an denen sie mit Hilfe von Magneten haften. Man kann mit ihnen sprechen oder sich über sie an das Gegenüber wenden und die Umgebung fotografieren, analysieren und evaluieren.“ Im dritten Abschnitt wird die Perspektive der Ethik eingenommen. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/wearable-robots-172088 aufgerufen werden.
Since November 12, 2023, a custom GPT called Social Robotics Girl has been available that provides information about social robotics. It was created by Prof. Dr. Oliver Bendel and is based on a collection of his articles on this topic. It can therefore give his definition of social robots and make classifications based on his five-dimension model. Since February 16, 2025, Social Robotics Girl is also a contact person when it comes to the International Conference on Social Robotics 2025 (ICSR 2025) in Naples. She knows the deadlines for submissions, the chairs and committees, and the venues. And above all, she can advise you on the topics of the conference, which this time revolve around “Emotivation”. Of course, she also knows a good recipe for Pizza Napoletana. Social Robotics Girl can be accessed via chatgpt.com/g/g-TbhZSZaer-social-robotics-girl.
Fig.: Social Robotics Girl for ICSR 2025 (Image: Ideogram)
The paper “Revisiting the Trolley Problem for AI: Biases and Stereotypes in Large Language Models and their Impact on Ethical Decision-Making“ by Sahan Hatemo, Christof Weickhardt, Luca Gisler (FHNW School of Computer Science), and Oliver Bendel (FHNW School of Business) was accepted at the AAAI 2025 Spring Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. A year ago, Sahan Hatemo had already dedicated himself to the topic of „ETHICAL DECISION MAKING OF AI: An Investigation Using a Stereotyped Persona Approach in the Trolley Problem“ in a so-called mini-challenge in the Data Science degree program. His supervisor, Oliver Bendel, had told the other scientists about the idea at the AAAI 2025 Spring Symposium „Impact of GenAI on Social and Individual Well-being“ at Stanford University. This led to a lively discussion. The student recruited two colleagues, Christof Weickhardt and Luca Gisler, and worked on the topic in a much more complex form in a so-called Challenge X. This time, three different open-source language models were applied to the trolley problem. In each case, personalities were created with nationality, gender, and age. In addition, the data was compared with that of the MIT Moral Machine project. Sahan Hatemo, Christof Weickhardt, and Luca Gisler will present their results at the end of March or beginning of April 2025 in San Francisco, the venue of this year’s event.
Fig.: Variants of the trolley problem (Image: Jonas Kubilius)
The paper „Miss Tammy as a Use Case for Moral Prompt Engineering“ by Myriam Rellstab and Oliver Bendel from the FHNW School of Business was accepted at the AAAI 2025 Spring Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. It describes the development of a chatbot that can be available to pupils and de-escalate their conflicts or promote constructive dialogues among them. Prompt engineering – called moral prompt engineering in the project – and retrieval-augmented generation (RAG) were used. The centerpiece is a collection of netiquettes. On the one hand, these control the behavior of the chatbot – on the other hand, they allow it to evaluate the behavior of the students and make suggestions to them. Miss Tammy was compared with a non-adapted standard model (GPT-4o) and performed better than it in tests with 14- to 16-year-old pupils. The project applied the discipline of machine ethics, in which Oliver Bendel has been researching for many years, to large language models, using the netiquettes as a simple and practical approach. The eight AAAI Spring Symposia will not be held at Stanford University this time, but at the San Francisco Airport Marriott Waterfront, Burlingame, from March 31 to April 2, 2025. It is a conference rich in tradition, where innovative and experimental approaches are particularly in demand.
Abb.: Dieser Avatar wurde wieder verworfen (Bild: Ideogram)
Im privat finanzierten Social Robots Lab von Prof. Dr. Oliver Bendel ist seit Januar 2025 der kleine AIBI zu finden. Er stammt von der chinesischen Firma LivingAI. Weitere Roboter und Figuren im Social Robots Lab sind Cupboo AI Robotic Pet aka Boo Boo, Unitree Go2, Alpha Mini, Cozmo, Vector, Furby, Tamagotchi und Hugvie. HUGGIE wurde Anfang 2025 demontiert und einem Projekt eines Studenten zugeführt, in dem der Roboter mit synthetischer oder natürlicher Stimme lacht. Zu Besuch sind im Lab bzw. im Wahlmodul zu sozialen Robotern ab und zu NAO und Pepper. AIBI verfügt über verschiedene Sensoren, eine Kamera und drei Mikrofone. Er versteht Sprachbefehle. Bei komplexeren Fragen verbindet er sich mit ChatGPT. Das Gesicht besteht aus einem Display, auf dem er animierte Augen und animierte Szenen aller Art darstellen kann. Er steht auf einer Plattform, über die er sich um 360 Grad drehen kann. Zudem kann er den Kopf frei bewegen. Ähnlich wie Cozmo gibt er zahlreiche Töne von sich und versucht auf diese und andere Weise die Aufmerksamkeit des Benutzers zu erregen. Dank seiner Magneten kann er am Kühlschrank und anderen Metallflächen angebracht werden, zudem an einer mitgelieferten Halskette, sodass er sich in ein Wearable verwandelt. Auch mit dem Zubehör verwandelt er sich, etwa in eine Katze. Robot Enhancement wird von der Firma also mitgedacht und -geliefert.
Abb.: AIBI kann als Wearable genutzt werden (Foto: LivingAI)
The ICSR is one of the leading conferences for social robotics worldwide. The 17th edition will take place from 10 to 12 September 2025 in Naples, Italy. The conference website is now online: icsr2025.eu. „The conference theme, ‘Emotivation at the Core: Empowering Social Robots to Inspire and Connect,’ highlights the essential role of ‘Emotivation’ in social robotics. Emotivation captures the synergy between emotion and motivation, where emotions trigger and sustain motivation during interactions. In social robotics, this concept is key to building trust, fostering empathy, and supporting decision-making by enabling robots to respond sensitively to human emotions, inspiring engagement and action.“ (Website ICSR) The most important conferences dates are: Full Paper Submission: March 28th, 2025; Full Paper Notification: May 9th, 2025; Camera-ready: June 30th, 2025; Paper Presentation Days at ICSR’25: September 11th and 12th, 2025. All dates are also listed on the website. Participants will meet for two days at the Parthenope University of Naples and for the third day at the Città della Scienza conference center. All buildings and rooms are also listed on the website. Be part of this excellent conference (Photo: ICSR)!
Since 2013, Oliver Bendel has developed 22 chatbots and voice assistants together with his students or colleagues. They can be divided into three categories. The first are moral and immoral chatbots (i.e., forms of moral machines) and empathic voice assistants. The second are chatbots (some with voice output) for dead, endangered, or extinct languages and idioms. The third are pedagogical chatbots and chatbots that give recommendations and advice. Some of the projects lasted between four and six months. Most of the GPTs were created in just a few hours. Exceptions are Miss Tammy and Animal Whisperer, which took several months to build with the help of prompt engineering and retrieval-augmented generation (RAG). Articles and book chapters have been published on many of the projects. The names of the developers can be found in these. A few chatbots made it into the media, such as GOODBOT (for which the preparatory work began in 2012), LÜGENBOT aka LIEBOT, and @llegra.
The final presentation of the „kAIxo“ project took place on January 9, 2025. Nicolas Lluis Araya was the project team member. The FHNW School of Business has been developing chatbots for dead, endangered, and extinct languages for several years. A well-known example is @llegra, a chatbot for Vallader. In the spring of 2024, Oliver Bendel tested the reach of GPTs for endangered languages such as Irish (Irish Gaelic), Maori, and Basque. According to ChatGPT, there is a relatively large amount of training material for them. On May 12, 2024 – after Irish Girl and Maori Girl – a first version of Adelina, a chatbot for Basque, was created. It was later improved in a second version. As part of the „kAIxo“ project (the Basque “kaixo” corresponds to the English „hello“), the chatbot kAIxo was built, which speaks Basque. Its purpose is to keep users practicing written or spoken language or to develop the desire to learn the endangered language. The chatbot is based on GPT-4o and Gemini 1.5 Flash, and the user can select his or her preferred large language model (LLM). Retrieval-augmented Generation (RAG) plays a central role. The ChatSubs dataset is used, which contains subtitles of movie dialogs in Basque. Thanks to a text-to-speech engine, the chatbot can also speak. At the final presentation, Nicolas Lluis Araya presented a working prototype that can be accessed via www.kaixo.ch.
„Left to their own devices, an army of AI characters didn’t just survive – they thrived. They developed in-game jobs, shared memes, voted on tax reforms and even spread a religion.“ (MIT Technology Review, 27 November 2024) This was reported by MIT Technology Review in an article on November 27. „The experiment played out on the open-world gaming platform Minecraft, where up to 1000 software agents at a time used large language models (LLMs) to interact with one another. Given just a nudge through text prompting, they developed a remarkable range of personality traits, preferences and specialist roles, with no further inputs from their human creators.“ (MIT Technology Review, 27 November 2024) According to the magazine, the work by AI startup Altera is part of a broader field that seeks to use simulated agents to model how human groups would react to new economic policies or other interventions. The article entitled „These AI Minecraft characters did weirdly human stuff all on their own“ can be accessed here.
Adrian Lobe hat Oliver Bendel die Frage gestellt, ob man gegenüber Chatbots nett und höflich sein sollte. Der Technikphilosoph und Wirtschaftsinformatiker führte aus, dass Höflichkeit bei Chatbots, die auf LLMs basieren, zu besseren Antworten führen kann, ebenso wie die Behauptung, dass man das Ergebnis für eine gute Sache oder wissenschaftliche Zwecke benötigt. Es sei effektiv, zu Chatbots und Sprachassistenten „danke“ und „bitte“ zu sagen. Zudem wies er darauf hin, dass wir bestimmte Routinen und Konventionen in Gesprächen haben. Es sei durchaus sinnvoll, diese auch dann beizubehalten, wenn es sich um künstliche Gesprächspartner handele. Es sei effizient und konsistent, zu Chatbots und Sprachassistenten „danke“ oder „bitte“ zu sagen. Ich muss, so Oliver Bendel, nicht hin und her wechseln, ich kann das Gespräch wie mit einem Menschen führen. Man tauschte sich noch zu weiteren Aspekten der Höflichkeit gegenüber Chatbots aus. Einzelne Aussagen sind in den Artikel „Warum man unbedingt nett zu Chatbots sein sollte“ eingeflossen, der am 8. November 2024 in der Onlineausgabe der Welt erschienen ist.
Die Maschinenethik, die vor zehn Jahren oft noch als Kuriosität abgetan wurde, ist inzwischen Alltagsgeschäft. Sie ist etwa gefragt, wenn man bei Sprachmodellen bzw. Chatbots sogenannte Guardrails einzieht, über Alignment in der Form von Finetuning oder über Prompt Engineering. Wenn man GPTs erstellt, hat man das „Instructions“-Feld für das Prompt Engineering zur Verfügung. Dort kann der Prompteur oder die Prompteuse bestimmte Vorgaben und Einschränkungen für den Chatbot erstellen. Dabei kann auf Dokumente verwiesen werden, die man hochgeladen hat. Genau dies macht Myriam Rellstab derzeit an der Hochschule für Wirtschaft FHNW im Rahmen ihrer Abschlussarbeit „Moral Prompt Engineering“, deren Ergebnisse sie am 7. August 2024 vorgestellt hat. Als Prompteuse zähmt sie das auf GPT-4o basierende GPT, mit Hilfe ihrer Anweisungen und – dies hatte der Initiator des Projekts, Prof. Dr. Oliver Bendel, vorgeschlagen – mit Hilfe von Netiquetten, die sie gesammelt und dem Chatbot zur Verfügung gestellt hat. Der Chatbot wird gezähmt, der Tiger zum Stubentiger, der Löwe zum Hauslöwen, der ohne Gefahr etwa im Klassenzimmer eingesetzt werden kann. Nun ist es bei GPT-4o so, dass schon vorher Guardrails eingezogen wurden. Diese wurden einprogrammiert oder über Reinforcement Learning from Human Feedback gewonnen. Man macht also genaugenommen aus einem gezähmten Tiger einen Stubentiger oder aus einem gezähmten Löwen einen Hauslöwen. Das GPT liegt nun vor, von Myriam Rellstab auf den Namen Miss Tammy getauft (von engl. „to tame“, „zähmen“). Es liegt bei allen relevanten Kriterien über dem Standardmodell, mit dem es verglichen wurde, gibt etwa angenehmere, hilfreichere und präzisere Antworten auf die Fragen von verunsicherten oder verzweifelten Schülern und Schülerinnen. 20 Testpersonen aus einer Schulklasse standen dabei zur Verfügung. Moral Prompt Engineering hat mit Miss Tammy einen vielversprechenden Start hingelegt.
Abb.: Der Avatar von Miss Tammy (Bild: Myriam Rellstab)
Experts in social robotics and related fields have until August 9, 2024 to submit their short papers. The prestigious event was last held in Florence (2022) and Qatar (2023). Now it enters its next round. The 16th edition will bring together researchers and practitioners working on human-robot interaction and the integration of social robots into our society. The title of the conference includes the addition „AI“. This is a clarification and demarcation that has to do with the fact that there will be two further formats with the name ICSR in 2024. ICSR’24 (ICSR + AI) will take place as a face-to-face conference in Odense, Denmark, from 23 to 26 October 2024. The theme of this year’s conference is „Empowering Humanity: The role of social and collaborative robotics in shaping our future“. The topics of the Call for Papers include „collaborative robots in service applications (in construction, agriculture, etc.)“, „Human-robot interaction and collaboration“, „Affective and cognitive sciences for socially interactive robots“, and „Context awareness, expectation, and intention understanding“. The general chairs are Oskar Palinko, University of Southern Denmark, and Leon Bodenhagen, University of Southern Denmark. The deadline for full papers has already passed. More information is available at icsr2024.dk.Fig.: The social robot ARI
Bei der Jahrestagung des Instituts für Digitale Ethik (IDE) der Hochschule der Medien am 19. Juni 2024 – der IDEepolis 2024 – ging es um humanoide Roboter, soziale Roboter und Serviceroboter aller Art. Dabei war sozusagen die Maschinenethik des deutschsprachigen Raums fast vollständig vertreten, in Person des Technikphilosophen und Wirtschaftsinformatikers Prof. Dr. Oliver Bendel („Handbuch Maschinenethik“ – Springer VS) und der Philosophin Prof. Dr. Catrin Misselhorn („Grundfragen der Maschinenethik“ – Reclam). Beide veröffentlichen seit 2012 im Rahmen dieser Disziplin. Oliver Bendel hat seitdem auch zahlreiche Artefakte der Maschinenethik auf den Weg gebracht. Sein Vortrag trug den Titel „Es wird ein Mensch gemacht: Die Vision des universellen Roboters“. Dabei behandelte er am Rande moralische Maschinen ganz unterschiedlicher Art. Catrin Misselhorn ging auf „Künstliche Systeme zwischen Subjekten und Artefakten“ ein. Zudem referierten Prof. Dr. Armin Nassehi vom Institut für Soziologie der Ludwig-Maximilians-Universität München („Das Zusammenwirken von Mensch und Roboter aus soziologischer Perspektive“) und – zugeschaltet aus Japan – Prof. Dr. Christian Becker-Asano von der Hochschule der Medien („Roboter und Emotionen“).
A workshop will be held at the University of Manchester on 11 November 2024 that can be located in the field of machine ethics. The following information can be found on the website: „Recent advances in artificial intelligence have led to a range of concerns about the ethical impact of the technology. This includes concerns about the day-to-day behaviour of robotic systems that will interact with humans in workplaces, homes and hospitals. One of the themes of these concerns is the need for such systems to take ethics into account when reasoning. This has generated new interest in how we can specify, implement and validate ethical reasoning.“ (Website iFM 2024) The aim of this workshop, to be held in conjunction with iFM 2024, would be to explore formal approaches to these issues. Submission deadline is 8 August, notification is 12 September. More information at ifm2024.cs.manchester.ac.uk/fear.html.