Wenn Maschinen besser sehen und hören als wir

„Tech Affair ist der VDW-Podcast zur zukunftsfähigen Industrie. Wissenschaftler sprechen mit Praktikern über aktuelle Entwicklungen und Ideen für eine Industrie mit und für Menschen. Welche neuen Technologien haben das Zeug, unsere Industrie zukunftsfähig zu machen? Wie sehen morgen unsere Arbeitsplätze aus? Lernen wir aus den Krisen unserer Zeit? Tech Affair bietet spannende Einblicke.“ (Website VDW) So heißt es auf der Website des VDW. Die neueste Folge mit Prof. Dr. Jan Peters (TU Darmstadt) und Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) beschäftigt sich mit Industrie- und Servicerobotern und ihren Sensoren. Dazu heißt es auf der Website: „Roboter, die Unebenheiten auf Oberflächen millimetergenau ertasten können, austretende Schadstoffe sofort riechen oder mit uns kommunizieren, indem sie reagieren und antworten. All dies entspringt keiner Science-Fiction-Geschichte, sondern ist dank intensiver Forschung schon Realität. Die Sensoren von Robotern sind teilweise inzwischen so weit fortgeschritten, dass sie unsere menschlichen Sinne um ein Vielfaches übertreffen. Und das, obwohl diese Sinne von den Robotern lediglich imitiert werden, durch Kameras, Mikrofone, Geruchssensoren oder Kontaktsensoren.“ (Website VDW) Der Podcast kann über vdw.de/podcast/folge-19-robotik-wenn-maschinen-feinere-sinne-entwickeln-als-wir/ aufgerufen werden.

Abb.: Wenn Maschinen besser sehen und hören als wir

Soll man nett zu einem Chatbot sein?

Der Spiegel hat mit Prof. Dr. Oliver Bendel ein Interview zu Chatbots, Sprachassistenten und sozialen Robotern geführt, das am 23. Juni 2025 veröffentlicht wurde. Es geht u.a. um Dialoge mit Artefakten. Der Technikphilosoph hält es für unproblematisch, danke und bitte zu einem Chatbot oder einem Sprachassistenten zu sagen. Damit überträgt man einfach bestehende Konventionen. Zudem reagiert ein LLM wie GPT-4o anders, wenn man zugewandt und ausführlich ist. Man erhält oft längere und hilfreichere Antworten und auch hilfreichere Rückfragen. Etwas anderes ist es, wenn es nicht nur um Konventionen, sondern auch um Emotionen geht. Wenn man dem Chatbot gegenüber sein Herz ausschüttet, muss einem klar sein, dass auf der einen Seite nichts ist, was sich für einen interessiert oder das versteht, was Menschen wünschen und brauchen. Hier liegen Täuschung und Betrug nahe, wie Oliver Bendel mit seinen Kollegen auch im Jahre 2023 in einer Studie zu sozialen Robotern herausgearbeitet hat. Das Interview kann über www.spiegel.de aufgerufen werden.

Abb.: Soll man nett zu einem Chatbot sein?

Book on Animals, Ethics, and Engineering

The edited volume „Animals, Ethics, and Engineering: Intersections and Implications“ will be published by Jenny Stanford in August 2025. It can already be pre-ordered via online stores. These provide the following information: „‚Animals, Ethics, and Engineering: Intersections and Implications‘ is a seminal work that explores the intricate relationship between technology, ethics, and the welfare of nonhuman animals. Edited by Rosalyn W. Berne, this volume brings together leading scholars and practitioners to examine the ethical responsibilities inherent in technological progress and its impact on animal well-being.“ (Information Publisher) The authors include Clara Mancini, Fiona French, Abraham Gibson, Nic Carey, Kurt Reymers, and Oliver Bendel. Rosalyn W. Berne is the Anne Shirley Carter Olsson Professor of Applied Ethics and Chair of the Department of Engineering and Society, School of Engineering and Applied Sciences, University of Virginia, where she has been a faculty member since 1999 and co-directs the Online Ethics Center for Engineering and Science (OEC).

Fig.: Animals, Ethics, and Engineering

AAAI 2025 Spring Symposia Proceedings

The Association for the Advancement of Artificial Intelligence’s (AAAI) 2025 Spring Symposium Series took place from March 31 to April 2 in Burlingame, California. The symposium series fosters an intimate environment that enables emerging AI communities to engage in workshop-style discussions. Topics change each year to ensure a dynamic venue that stays current with the evolving landscape of AI research and applications. This year’s program included eight symposia: AI for Engineering and Scientific Discoveries; AI for Health Symposium: Leveraging Artificial Intelligence to Revolutionize Healthcare; Current and Future Varieties of Human-AI Collaboration; GenAI@Edge: Empowering Generative AI at the Edge; Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science; Machine Learning and Knowledge Engineering for Trustworthy Multimodal and Generative AI (AAAI-MAKE); Symposium on Child-AI Interaction in the Era of Foundation Models; Towards Agentic AI for Science: Hypothesis Generation, Comprehension, Quantification, and Validation. On May 28, 2025, the „Proceedings of the AAAI 2025 Spring Symposium Series“ (Vol. 5 No. 1) were published. They are available at ojs.aaai.org/index.php/AAAI-SS/issue/view/654.

Fig.: The conference took place in California (ChatGPT/4o Image)

Revisiting the Trolley Problem

On May 28, 2025, the „Proceedings of the 2025 AAAI Spring Symposium Series“ (Vol. 5 No. 1) were published. Oliver Bendel was involved in two papers at the symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. The paper „Revisiting the Trolley Problem for AI: Biases and Stereotypes in Large Language Models and their Impact on Ethical Decision-Making“ by Sahan Hatemo, Christof Weickhardt, Luca Gisler, and Oliver Bendel is summarized as follows: „The trolley problem has long served as a lens for exploring moral decision-making, now gaining renewed significance in the context of artificial intelligence (AI). This study investigates ethical reasoning in three open-source large language models (LLMs) – LLaMA, Mistral and Qwen – through variants of the trolley problem. By introducing demographic prompts (age, nationality and gender) into three scenarios (switch, loop and footbridge), we systematically evaluate LLM responses against human survey data from the Moral Machine experiment. Our findings reveal notable differences: Mistral exhibits a consistent tendency to over-intervene, while Qwen chooses to intervene less and LLaMA balances between the two. Notably, demographic attributes, particularly nationality, significantly influence LLM decisions, exposing potential biases in AI ethical reasoning. These insights underscore the necessity of refining LLMs to ensure fairness and ethical alignment, leading the way for more trustworthy AI systems.“ The renowned and traditional conference took place from March 31 to April 2, 2025 in San Francisco. The proceedings are available at ojs.aaai.org/index.php/AAAI-SS/issue/view/654.

Fig.: Revisiting the Trolley Problem

A Use Case for Moral Prompt Engineering

On May 28, 2025, the „Proceedings of the 2025 AAAI Spring Symposium Series“ (Vol. 5 No. 1) were published. Oliver Bendel was involved in two papers at the symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. The paper „Miss Tammy as a Use Case for Moral Prompt Engineering“ by Myriam Rellstab and Oliver Bendel is summarized as follows: „This paper describes an LLM-based chatbot as a use case for moral prompt engineering. Miss Tammy, as it is called, was created between February 2024 and February 2025 at the FHNW School of Business as a custom GPT. Different types of prompt engineering were used. In addition, RAG was applied by building a knowledge base with a collection of netiquettes. These usually guide the behavior of users in communities but also seem to be useful to control the actions of chatbots and make them competent in relation to the behavior of humans. The tests with pupils aged between 14 and 16 showed that the custom GPT had significant advantages over the standard GPT-4o model in terms of politeness, appropriateness, and clarity. It is suitable for de-escalating conflicts and steering dialogues in the right direction. It can therefore contribute to users’ well-being and is a step forward in human-compatible AI.“ The renowned and traditional conference took place from March 31 to April 2, 2025 in San Francisco. The proceedings are available at ojs.aaai.org/index.php/AAAI-SS/issue/view/654.

Fig.: Miss Tammy

Wenn Maschinen Gefühle haben

In der Zeitschrift Chip (6/2025), erschienen Anfang Mai 2025, findet sich unter dem Titel „Wenn Maschinen Gefühle haben“ ein dreiseitiges Interview mit Prof. Dr. Oliver Bendel. Der Technikphilosoph glaubt nicht, dass KI-Systeme jemals etwas empfinden und dass sie leiden können. Er glaubt nicht, dass sie jemals Glück empfinden können. In der Tierethik gehe man davon aus, dass etwas Rechte haben kann, wenn es empfinden und leiden kann – und das Glück müsse man unbedingt hinzunehmen. Ganz offensichtlich haben die meisten Tiere – so der Technikphilosoph, der sich in seinem Studium der Philosophie auch der Tierethik gewidmet hat – moralische Rechte. Und ganz offensichtlich haben KI-Systeme oder soziale Roboter keine. Er sieht nicht, wie sie mit generativer KI zum Empfinden und Leiden kommen könnten. Es existiere auch keinerlei Hinweis darauf, wenn man vom Marketing von Unternehmen und Evangelisten absehe. Seinem Interviewpartner Thomas Raukamp gegenüber hatte er ausgeführt: „Wenn eine Simulationsmaschine immer besser simuliert, bedeutet das nicht, dass sie plötzlich keine Simulationsmaschine mehr ist. Sie ist nur eine immer bessere Simulationsmaschine. Es gibt keinen Sprung zum Leben, es gibt keinen Sprung zum Bewusstsein, es gibt keinen Sprung zum Empfinden, Leiden und Glück. Sie verbleibt in der Simulation.“ Der Artikel ist in der Jubiläumsausgabe erschienen, der 555. Ausgabe der Zeitschrift, und kann am Kiosk oder über chip-shop.de bezogen werden.

Abb.: Das Inhaltsverzeichnis der Zeitschrift Chip (6/2025)

14 Concepts and Artifacts in the Field of ACI

Since 2012, Oliver Bendel has developed 14 concepts and artifacts in the field of animal-computer interaction (ACI) or animal-machine interaction (AMI) together with his students. They can be divided into three categories. The first are animal- and nature-friendly concepts. The second are animal-friendly machines and systems (i.e., forms of moral machines). The third are animal-inspired machines and systems that replace the animals or bring them closer to you. Articles and book chapters have been published on many of the projects. The names of the developers can be found in these. A few prototypes made it into the media, such as LADYBIRD and HAPPY HEDGEHOG. Oliver Bendel repeatedly refers to Clara Mancini, the pioneer in the field of animal-computer interaction. Recently, ethicists such as Peter Singer have also turned their attention to the topic. Current projects include „Robodog“ (in which a robot dog meets real dogs) and „VISUAL“ (which is designed to enable photo safaris for the blind).

Fig.: 14 concepts and artifacts

Special Paper Award

The paper „Revisiting the Trolley Problem for AI: Biases and Stereotypes in Large Language Models and their Impact on Ethical Decision-Making“ by Şahan Hatemo, Christof Weickhardt, Luca Gisler, and Oliver Bendel received the Special Paper Award from the reviewers of the AAAI 2025 Spring Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. The three bachelor students from the FHNW School of Computer Science gave their presentation on site in San Francisco as part of the AAAI 2025 Spring Symposia. Prof. Dr. Bendel from the FHNW School of Business had given them feedback on the project and placed it in the context of machine ethics. He has been involved in the well-known and popular conference, which usually takes place at Stanford University, since 2016. This time, he was keeping his fingers crossed from Italy. The proceedings of the AAAI 2025 Spring Symposia will be published in April 2025.

Fig.: Special Paper Award

Mit Cleop@tr@ in Ägypten

Seit 2012 baut Prof. Dr. Oliver Bendel – teils mit seinen Studenten und Studentinnen, teils im Alleingang – Chatbots und Sprachassistenten. Diese wurden von den Medien besprochen und von der NASA für interessant befunden. Sein theoretisches Rüstzeug und praktisches Anschauungsmaterial hat er aus seiner Promotion zu diesem Thema, die ein Vierteljahrhundert zurückliegt. Seit 2022 liegt der Fokus auf Dialogsystemen für tote und gefährdete Sprachen. Es entstanden @ve, ein Chatbot für Latein (Implementierung durch Karim N’diaye), @llegra, ein Chatbot mit Sprachausgabe für Vallader, ein Idiom des Rätoromanischen (Implementierung durch Dalil Jabou), und kAIxo, ein Chatbot mit Sprachausgabe für Baskisch (Implementierung durch Nicolas Lluis Araya). Zudem experimentiert Oliver Bendel mit Chatbots für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Die Welt hat am 1. April 2025 einen Artikel zu seiner Arbeit veröffentlicht, mitsamt einem längeren Interview, in dem der Technikphilosoph die Möglichkeiten und Beschränkungen von großen Sprachmodellen in diesem Kontext dargelegt. Cleop@tr@ nutzt die Multimodalität von GPT-4 für ihre Übersetzungen und Deutungen. Der Artikel kann hier aufgerufen werden.

Abb.: Ein ägyptisches Motiv

Vorträge zur Maschinenethik in Frisco

Bei den AAAI 2025 Spring Symposia werden drei Bachelorstudenten der neuen Hochschule für Informatik FHNW einen Vortrag halten. Sahan Hatemo, Christof Weickhardt und Luca Gisler sind am 1. April 2025 vor Ort in San Francisco und stellen beim Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“ das Paper „Revisiting the Trolley Problem for AI: Stereotypes and Biases in Large Language Models and their Impact on Ethical Decision-Making“ vor. Prof. Dr. Oliver Bendel, der Viertautor, hat ihnen Feedback zum Paper gegeben und das Projekt im Paper in der Maschinenethik verortet. Von Zürich aus ist am selben Tag die Masterstudentin Myriam Rellstab zugeschaltet. Das Paper „Miss Tammy as a Use Case for Moral Prompt Engineering“ hat sie zusammen mit Oliver Bendel verfasst. Für ihn ist der Chatbot eine Umsetzung von Methoden der Maschinenethik im Bereich der Large Language Models (LLMs). Er spricht von Moral Prompt Engineering und meint damit die Verbindung von Prompt Engineering und gegebenenfalls Retrieval-Augmented Generation (RAG). Sahan Hatemo wird den Vortrag halten und Myriam Rellstab dann für Fragen zur Verfügung stehen. Das vorläufige Programm des Symposiums ist hier verfügbar.

Abb.: Dieser Avatar von Miss Tammy wurde verworfen (Bild: Ideogram)

Geräte und Erweiterungen für tragbare soziale Roboter

„Robot Enhancement ist die Erweiterung und damit einhergehende Veränderung oder Verbesserung des Roboters durch den Benutzer bzw. eine Firma, etwa in funktionaler, ästhetischer, ethischer oder ökonomischer Hinsicht. Das Wort wurde in Anlehnung an ‚Human Enhancement‘ und ‚Animal Enhancement‘ gebildet, und man kann damit sowohl das Arbeitsgebiet als auch den Gegenstand bezeichnen. Eine Form des Robot Enhancement ist das Social Robot Enhancement, bei dem ein sozialer Roboter erweitert bzw. verändert und verbessert wird. Der Hersteller bietet vor dem Finishing unterschiedliche Optionen an, eine Tuningfirma nach der Produktion diverse Add-ons. Auch der Benutzer selbst kann in verschiedener Weise aktiv werden, etwa indem er das Gegenüber markiert und es dadurch personalisiert.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der vor vier Jahren, am 20. Februar 2021, im Gabler Wirtschaftslexikon erschienen ist. Inzwischen gibt es zahlreiche Beispiele für Robot Enhancement, auch und gerade im relativ neuen Bereich der Wearables Social Robots (der tragbaren sozialen Roboter). Für diesen stehen oft Kleidungsstücke und Kostüme zur Verfügung, und manche von ihnen kann man mit ChatGPT verbinden.

Abb.: Die Erweiterungen von tragbaren sozialen Robotern

Über Wearable Robots

„Wearable Robots sind Roboter oder robotische Komponenten, die man bei sich, auf sich oder in sich trägt. Sie können am Kopf, am Körper oder an der Kleidung befestigt bzw. mit Körperteilen und Organen dauerhaft verbunden werden. Manche sind aus harten, starren Materialien gefertigt, wie Hightechprothesen, Exoskelette und kleine soziale Roboter (Wearable Social Robots). Andere sind aus weichen, flexiblen Materialien, wie Exosuits und Exogloves (Soft Wearable Robots).“ Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel, der am 5. März 2025 im Gabler Wirtschaftslexikon veröffentlicht wurde. Im zweiten Abschnitt wird näher auf Wearable Social Robots eingegangen: „Kleine soziale Roboter werden an einer Halskette oder in der Brusttasche getragen – oder an Metallplättchen unter dem Stoff, an denen sie mit Hilfe von Magneten haften. Man kann mit ihnen sprechen oder sich über sie an das Gegenüber wenden und die Umgebung fotografieren, analysieren und evaluieren.“ Im dritten Abschnitt wird die Perspektive der Ethik eingenommen. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/wearable-robots-172088 aufgerufen werden.

Abb.: Ein Wearable Social Robot (Foto: LivingAI)

Social Robotics Girl for ICSR 2025

Since November 12, 2023, a custom GPT called Social Robotics Girl has been available that provides information about social robotics. It was created by Prof. Dr. Oliver Bendel and is based on a collection of his articles on this topic. It can therefore give his definition of social robots and make classifications based on his five-dimension model. Since February 16, 2025, Social Robotics Girl is also a contact person when it comes to the International Conference on Social Robotics 2025 (ICSR 2025) in Naples. She knows the deadlines for submissions, the chairs and committees, and the venues. And above all, she can advise you on the topics of the conference, which this time revolve around “Emotivation”. Of course, she also knows a good recipe for Pizza Napoletana. Social Robotics Girl can be accessed via chatgpt.com/g/g-TbhZSZaer-social-robotics-girl.

Fig.: Social Robotics Girl for ICSR 2025 (Image: Ideogram)

Revisiting the Trolley Problem for AI

The paper “Revisiting the Trolley Problem for AI: Biases and Stereotypes in Large Language Models and their Impact on Ethical Decision-Making“ by Sahan Hatemo, Christof Weickhardt, Luca Gisler (FHNW School of Computer Science), and Oliver Bendel (FHNW School of Business) was accepted at the AAAI 2025 Spring Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. A year ago, Sahan Hatemo had already dedicated himself to the topic of „ETHICAL DECISION MAKING OF AI: An Investigation Using a Stereotyped Persona Approach in the Trolley Problem“ in a so-called mini-challenge in the Data Science degree program. His supervisor, Oliver Bendel, had told the other scientists about the idea at the AAAI 2025 Spring Symposium „Impact of GenAI on Social and Individual Well-being“ at Stanford University. This led to a lively discussion. The student recruited two colleagues, Christof Weickhardt and Luca Gisler, and worked on the topic in a much more complex form in a so-called Challenge X. This time, three different open-source language models were applied to the trolley problem. In each case, personalities were created with nationality, gender, and age. In addition, the data was compared with that of the MIT Moral Machine project. Sahan Hatemo, Christof Weickhardt, and Luca Gisler will present their results at the end of March or beginning of April 2025 in San Francisco, the venue of this year’s event.

Fig.: Variants of the trolley problem (Image: Jonas Kubilius)

Towards Moral Prompt Engineering

The paper „Miss Tammy as a Use Case for Moral Prompt Engineering“ by Myriam Rellstab and Oliver Bendel from the FHNW School of Business was accepted at the AAAI 2025 Spring Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. It describes the development of a chatbot that can be available to pupils and de-escalate their conflicts or promote constructive dialogues among them. Prompt engineering – called moral prompt engineering in the project – and retrieval-augmented generation (RAG) were used. The centerpiece is a collection of netiquettes. On the one hand, these control the behavior of the chatbot – on the other hand, they allow it to evaluate the behavior of the students and make suggestions to them. Miss Tammy was compared with a non-adapted standard model (GPT-4o) and performed better than it in tests with 14- to 16-year-old pupils. The project applied the discipline of machine ethics, in which Oliver Bendel has been researching for many years, to large language models, using the netiquettes as a simple and practical approach. The eight AAAI Spring Symposia will not be held at Stanford University this time, but at the San Francisco Airport Marriott Waterfront, Burlingame, from March 31 to April 2, 2025. It is a conference rich in tradition, where innovative and experimental approaches are particularly in demand.

Abb.: Dieser Avatar wurde wieder verworfen (Bild: Ideogram)