Shift-Keynote auf YouTube

Die Shift, eine Tagung zu Fragen von Informations-, Roboter- und KI-Ethik, fand am 20. April 2023 zum fünften Mal statt. Initiatorin und Organisatorin ist Cornelia Diethelm. Moderatorin war wieder Patrizia Laeri. Die Keynote hielt Prof. Dr. Oliver Bendel aus Zürich. Das Video dazu ist am 19. Mai 2023 erschienen. Oliver Bendel ging zunächst auf soziale Roboter ein und auf die Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein. Dann beschrieb er mehrere soziale Roboter, die auch als Serviceroboter im engeren Sinne eingesetzt werden. Auf dieser empirischen Basis stellte er ethische Überlegungen an. Am Ende behandelte er Sprachmodelle wie GPT-3 bzw. GPT-4 und PaLM-E. Er zeigte, wie soziale Roboter und Serviceroboter von diesen profitieren können, in ihrer Sprachfähigkeit und bei ihrer Wahrnehmung der Welt. Auch Ansätze der Maschinenethik waren ein Thema, von der Einpflanzung moralischer Regeln bis hin zur Nutzung von Moralmenüs. Das Video kann hier aufgerufen werden.

Abb.: So stellt sich DALL-E einen humanoiden weiblichen Roboter vor

Talk on Care Robots at the University of Geneva

On 5 June 2023, Prof. Dr. Oliver Bendel will give a talk on „Care robots from an ethical perspective“ at the Institute of Ethics, History and Humanities (iEH2) of the University of Geneva. The event will take place in room A04.2910 (CMU). Care and therapy robots can be understood as service robots and in many cases also as social robots. In the talk by Professor Dr. Oliver Bendel from Zurich, the goals, tasks, and characteristics will be clarified and, based on this, considerations will be made from the perspective of ethics. In the end, it should become clear which types of robots and prototypes or products exist in the healthcare sector, what purposes they serve, what functions they assume, and what implications and consequences this has for individuals and society. Care robots may contribute to personal autonomy while weakening informational autonomy. Therapy robots may enhance personal performance and satisfaction, but in individual cases they may also violate human dignity. It is important to design service robots and social robots in the healthcare sector in such a way that they meet as many requirements and needs as possible and are useful tools for caregivers and those in need of care. Disciplines such as machine ethics can help in this regard. Prof. Dr. Oliver Bendel is the editor of several relevant standard works, including „Pflegeroboter“ („Care Robots“, 2018) and „Soziale Roboter“ („Social Robots“, 2021). He has also advised the German Bundestag on this topic. More information via www.unige.ch/medecine/ieh2/fr/la-une/prochain-colloque-ieh2/.

Fig.: A sculpture in Geneva

Claude nutzt Constitutional AI

Die Maschinenethik kennt ganz unterschiedliche Ansätze. Man kann moralische Regeln und Werte in Systeme und Maschinen einpflanzen. Sie können vom Entwickler stammen oder von einer Ethikkommission. Sie können auch in einem mehrstufigen Verfahren von verschiedenen Interessengruppen entwickelt worden sein. Die Maschinen halten sich strikt an die moralischen Regeln und Werte – dies ist der Normalfall und der Fall bei Maschinen wie GOODBOT, BESTBOT oder HAPPY HEDGEHOG – oder passen sie selbst an. Wenn sie sie selbst anpassen, kann Machine Learning zum Einsatz kommen. Eine Ergänzung ist das Moralmenü, das dem Benutzer oder Besitzer die Auswahl verschiedener Optionen erlaubt. Bei Sprachmodellen gibt es ebenfalls mehrere Möglichkeiten. Dass sie bestimmte Prompts verweigern, wurde ihnen i.d.R. einprogrammiert. Dass sie in eine bestimmte Richtung tendieren, etwa was Atomkraft angeht, kann am Reinforcement Learning from Human Feedback (RLFH) liegen. Das Unternehmen Anthropic, gegründet von ehemaligen Open-AI-Mitarbeitern, trainiert laut The Verge seinen Chatbot Claude – der auf einem Sprachmodell basiert – mit Hilfe von ethischen Prinzipien. Es greift u.a. auf die Allgemeine Erklärung der Menschenrechte der Vereinten Nationen und die Nutzungsbedingungen von Apple zurück. Es handelt sich laut Mitgründer Jared Kaplan um Constitutional AI – im Grunde nichts anderes als eine spezifische Methode der Maschinenethik. Er erklärt: „The basic idea is that instead of asking a person to decide which response they prefer [with RLHF], you can ask a version of the large language model, ‚which response is more in accord with a given principle?'“ (The Verge, 9 May 2023) Im Paper „Constitutional AI: Harmlessness from AI Feedback“ erklärt eine Forschergruppe um Yuntao Bai: „We experiment with methods for training a harmless AI assistant through self-improvement, without any human labels identifying harmful outputs. The only human oversight is provided through a list of rules or principles, and so we refer to the method as ‚Constitutional AI‘. The process involves both a supervised learning and a reinforcement learning phase.“ Das Paper erwähnt Maschinenethik nicht einmal – aber diese Disziplin wird durch die Anwendung bei Sprachmodellen einen weiteren Aufschwung erleben.

Abb.: Der Chatbot Claude (Foto: Anthropic)

Menschliche Bedürfnisse, robotische Lösungen

„Inspirierend anders“, der Podcast von Luca Beutel, ging vor kurzem in die Forschung. Für die ersten beiden Folgen hat der Mann mit dem Schnäuzer mit Prof. Dr. Oliver Bendel gesprochen. Der Technikphilosoph lebt in Zürich und arbeitet an mehreren Hochschulen der FHNW. Die erste Folge, ausgestrahlt seit dem 2. Mai 2023, heißt „#165 IAF – Die ultimative Maschine: Wie Robotik die Grenzen der Menschheit erweitert“. Oliver Bendel stellt darin die Grundlagen der Robotik dar und bringt diese in einen Zusammenhang mit der Künstlichen Intelligenz (KI). Ursprünglich wurden deren Gegenstände zusammengedacht. Dann haben sie sich aber getrennt entwickelt. Nun wachsen Roboter und KI-Systeme immer mehr zusammen. Am 9. Mai 2023 erschien die zweite Folge mit dem Titel „#167 IAF – Menschliche Bedürfnisse, robotische Lösungen: Die Zukunft der menschenähnlichen Roboter“. Darin geht es u.a. um ethische und ästhetische Fragen, die sich zu sozialen Robotern wie Pflegerobotern und Sexrobotern stellen. Auch die zweite Folge kann u.a. über Spotify aufgerufen werden.

Abb.:  So stellt sich DALL-E einen humanoiden Roboter vor

Chatbots und Avatare als Freunde

In der c’t 11/2023 ist der Artikel „Virtuelle Freunde? KI-Chatbots leisten Gesellschaft und wecken einseitige Gefühle“ erschienen. Arne Grävemeyer geht auf fünf Seiten auf das Thema ein. Befragt hat er dazu Prof. Dr. Oliver Bendel. Eine Frage war, ob solche Programme und Figuren – die Emotionen zeigen (ohne sie zu haben) und hervorrufen – sich als solche offenbaren sollten. Seine Antwort: „Aus ethischer Sicht würde ich das fordern. Man sollte wissen, ob man mit Menschen oder Maschinen kommuniziert. Unsere eigenen Emotionen sind ein wertvolles Gut. Wir entwickeln sie fast automatisch, wenn wir auf menschenähnliche Entitäten stoßen. Wir haben aber die Möglichkeit, die Emotionen zu begrenzen, wenn wir wissen, dass es sich um Programme und Maschinen handelt. Dazu gehört, dass wir diese abstellen und nicht ständig an sie denken, wenn sie nicht bei uns sind. Auch unsere Zeit ist ein kostbares Gut. Wir sollten selbst entscheiden, mit wem oder was wir sie verbringen.“ (c’t, 11/2023) Insgesamt wurden schriftlich und telefonisch etliche Fragen gestellt. Einige Antworten sind in den Artikel eingeflossen, der seit 5. Mai 2023 erhältlich ist.

Abb.: Ein Alien als Avatar

Können Maschinen uns lieben?

„Manche Menschen gehen bereits romantische Beziehungen mit Chatbots ein. Künstliche Intelligenz simuliert Zuneigung und Trost. Kann man Gefühle einfach so programmieren?“ (Tagesspiegel, 3. Mai 2023) Dies fragt Max Tholl in einem Essay mit dem Titel „Wenn die KI den Partner ersetzt: Können Maschinen uns lieben?“ vom 3. Mai 2023. Zu Wort kommt mehrmals Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert über Chatbots, Sprachassistenten und soziale Roboter schreibt und forscht. Er nähert sich dem Gegenstand mit einem Rückblick: „Innige Beziehungen zwischen Menschen und künstlichen Kreaturen haben eine lange Tradition in der Ideengeschichte, sagt der Philosoph und Wirtschaftsinformatiker Oliver Bendel. Sie finden sich schon in den mythologischen Erzählungen von Homer oder Ovid, später dann als Motiv in Science-Fiction-Geschichten.“ (Tagesspiegel, 3. Mai 2023) Der ganze Beitrag ist im Tagesspiegel hinter der Bezahlschranke zu finden und wird auch noch in der gedruckten Ausgabe erscheinen.

Abb.: Nur Menschen können uns lieben

Podcast zu Robotik und KI

„Inspirierend anders“, der Podcast von Luca Beutel, geht in die Forschung. Für die ersten beiden Folgen hat der Mann mit dem Schnäuzer mit Prof. Dr. Oliver Bendel gesprochen. Der Technikphilosoph lebt in Zürich und arbeitet an mehreren Hochschulen der FHNW. Die erste Folge, ausgestrahlt seit dem 2. Mai 2023, heißt „#165 IAF – Die ultimative Maschine: Wie Robotik die Grenzen der Menschheit erweitert“. Oliver Bendel stellt darin die Grundlagen der Robotik dar und bringt diese in einen Zusammenhang mit der Künstlichen Intelligenz. Ursprünglich wurden deren Gegenstände zusammengedacht. Dann haben sie sich aber getrennt entwickelt. Nun wachsen Roboter und KI-Systeme immer mehr zusammen. Eine Woche später erscheint die zweite Folge mit dem Titel „#167 IAF – Menschliche Bedürfnisse, robotische Lösungen: Die Zukunft der menschenähnlichen Roboter“. Darin geht es u.a. um ethische und ästhetische Fragen, die sich zu sozialen Robotern wie Pflegerobotern und Sexrobotern stellen. Die erste Folge kann u.a. über Spotify aufgerufen werden.

Abb.: Der Podcast kann u.a. über Spotify gehört werden

Hallo, Roboter!

Der Senioren Ratgeber (eigene Schreibweise) ist ein Partner der Apotheken Umschau (eigene Schreibweise). Im aktuellen Heft 5/2023 findet sich ein fünfseitiger Artikel mit dem Titel „Hallo, Roboter!“ über Roboter in der Pflege. Er beginnt mit Lio, dem Assistenzroboter von F&P Robotics, der seit Jahren in einer Kleinserie vorliegt und in mehreren Alten- und Pflegeheimen getestet wird. Zu Wort kommt mehrmals Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW, der seit 2016 in Kontakt mit dem Unternehmen ist, mit Mitarbeitern ein Paper zu Lio publiziert und zuletzt zusammen mit Marc Heimann ein Moralmodul (CARE-MOMO) entwickelt hat, das Lio erweitern kann. Inzwischen arbeitet das Schweizer Unternehmen mit weiteren Hochschulen wie der Fachhochschule Graubünden und der ETH Zürich zusammen … „Der Senioren Ratgeber begleitet ältere Menschen in ihrem Alltag. Hier finden Sie Tipps rund um Vorsorge, Ernährung, Bewegung, Reise, Partnerschaft und Pflege. Blättern Sie in der aktuellen Ausgabe des Senioren Ratgeber. Das komplette Magazin erhalten Sie in Ihrer Apotheke …“ (Website Senioren Ratgeber) Gemeint ist praktisch jede Apotheke in Deutschland. Eine Leseprobe ist jeweils über www.apotheken-umschau.de/unsere-marken/senioren-ratgeber/ erhältlich.

Abb.: Im Gesundheitsbereich gibt es Umbrüche

About Bar Robots

From March 27-29, 2023, the AAAI 2023 Spring Symposia featured the symposium „Socially Responsible AI for Well-being“ by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). This time the venue was exceptionally not Stanford University, but the Hyatt Regency SFO Airport. On March 28, Prof. Dr. Oliver Bendel and Lea Peier presented their paper „How Can Bar Robots Enhance the Well-being of Guests?“. The paper has now been published as a preprint and can be downloaded via arxiv.org/abs/2304.14410. From the abstract: „This paper addresses the question of how bar robots can contribute to the well-being of guests. It first develops the basics of service robots and social robots. It gives a brief overview of which gastronomy robots are on the market. It then presents examples of bar robots and describes two models used in Switzerland. A research project at the School of Business FHNW collected empirical data on them, which is used for this article. The authors then discuss how the robots could be improved to increase the well-being of customers and guests and better address their individual wishes and requirements. Artificial intelligence can play an important role in this. Finally, ethical and social problems in the use of bar robots are discussed and possible solutions are suggested to counter these.“ More information on the conference via aaai.org/conference/spring-symposia/sss23/.

Fig.: Bar robots can mix cocktails

About Hugging Robots

From March 27-29, 2023, the AAAI 2023 Spring Symposia featured the symposium „Socially Responsible AI for Well-being“ by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). This time the venue was exceptionally not Stanford University, but the Hyatt Regency SFO Airport. On March 28, Prof. Dr. Oliver Bendel presented the paper „Increasing Well-being through Robotic Hugs“, written by himself, Andrea Puljic, Robin Heiz, Furkan Tömen, and Ivan De Paola. The paper has now been published as a preprint and can be downloaded via arxiv.org/abs/2304.14409. From the abstract: „This paper addresses the question of how to increase the acceptability of a robot hug and whether such a hug contributes to well-being. It combines the lead author’s own research with pioneering research by Alexis E. Block and Katherine J. Kuchenbecker. First, the basics of this area are laid out with particular attention to the work of the two scientists. The authors then present HUGGIE Project I, which largely consisted of an online survey with nearly 300 participants, followed by HUGGIE Project II, which involved building a hugging robot and testing it on 136 people. At the end, the results are linked to current research by Block and Kuchenbecker, who have equipped their hugging robot with artificial intelligence to better respond to the needs of subjects.“ More information on the conference via aaai.org/conference/spring-symposia/sss23/.

Fig.: A hug a day keeps the doctor away

ChatGPT aus Sicht von Informations- und Maschinenethik

Am 26. Mai 2023 hält Prof. Dr. Oliver Bendel einen Gastvortrag beim scil-Modul „Dialogorientierte Lern- und Assistenzsysteme“ an der Universität St. Gallen. Er stellt aus Sicht von Informations- und Maschinenethik verschiedene Überlegungen zu ChatGPT an. Zunächst ist die Frage, woher die Daten für das zugrunde liegende Sprachmodell kommen und unter welchen Bedingungen das Reinforcement Learning from Human Feedback abläuft. Zudem dürfte relevant sein, welche Daten man beim Prompt preisgibt und welche Prompts auf welche Art und Weise zurückgewiesen werden. Ein weiteres Problemfeld ist das Halluzinieren der Sprachmodelle bzw. der darauf basierenden Anwendungen. Diese verdrehen Fakten und erfinden Referenzen. Nicht zuletzt ergeben sich für zahlreiche Anwendungsfelder wie Aus- und Weiterbildung besondere Herausforderungen … Mit Visual ChatGPT soll man man über Texteingaben Bilder generieren und dann einzelne Elemente editieren können. Solche und andere Bildgeneratoren wie DALL-E, Stable Diffusion und Midjourney werfen wiederum zahlreiche ethische Fragen auf. GPT-3 und GPT-4 bzw. ChatGPT sind nicht nur für bzw. als Chatbots und Contentgeneratoren relevant, sondern auch für Industrie- und Serviceroboter. In diesem Bereich hat indes vor allem das Sprachmodell PaLM-E Aufmerksamkeit erregt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Dabei sind wiederum Herausforderungen vorhanden, etwa mit Blick auf Verlässlichkeit und Haftung. Oliver Bendel hat vor einem Vierteljahrhundert an der Universität St. Gallen gearbeitet – als Leiter des CC E-Learning – und geforscht, zu Conversational Agents und Embodied Conversational Agents in Lernumgebungen, sogenannten Pedagogical Agents. Weitere Informationen zum scil über www.scil.ch.

Abb.: Was sagt der Chatbot und warum?

Über Menschen und Maschinen

„Oliver Bendel antwortet im März auf eine Interviewanfrage aus San Francisco. Der Informationsethiker ist auf dem Weg an ein Symposium, wo er über Umarmungsroboter und Barroboter referieren wird. Vor einigen Jahren hat er an derselben Veranstaltung der renommierten Association for the Advancement of Artificial Intelligence (AAAI) annotierte Entscheidungsbäume für moralische Maschinen vorgestellt. Wenn sich Bendel nicht gerade auf einer seiner vielen wissenschaftlichen Reisen befindet, forscht er in beschaulicher Umgebung: Seit 2009 bekleidet der 55-Jährige eine Professur für Informationsethik, Maschinenethik und Soziale Robotik an der Fachhochschule Nordwestschweiz (FHNW) in Brugg-Windisch.“ (Inside IT, 24. April 2023) Mit diesen Worten beginnt ein Artikel von Thomas Schwandener, der am 24. April 2023 in Inside IT erschienen ist. Weiter heißt es: „In seiner Arbeit geht es um das Zusammenleben von sozialen Robotern und Menschen, um die Potenziale künstlicher Intelligenz, aber auch um ethische Folgefragen. Bendel ist eine Autorität auf seinem Gebiet. Er hat mehrere Standardwerke verfasst, spricht an internationalen Fachtagungen und trat mehrfach vor dem Deutschen Bundestag als Sachverständiger auf.“ (Inside IT, 24. April 2023) Es folgt ein längeres Interview, das am Rande der Shift geführt wurde. Darin weist der Informations- und Maschinenethiker auf die tiefe Kluft zwischen Menschen und Maschinen hin. Der ganze Artikel kann hier aufgerufen werden.

Abb.: Auch das sind Mensch und Maschine

Conversational Agents aus ethischer Sicht

„Conversational Agents (CAs) sind computerbasierte Dialogsysteme mit natürlichsprachlichen Fähigkeiten. Verwenden beide Seiten die Textform, liegen üblicherweise Chatbots oder Social Bots vor. Manche von diesen besitzen Sprachausgabe, wie Cor@ von der Deutschen Bank um die Jahrtausendwende. Nutzen beide Seiten gesprochene Sprache, handelt es sich üblicherweise um Sprachassistenten (auch Voice Assistants oder Voicebots genannt), die auf Smartphones, in Smartspeakers oder in Anwendungen des Smart Home vorkommen. Bekannte Beispiele sind Google Assistant, Siri und Alexa. Chatbots und Sprachassistenten kann man wiederum mit Avataren ergänzen oder in soziale Roboter wie Pepper oder NAO bzw. in Serviceroboter oder Industrieroboter integrieren …“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Prof. Dr. Oliver Bendel aus Zürich. In einem zweiten Abschnitt wird auf Entwicklung und Merkmale eingegangen, in einem dritten die ethische Perspektive eingenommen. Der Beitrag ist am 18. April 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/conversational-agent-125248 aufgerufen werden.

Abb.: Ein von DALL-E generierter Avatar

CfP for ICSR 2023

Next to Robophilosophy, ICSR may be the most important conference on social robotics. The fourteenth edition took place in Florence at the end of 2022 and was dedicated to the health sector. „The 15th International Conference on Social Robotics (ICSR 2023) will bring together researchers and practitioners working on the interaction between humans and intelligent robots and on the integration of social robots into our society.  ICSR 2023 will take place in Doha as a face-to-face conference on December 4-7, 2023. This will be the first time that the conference will be hosted in Qatar and in the Middle East and North Africa region.“ (Website ICSR) The theme of this year’s ICSR is „Human-Robot Collaboration: Sea, Air, Land, Space and Cyberspace“. According to the organizers, the theme emphasizes on all physical and cyber-physical domains where humans and robots collaborate. Whether Doha is suitable as a venue for the conference needs to be discussed. Qatar is ruled as an absolute monarchy. Sharia law is considered a main source of legislation. The human rights situation in the country has been critical for decades. More information and CfP via icrs.iovision.tn.

Fig.: A humanoid robot generated by DALL-E (with user corrections)

CfP for ACI 2023

The Tenth International Conference on Animal-Computer Interaction will be held December 4-8, 2023, in Raleigh, North Carolina, hosted by North Carolina State University. „ACI is the leading International Conference on Animal-Computer Interaction. It is a highly multidisciplinary event drawing researchers and practitioners from diverse backgrounds to share and discuss work and topics related to the research and design of computing-enabled and interactive technology for and with animals.“ (Website ACI) The Ninth International Conference on Animal-Computer Interaction was held in Newcastle upon Tyne at the end of 2022. Also this year the organizers are interested in a variety of topics in animal-computer interaction and animal-machine interaction, as the call for papers (CfP) reveals: „Submissions might address topics such as: the role of technology in shaping human-animal relationships; studies and/or analysis of large-scale technology for animal deployments; considerations on the wider context of technology for animal use; methods and reflections on studying the next generation of technology for animals; or how to conduct ACI research in a world where commercial design and deployment of technology for animals outpaces academic thought.“ (Website ACI) The CfP can be accessed at www.aciconf.org/aci2023.

Fig.: This is how DALL-E imagines a penguin with VR glasses

NYPD setzt auf K5 und Spot

Das New York City Police Department (NYPD) sieht Serviceroboter „für Straßenpatrouillen und Überwachung“ (Golem, 14. April 203) vor. „Neben dem Roboterhund Spot soll künftig zusätzlich ein eigenständiges Modell vom Typ Knightscope K5 eingesetzt werden.“ (Golem, 14. April 203) Dies schreibt Oliver Nickel am 14. April 2023 in Golem unter Berufung auf Aussagen des New Yorker Bürgermeisters Eric Adams bei einer Pressekonferenz. Prof. Dr. Oliver Bendel thematisiert sowohl Spot als auch K5 in seinem Paper „Robots in Policing“, das in den Proceedings „Social Robots in Social Institutions“ der Robophilosophy 2022 erschienen ist. Mit Sicherheits- und Überwachungsrobotern wie dem K5 beschäftigt sich der Technikphilosoph aus Zürich seit Jahren. In dem Artikel „Mehr Unsicherheit mit Sicherheitsrobotern?“, erschienen 2016 in der Zeitschrift SicherheitsForum, nahm er u.a. die ethische Perspektive ein. Bereits ein paar Monate vorher wurde der Beitrag „Blechpolizisten mit Elektroschockern: Beobachtungen zu Überwachungsrobotern“ in Inside IT veröffentlicht. Ohne Zweifel nimmt das Thema in diesen Tagen erheblich an Fahrt auf, wegen der Einsätze in den USA, aber auch der Pläne in Deutschland – das Innovation Lab der Polizei Nordrhein-Westfalen in Duisburg testet derzeit Modelle wie Spot.

Abb.: Ein Polizist aus Brooklyn