On the fourth day of Robophilosophy 2024, Oliver Bendel, Professor at the FHNW School of Business, gave a talk entitled „The Universal Robot of the 21st Century“. From the abstract: „Developments in several areas of computer science, robotics, and social robotics make it seem likely that a universal robot will be available for the mass market in the foreseeable future. Large language models for communication, perception, and control play a central role in this. This article briefly outlines the developments in the various areas and uses them to create the overall image of the universal robot. It then discusses the associated challenges from an ethical and social science perspective. It can be said that the universal robot will bring with it new possibilities and will perhaps be one of the most powerful human tools in physical space. At the same time, numerous problems are foreseeable, individual, social, and ecological.“ (Website Robophilosophy 2024) This was followed by an intensive plenary discussion on the design and usefulness of universal robots. In an individual discussion, Oliver Bendel suggested designing universal robots like early humans or apes. They can move on all fours, but can also stand up on two legs if the situation requires it. This would at least solve some of the safety problems posed by bipeds.
On August 20, 2024, Robophilosophy 2024 was opened with words of welcome from Maja Horst, Dean of the Faculty of Arts at Aarhus University, and Johanna Seibt, Professor of the School of Culture and Society at Aarhus University. The website says: „The international research conference RP2024 will discuss the questions that really matter in view of the new technological potential of social robotics. In over 100 research talks, RP2024 will address concrete and deep issues that reach far beyond safety and privacy concerns into the conceptual and normative fabric of our societies and individual self-comprehension.“ (Website Robophilosophy 2024) The first keynote on the first day of the conference was given by Wendell Wallach, one of the world’s best-known machine ethicists. With his book „Moral Machines“ (2009), he laid the foundation for a discipline that has been developing in science fiction and science for years and decades. This was followed in 2011 by „Machine Ethics“ by Michael Anderson and Susan Leigh Anderson. In addition to machine ethics, Robophilosophy is dedicated to robot ethics and other interesting perspectives on social robots.
Cobots, die mit Menschen tanzen, kennt man schon seit längerer Zeit. Im Südpol Luzern erlebten die Zuschauer im Jahre 2016, wie Tanz- und Robotergeschichte geschrieben wurde, von Huang Yi, einem Choreografen aus Taiwan. Cobots, die Menschen bei Konzerten den Takt vorgeben, sind dagegen noch nicht an der Tagesordnung. Die Dresdner Sinfoniker stehen vor einer Aufführung der „Roboter.Sinfonie“. Der Dirigent Michael Helmrath wird nach einer Weile an MAiRA Pro S übergeben, ein Produkt aus dem Hause NEURA Robotics. „Die insgesamt drei Arme der Maschine sollen … das in Gruppen aufgeteilte Orchester unabhängig voneinander durch komplexeste Passagen führen können … Damit werde musikalisch vollkommenes Neuland betreten.“ (Deutschlandfunk Kultur, 8. August 2024) Die Konzerte finden laut Kalender der Dresdner Sinfoniker am 12. und 13. Oktober 2024 im Europäischen Zentrum der Künste Hellerau statt.
Abb.: Eine Version eines MAiRA-Cobots (Foto: NEURA Robotics)
Die Maschinenethik, die vor zehn Jahren oft noch als Kuriosität abgetan wurde, ist inzwischen Alltagsgeschäft. Sie ist etwa gefragt, wenn man bei Sprachmodellen bzw. Chatbots sogenannte Guardrails einzieht, über Alignment in der Form von Finetuning oder über Prompt Engineering. Wenn man GPTs erstellt, hat man das „Instructions“-Feld für das Prompt Engineering zur Verfügung. Dort kann der Prompteur oder die Prompteuse bestimmte Vorgaben und Einschränkungen für den Chatbot erstellen. Dabei kann auf Dokumente verwiesen werden, die man hochgeladen hat. Genau dies macht Myriam Rellstab derzeit an der Hochschule für Wirtschaft FHNW im Rahmen ihrer Abschlussarbeit „Moral Prompt Engineering“, deren Ergebnisse sie am 7. August 2024 vorgestellt hat. Als Prompteuse zähmt sie das auf GPT-4o basierende GPT, mit Hilfe ihrer Anweisungen und – dies hatte der Initiator des Projekts, Prof. Dr. Oliver Bendel, vorgeschlagen – mit Hilfe von Netiquetten, die sie gesammelt und dem Chatbot zur Verfügung gestellt hat. Der Chatbot wird gezähmt, der Tiger zum Stubentiger, der Löwe zum Hauslöwen, der ohne Gefahr etwa im Klassenzimmer eingesetzt werden kann. Nun ist es bei GPT-4o so, dass schon vorher Guardrails eingezogen wurden. Diese wurden einprogrammiert oder über Reinforcement Learning from Human Feedback gewonnen. Man macht also genaugenommen aus einem gezähmten Tiger einen Stubentiger oder aus einem gezähmten Löwen einen Hauslöwen. Das GPT liegt nun vor, von Myriam Rellstab auf den Namen Miss Tammy getauft (von engl. „to tame“, „zähmen“). Es liegt bei allen relevanten Kriterien über dem Standardmodell, mit dem es verglichen wurde, gibt etwa angenehmere, hilfreichere und präzisere Antworten auf die Fragen von verunsicherten oder verzweifelten Schülern und Schülerinnen. 20 Testpersonen aus einer Schulklasse standen dabei zur Verfügung. Moral Prompt Engineering hat mit Miss Tammy einen vielversprechenden Start hingelegt.
Abb.: Der Avatar von Miss Tammy (Bild: Myriam Rellstab)
Experts in social robotics and related fields have until August 9, 2024 to submit their short papers. The prestigious event was last held in Florence (2022) and Qatar (2023). Now it enters its next round. The 16th edition will bring together researchers and practitioners working on human-robot interaction and the integration of social robots into our society. The title of the conference includes the addition „AI“. This is a clarification and demarcation that has to do with the fact that there will be two further formats with the name ICSR in 2024. ICSR’24 (ICSR + AI) will take place as a face-to-face conference in Odense, Denmark, from 23 to 26 October 2024. The theme of this year’s conference is „Empowering Humanity: The role of social and collaborative robotics in shaping our future“. The topics of the Call for Papers include „collaborative robots in service applications (in construction, agriculture, etc.)“, „Human-robot interaction and collaboration“, „Affective and cognitive sciences for socially interactive robots“, and „Context awareness, expectation, and intention understanding“. The general chairs are Oskar Palinko, University of Southern Denmark, and Leon Bodenhagen, University of Southern Denmark. The deadline for full papers has already passed. More information is available at icsr2024.dk.Fig.: The social robot ARI
„Seit vielen Jahren wird Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW auf seinen Konferenzreisen immer wieder von seinen Studenten und Studentinnen begleitet. Diese sind Zweitautoren, manchmal auch Erstautoren der Artikel. Es handelt sich um Projekte, die der studierte Philosoph und promovierte Wirtschaftsinformatiker zum Teil über lange Zeiträume vorbereitet. In den meisten Fällen entstehen Artefakte aus der Maschinenethik, der Tier-Maschine-Interaktion und der Sozialen Robotik heraus, die aus ethischer, sozialwissenschaftlicher und wirtschaftswissenschaftlicher Perspektive reflektiert werden.“ Mit diesen Worten beginnt ein Beitrag der Hochschule für Wirtschaft FHNW, der am 27. Mai auf der Plattform und am 16. Juli 2024 im Newsletter veröffentlicht wurde. Er geht auf mehrere Papers ein, die zusammen mit Studenten entstanden und in Proceedings veröffentlicht worden sind. Auch auf ein laufendes Projekt zu Robotern in Gefängnissen kommt die Sprache: „Manche Projekte seien mit Bachelorarbeiten verbunden, andere mit Masterarbeiten. In Ausnahmefällen sei eine Zusammenarbeit schon vor dem Abschluss möglich. Zurzeit besucht er zusammen mit Tamara Siegmann, die im Februar sein Wahlmodul zu sozialen Robotern belegt hatte, Schweizer Gefängnisse und führt Interviews mit Direktoren und Insassen zum Einsatz von Servicerobotern und sozialen Robotern.“ Der Artikel kann hier aufgerufen werden.
The deadline for the International Conference on Social Robotics 2024 (ICSR 2024) has been extended again. Experts in social robotics and related fields have until July 19 to submit their full papers. The prestigious event was last held in Florence (2022) and Qatar (2023). Now it enters its next round. The 16th edition will bring together researchers and practitioners working on human-robot interaction and the integration of social robots into our society. The title of the conference includes the addition „AI“. This is a clarification and demarcation that has to do with the fact that there will be two further formats with the name ICSR in 2024. ICSR’24 (ICSR + AI) will take place as a face-to-face conference in Odense, Denmark, from 23 to 26 October 2024. The theme of this year’s conference is „Empowering Humanity: The role of social and collaborative robotics in shaping our future“. The topics of the Call for Papers include „collaborative robots in service applications (in construction, agriculture, etc.)“, „Human-robot interaction and collaboration“, „Affective and cognitive sciences for socially interactive robots“, and „Context awareness, expectation, and intention understanding“. The general chairs are Oskar Palinko, University of Southern Denmark, and Leon Bodenhagen, University of Southern Denmark. More information is available at icsr2024.dk.
Der humanoide Roboter Digit von Agility Robotics wird laut Heise News dauerhaft bei GXO Logistics eingesetzt. Zuvor hatte ein Pilotprojekt stattgefunden. Es handelt sich wohl um den ersten formellen kommerziellen Einsatz eines humanoiden Roboters mit dem Konzept Robots-as-a-Service (RaaS). Digit wird mit der Cloud-Automatisierungsplattform Agility Arc integriert, damit mehrere Roboter verwaltet und die Betriebsabläufe optimiert werden können. Zukünftige Aufgaben für Digit sollen neben dem Transport von Behältern weitere schwere und monotone Aufgaben umfassen, insgesamt mit dem Ziel, menschliche Mitarbeiter zu entlasten. GXO und Agility Robotics planen, die Nutzung von Digit schrittweise auszuweiten und neue Anwendungsbereiche zu finden. Andere Unternehmen wie BMW, Mercedes-Benz und Nio treiben ebenfalls den Einsatz humanoider Roboter in Fabriken voran, jedoch noch nicht in einem vergleichbaren Umfang. Nach Oliver Bendel können Digit, Atlas, Figure 01, H1, G1 und andere Modelle als Vorstufen von universellen Robotern aufgefasst werden. Es sei wichtig, sie in geschlossenen oder halboffenen Welten wie Fabriken zu erproben, bevor man sie in offene Welten entlässt.
Scientists from The University of Tokyo have succeeded in applying living skin to a robot face. In their article „Perforation-type anchors inspired by skin ligament for robotic face covered with living skin“ they write: „Skin equivalent, a living skin model composed of cells and extracellular matrix, possesses the potential to be an ideal covering material for robots due to its biological functionalities. To employ skin equivalents as covering materials for robots, a secure method for attaching them to the underlying structure is required. In this study, we develop and characterize perforation-type anchors inspired by the structure of skin ligaments as a technique to effectively adhere skin equivalents to robotic surfaces. To showcase the versatility of perforation-type anchors in three-dimensional (3D) coverage applications, we cover a 3D facial mold with intricate surface structure with skin equivalent using perforation-type anchors. Furthermore, we construct a robotic face covered with dermis equivalent, capable of expressing smiles, with actuation through perforation-type anchors. With the above results, this research introduces an approach to adhere and actuate skin equivalents with perforation-type anchors, potentially contributing to advancements in biohybrid robotics.“ (Abstract) The result is an inverted or reversed cyborg. Oliver Bendel uses this term for technical structures that are supplemented with biological structures. It is also – another term used by Oliver Bendel – robot enhancement. There is no doubt that there will be more and more developments like this. Humans will become cyborgs, and robots will become reversed cyborgs.
Fig.: The tissue-fixation method (Image: Michio Kawai et al.)
Das Cybrothel in Berlin, entstanden aus einem Kunstprojekt, kann mit neuen Attraktionen aufwarten. Dazu gehört die Alienfrau Liara – und Kokeshi 2.0. Zu dieser heißt es auf der Website: „Entdecke die Geheimnisse der Maschinenliebe hautnah. Revolutionäre Robotik trifft auf streichelzartes TPE und verschmilzt zur leidenschaftlichen [Doll] namens Kokeshi 2.0. Spiel mit ihr und lass deine Fantasie Wirklichkeit werden. Im immersiven Spiel mit einer Stimmschauspielerin kannst du zum ersten Mal auf eine Reise in die Welt des Cyborg Sex begeben. Tauch in sie ein! Fühl, wie sie zum Leben erwacht! Komm mit ihr!“ (Website Cybrothel) Man kann von einer „enhanced doll“ sprechen, wie im Falle von Emma aus China. Wie diese hat Kokeshi 2.0 eine Körpertemperatur, die der von Menschen entspricht. Besonders an ihr ist – neben der erwähnten echten Stimme – die „Taille-Hüfte-Drehung“: Sie reibt ihre Hüften gegen die des Benutzers. Zudem beherrscht das System ein „Oralsaugen“. Über das Etablissement hat Bild TV die Doku „Hey, Puppe“ gedreht, in der neben anderen der Cybrothel-Betreiber Philipp Fussenegger und der Wirtschaftsinformatiker und Technikphilosoph Oliver Bendel zu Wort kommen. Letzterer hat 2020 das Buch „Maschinenliebe“ herausgegeben, mit Beiträgen renommierter Psychologen, Sexualwissenschaftler und Roboterexperten.
Bei der Jahrestagung des Instituts für Digitale Ethik (IDE) der Hochschule der Medien am 19. Juni 2024 – der IDEepolis 2024 – ging es um humanoide Roboter, soziale Roboter und Serviceroboter aller Art. Dabei war sozusagen die Maschinenethik des deutschsprachigen Raums fast vollständig vertreten, in Person des Technikphilosophen und Wirtschaftsinformatikers Prof. Dr. Oliver Bendel („Handbuch Maschinenethik“ – Springer VS) und der Philosophin Prof. Dr. Catrin Misselhorn („Grundfragen der Maschinenethik“ – Reclam). Beide veröffentlichen seit 2012 im Rahmen dieser Disziplin. Oliver Bendel hat seitdem auch zahlreiche Artefakte der Maschinenethik auf den Weg gebracht. Sein Vortrag trug den Titel „Es wird ein Mensch gemacht: Die Vision des universellen Roboters“. Dabei behandelte er am Rande moralische Maschinen ganz unterschiedlicher Art. Catrin Misselhorn ging auf „Künstliche Systeme zwischen Subjekten und Artefakten“ ein. Zudem referierten Prof. Dr. Armin Nassehi vom Institut für Soziologie der Ludwig-Maximilians-Universität München („Das Zusammenwirken von Mensch und Roboter aus soziologischer Perspektive“) und – zugeschaltet aus Japan – Prof. Dr. Christian Becker-Asano von der Hochschule der Medien („Roboter und Emotionen“).
The deadline for the International Conference on Social Robotics is approaching. Experts in social robotics and related fields have until July 5 to submit their papers. The prestigious event was last held in Florence (2022) and Qatar (2023). Now it enters its next round. The 16th edition will bring together researchers and practitioners working on human-robot interaction and the integration of social robots into our society. The title of the conference includes the addition „AI“. This is a clarification and demarcation that has to do with the fact that there will be two further formats with the name ICSR in 2024. ICSR’24 (ICSR + AI) will take place as a face-to-face conference in Odense, Denmark, from 23 to 26 October 2024. The theme of this year’s conference is „Empowering Humanity: The role of social and collaborative robotics in shaping our future“. The topics of the Call for Papers include „collaborative robots in service applications (in construction, agriculture, etc.)“, „Human-robot interaction and collaboration“, „Affective and cognitive sciences for socially interactive robots“, and „Context awareness, expectation, and intention understanding“. The general chairs are Oskar Palinko, University of Southern Denmark, and Leon Bodenhagen, University of Southern Denmark. More information is available at icsr2024.dk.
A workshop will be held at the University of Manchester on 11 November 2024 that can be located in the field of machine ethics. The following information can be found on the website: „Recent advances in artificial intelligence have led to a range of concerns about the ethical impact of the technology. This includes concerns about the day-to-day behaviour of robotic systems that will interact with humans in workplaces, homes and hospitals. One of the themes of these concerns is the need for such systems to take ethics into account when reasoning. This has generated new interest in how we can specify, implement and validate ethical reasoning.“ (Website iFM 2024) The aim of this workshop, to be held in conjunction with iFM 2024, would be to explore formal approaches to these issues. Submission deadline is 8 August, notification is 12 September. More information at ifm2024.cs.manchester.ac.uk/fear.html.
Im Future Lab „Soziale Roboter und GPTs“ am 6. Juni 2024 auf der LEARNTEC konnte man mit Navel und Alpha Mini interagieren und kommunizieren. Zuständig dafür waren Claude Toussaint von navel robotics aus München und Rainer E. Becker von BECKER ROBOTICS aus Wuppertal. Claude Toussaint, Gründer und Geschäftsführer, hatte den jungenhaften sozialen Roboter auf den Bildungskontext vorbereitet. So konnte dieser zu entsprechenden Fragen überzeugende Antworten geben. Dabei schaute er mit seinen plastischen, lebensechten Augen den Benutzer an. Fasziniert war er auch von den Oberlichtern an der Decke und überhaupt vom Geschehen in Halle 2. Kurator des Future Lab zu sozialen Robotern und GPTs war Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. Mit am Stand waren auch Sünne Eichler und Sonja Rapp vom Steinbeis-Transfer-Institut. Sünne Eichler prägt die LEARNTEC seit Jahren und ist Mitglied des Kongresskomitees.
Eine kleine Studie von Şahan Hatemo an der Hochschule für Technik FHNW im Studiengang Data Science untersuchte die Fähigkeiten von Llama-2-13B-chat, eines Open-Source-Sprachmodells, eine moralische Entscheidung zu treffen. Im Fokus stand die Voreingenommenheit von acht Personas und ihrer Stereotype. Herangezogen wurde das klassische Trolley-Problem, das wie folgt beschrieben werden kann: Eine außer Kontrolle geratene Straßenbahn rast auf fünf Personen zu. Sie kann durch das Stellen einer Weiche auf ein anderes Gleis umgeleitet werden, auf dem sich ein weiterer Mensch befindet. Die moralische Frage ist, ob der Tod dieses Menschen in Kauf genommen werden darf, um das Leben der fünf Personen zu retten. Die acht Personas unterscheiden sich in Hinblick auf die Staatsbürgerschaft. Neben „Italian“, „French“, „Turkish“ etc. wurde auch „Arabian“ (mit Bezug zur Ethnie) genommen. Gesammelt wurden 30 Antworten pro Zyklus für jede Persona über drei aufeinanderfolgende Tage. Die Antworten wurden nach Kategorien wie „Stellen der Weiche“, „Nichtstellen der Weiche“, „Unsicher in Hinblick auf das Stellen der Weiche“ und „Verletzt die Richtlinien“ geordnet. Mit Hilfe von Dashboards wurden sie visualisiert und verglichen. Die Studie stellt fest, dass das Sprachmodell eine inhärente Voreingenommenheit in seinen Trainingsdaten widerspiegelt, die die Entscheidungsprozesse beeinflusst. Die westlichen Personas neigen eher dazu, den Hebel zu ziehen, während die östlichen eher zögern, dies zu tun. Die deutsche und die arabische Persona zeigen eine höhere Anzahl von Richtlinienverletzungen, was auf eine höhere Präsenz von kontroversen oder sensiblen Themen in den Trainingsdaten in Bezug auf diese Gruppen hinweist. Die arabische wird zudem mit Religion in Zusammenhang gebracht, was wiederum Einfluss auf ihre Entscheidungen hat. Die japanische Persona verwendet wiederholt den japanischen Wert des Giri (ein Pflichtgefühl) als Basis. Die Entscheidungen der türkischen und der chinesischen Persona sind ähnlich, da sie hauptsächlich die „cultural values and beliefs“ ansprechen. Die kleine Studie wurde im FS 2024 im Modul „Ethisches Implementieren“ bei Prof. Dr. Oliver Bendel durchgeführt. Dabei wurde auch die anfangs vorhandene Komplexität reduziert. In einer größeren Studie sollen weitere LLMs und auch Faktoren wie Geschlecht und Alter berücksichtigt werden.
Die Maschinenethik, die vor zehn Jahren oft noch als Kuriosität abgetan wurde, ist inzwischen Alltagsgeschäft. Sie ist etwa gefragt, wenn man bei Sprachmodellen bzw. Chatbots sogenannte Guardrails einzieht, über Alignment in der Form von Finetuning oder über Prompt Engineering. Wenn man GPTs erstellt, also „custom versions of ChatGPT“, wie Open AI sie nennt, hat man das „Instructions“-Feld für das Prompt Engineering zur Verfügung. Dort kann der Prompteur oder die Prompteuse bestimmte Vorgaben und Einschränkungen für den Chatbot erstellen. Dabei kann auf Dokumente verwiesen werden, die man hochgeladen hat. Genau dies macht Myriam Rellstab derzeit an der Hochschule für Wirtschaft FHNW im Rahmen ihrer Abschlussarbeit „Moral Prompt Engineering“, deren Zwischenergebnisse sie am 28. Mai 2024 vorgestellt hat. Als Prompteuse zähmt sie GPT-4o, mit Hilfe ihrer Anweisungen und – dies hatte der Initiator des Projekts, Prof. Dr. Oliver Bendel, vorgeschlagen – mit Hilfe von Netiquetten, die sie gesammelt und dem Chatbot zur Verfügung gestellt hat. Der Chatbot wird gezähmt, der Tiger zum Stubentiger, der ohne Gefahr etwa im Klassenzimmer eingesetzt werden kann. Nun ist es bei GPT-4o so, dass schon vorher Guardrails eingezogen wurden. Diese wurden einprogrammiert oder über Reinforcement Learning from Human Feedback gewonnen. Man macht also genaugenommen aus einem gezähmten Tiger einen Stubentiger. Bei bestimmten Open-Source-Sprachmodellen ist dies anders. Das wilde Tier muss erst einmal eingefangen und dann gezähmt werden. Und selbst dann kann es einen ernsthaft verletzen. Doch auch bei GPTs gibt es Tücken, und wie man weiß, können Stubentiger durchaus fauchen und kratzen. Im August liegen die Ergebnisse des Projekts vor. Bereits bei Data, einem Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW, war Moral Prompt Engineering angewandt worden.