Ziel des First Geriatronics Summit ist, die aktuellen und geplanten Robotiklösungen im Kontext der Geriatronik zu beleuchten und die politischen Entscheidungsträger für die entsprechenden Technologien zu sensibilisieren. Die Veranstaltung, die am 20. und 21. Juni 2022 in Garmisch-Partenkirchen stattfinden wird, will laut Website folgende Fragen beantworten: 1. Wie kann man mit Hilfe von Geriatronik dem zunehmenden Mangel und den geografischen Unterschieden bei den Pflegekräften und der überlasteten Gesundheitsversorgung begegnen? 2. Wie können Robotik und KI die Unabhängigkeit, Mobilität, Selbstbestimmung und Gesundheit älterer Menschen so lange wie möglich fördern? 3. Was sind die Regeln der Autonomie und wie lassen sich moralische, ethische, kulturelle und persönliche Herausforderungen und Dilemmata für die Geriatronik angehen? Eingeladene Wissenschaftler sind Prof. Dr.-Ing. Tamim Asfour (KIT Karlsruhe), Dr. Sylvain Calinon (EPFL), Dr. Tadej Petrič (Jožef Stefan Institute), Dr. Matteo Laffranchi (Italian Institute of Technology – IIT), Prof. Adriana Tapus (Institut Polytechnique de Paris), Prof. Jim Tørresen (University of Oslo), Prof. Dr.-Ing. Sami Haddadin (TUM), Prof. Dr. med. Alena M. Buyx (TUM), Prof. Dr. oec. Oliver Bendel (Hochschule für Wirtschaft FHNW), Prof. Dr. Christian Djeffal (TUM), Prof. Vera Lúcia Raposo (University of Coimbra), Prof. Dr. Lee Bygrave (University of Oslo) und Prof. Dr. Martin Ebers (Humboldt-Universität zu Berlin/University of Tartu). Getragen wird die Veranstaltung u.a. vom Munich Institute of Robotics and Machine Intelligence (MIRMI) der Technischen Universität München (TUM) und von der VolkswagenStiftung.
Abb.: Ältere sind Pflegerobotern gegenüber oft aufgeschlossen
Immer mehr Roboter werden im Pflegebereich eingesetzt. Die meisten von ihnen sind Prototypen, einige sogar Produkte, die in kleinen Serien hergestellt werden, wie Lio und P-CARE von F&P Robotics. Die Maschinenethik erforscht und schafft moralische Maschinen. Diese lassen sich oft von bestimmten Werten oder Metaregeln leiten, sie folgen vorgegebenen Regeln oder sie lernen aus Situationen und passen ihr Verhalten an. Das CARE-MOMO („MOMO“ steht für „Moralmodul“) ist ein Moralmodul, das Lio erweitern kann. Es baut auf dem MOME auf, dem Moralmenü, das bereits 2019/2020 entwickelt und 2020 auf der Robophilosophy vorgestellt wurde. Mit Hilfe von Schiebereglern auf dem Display von Lio kann der Patient seine Präferenzen wählen und so auf einfache Weise seine sittlichen und moralischen Vorstellungen übertragen. Dabei wird auf eine 1:1-Beziehung zwischen Mensch und Maschine fokussiert. Marc Heimann erarbeitete im Rahmen seiner Abschlussarbeit bereits mehrere Vorschläge, die in einem Brainstorming mit dem Betreuer Oliver Bendel am 19. Mai 2022 ergänzt wurden. Das CARE-MOMO ist das dreizehnte Artefakt, das im Arbeitsbereich von Oliver Bendel entsteht. Mehrere davon – etwa LIEBOT, LADYBIRD oder HAPPY HEDGEHOG – wurden bei internationalen Konferenzen vorgestellt und haben mediale Aufmerksamkeit erregt. Das CARE-MOMO-Projekt begann im März und läuft noch bis August 2022. Das Ergebnis ist eine prototypische Umsetzung des Moralmoduls.
„Künstliche Moral (engl. ‚artificial morality‘), auch maschinelle Moral (engl. ‚machine morality‘) genannt, ist die Fähigkeit einer Maschine (i.d.R. eines autonomen Systems), sich an moralische Regeln zu halten respektive unter verschiedenen Optionen diejenige auszuwählen, die gut und richtig ist. Die moralischen Regeln sind der sogenannten moralischen Maschine gleichsam eingepflanzt worden; diese kann sie u.U. aber auch abändern und anpassen, etwa indem sie das Verhalten anderer – künstlicher oder natürlicher – Systeme übernimmt oder anderweitig aus Situationen lernt.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der am 20. Mai 2022 im Gabler Wirtschaftslexikon erschienen ist. Er ergänzt u.a. „Maschinenethik“ (2012) und „Moralische Maschinen“ (2019). Am Ende heißt es: „Am besten bewährt sich die künstliche Moral in geschlossenen oder halboffenen, übersichtlichen und weitgehend unveränderlichen Umgebungen, etwa in einem Haushalt oder auf einem Betriebsgelände.“ Dort können moralische Maschinen sowohl Tiere als auch Menschen schützen. Der Beitrag ist über wirtschaftslexikon.gabler.de/definition/kuenstliche-moral-123163 abrufbar.
Das aktuelle Magazin des Zürcher Tierschutzes bringt ein zweiseitiges Interview mit Prof. Dr. oec. HSG Oliver Bendel zu seiner Forschung über tierfreundliche Maschinen. Geführt hat es Dr. sc. ETH Bea Roth. Der Informations- und Maschinenethiker beobachtet seit Jahren, dass sich teilautonome und autonome Maschinen immer mehr verbreiten, bei den Folgen aber vor allem an den Menschen gedacht wird. Robotik und Künstliche Intelligenz sind geradezu stolz darauf, auf unsere Bedürfnisse zu fokussieren, und vergessen dabei oft die von Tieren. Dabei könnte man z.B. Haushaltsroboter auf eine einfache Weise tierfreundlich gestalten. Oliver Bendel hat mit seinen jeweiligen Teams in diesem Bereich Prototypen wie LADYBIRD und HAPPY HEDGEHOG entwickelt. Zudem hat er ein System für die Gesichtserkennung bei Bären in den Alpen konzipieren lassen. Seine Vision ist, dass in riesigen Naturparks die Wildtiere in Ruhe gelassen und allenfalls von Robotern beobachtet und zur Not versorgt werden. Das ZT-Magazin steht auch online zur Verfügung.
Abb.: Auch Elefanten können von Maschinen profitieren
There are more and more robots being used in health care. Most of them are prototypes, some – like Lio and P-CARE from F&P Robotics – are products that are manufactured in small series. Machine ethics researches and creates moral machines. These are often guided by certain values or meta-rules, they follow predetermined rules, or they learn from situations and adapt their behavior. Michael Anderson and Susan L. Anderson presented their value-driven eldercare robot at the 2019 Berlin Colloquium by invitation of Oliver Bendel. The CARE-MOMO („MOMO“ stands for „morality module“) is a morality module for a robot in the manner of Lio. The idea is that the robot acquires clearly delimited moral abilities in addition to its usual abilities. The focus is to have it perform an act or speech act with high reliability based on a moral assumption or reasoning, with a clearly identifiable benefit to the caregiver or the care recipient. The initiators want to address a common problem in the nursing and care field. Marc Heimann could be recruited for the project at the School of Business FHNW. The supervisor is Oliver Bendel, who has been working with robots in the healthcare sector for ten years and has built numerous moral machines together with his teams.
The Ethics of Conversational User Interfaces workshop at the ACM CHI 2022 conference „will consolidate ethics-related research of the past and set the agenda for future CUI research on ethics going forward“. „This builds on previous CUI workshops exploring theories and methods, grand challenges and future design perspectives, and collaborative interactions.“ (CfP CUI) From the Call for Papers: „In what ways can we advance our research on conversational user interfaces (CUIs) by including considerations on ethics? As CUIs, like Amazon Alexa or chatbots, become commonplace, discussions on how they can be designed in an ethical manner or how they change our views on ethics of technology should be topics we engage with as a community.“ (CfP CUI) Paper submission deadline is 24 February 2022. The workshop is scheduled to take place in New Orleans on 21 April 2022. More information is available via www.conversationaluserinterfaces.org/workshops/CHI2022/.
Fig.: Machine ethics also develops conversational agents
Zahlreiche Wissenschaftlerinnen und Wissenschaftler und auch Experten aus der Praxis haben am Buch „Soziale Roboter“ mitgewirkt. Von Tanja Bleuler und Pietro Caroni stammt die Übersicht „Roboter in der Pflege: Welche Aufgaben können Roboter heute schon übernehmen?“. Aus dem Abstract: „Der Einsatz von sozialen Robotern in der Pflege ist ein Lösungsansatz für den herrschenden Mangel an Pflegekräften. Dadurch kann nicht nur das Personal in Einrichtungen entlastet werden, sondern die unterstützungsbedürftigen Personen können länger zu Hause wohnen. Doch dieser Einsatz ist mit Ängsten und ethischen Bedenken verbunden. An Lio, einem Roboter der Firma F&P Robotics AG, und verschiedenen internationalen Beispielen wird in diesem Beitrag aufgezeigt, was bis heute entwickelt wurde, wie die Roboter heute schon im Alltag helfen und wie die EntwicklerInnen den Ängsten und ethischen Herausforderungen begegnen. Lio wird dabei genauer beschrieben und an seinem Beispiel gezeigt, wie das Verhalten und Design eines Roboters an die Pflegeumgebung angepasst werden können.“ Das von Oliver Bendel herausgegebene Werk ist Anfang November 2021 erschienen und verzeichnet bereits über 30.000 Downloads. Es kann über link.springer.com/book/10.1007/978-3-658-31114-8 bezogen werden.
Abb.: Wie stark dürfen Roboter den Patienten durchleuchten?
Zahlreiche Wissenschaftlerinnen und Wissenschaftler haben am Buch „Soziale Roboter“ mitgewirkt. Von Stefanie Baisch und Thorsten Kolling stammt die Abhandlung „Roboter in der Therapie: Vom Demonstrator zum Psychotherapeuten“. Aus dem Abstract: „Bereits heute, aber dank des demografischen Wandels umso mehr in Zukunft, sind therapeutische Ressourcen begrenzt. Infolgedessen können nicht alle Menschen die physische, psychische oder kognitive Therapie bekommen, die sie benötigen, um trotz Beeinträchtigungen möglichst selbständig am alltäglichen Leben teilnehmen zu können. Roboter könnten die Therapie quantitativ wie auch qualitativ verbessern und mehr Menschen Zugang zu einer Therapie ermöglichen. Im vorliegenden Beitrag werden die verschiedenen Rollen und Funktionen, die die Roboter in unterschiedlichen Therapiebereichen einnehmen können, sowie empirische Belege für Akzeptanz, Wirksamkeit und Einflussfaktoren vorgestellt, soweit vorhanden. Dabei zeigt sich, dass selbst in den besser untersuchten Populationen (Kinder mit Autismus-Spektrum-Störung, ältere Erwachsene mit und ohne Demenz) die Datenbasis sehr dünn ist und noch viele Fragen offenbleiben. Neben Potenzialen werden forschungs- wie auch praxisbezogene und ethische Problemfelder des Einsatzes sozialer Roboter im therapeutischen Bereich identifiziert.“ Das von Oliver Bendel herausgegebene Werk ist Anfang November 2021 erschienen und verzeichnet bereits 30.000 Downloads. Es kann über link.springer.com/book/10.1007/978-3-658-31114-8 bezogen werden.
Breitband (DLF Kultur) hat sich mit Oliver Bendel über Chatbots unterhalten, mit denen man Beziehungen führen und Phantasien ausleben kann. Der Informations- und Maschinenethiker stellte zunächst grundsätzlich fest, dass man sich mit Chatbots und Sprachassistenten anders unterhält als mit Menschen. Man schreibt oder spricht einfacher, kürzer – und obszöner. Mit Replika kann man über generelle und persönliche Angelegenheiten sprechen – und auch Phantasien im Virtuellen ausleben. Normalerweise bleibt es dabei. Dennoch gibt es, so der Ethiker aus Zürich, durchaus Effekte im Realen. Denn wenn man mit Replika in obszöner Weise chattet, reagiert man darauf, ist erregt, erheitert etc. Es stellen sich also körperliche und geistige Reaktionen ein. Grundsätzlich trainiert man auch ein bestimmtes Verhalten, entwickelt bestimmte Methoden und Strategien im Sprachlichen. Die meisten Benutzer dürften zwischen Virtualität und Realität unterscheiden können. Sobald sie auf einen echten Menschen treffen, passen sie sich an. Aber es kann durchaus sein, dass Einzelne bewusst oder unbewusst das Erlernte ausprobieren. Allgemeine Chatbots, die der Unterhaltung dienen, sollte man durchaus begrenzen, so der Informations- und Maschinenethiker. Man kann ihnen etwa eine Persönlichkeit geben, mit deren Hilfe u.a. Übergriffe zurückgewiesen werden. Das fängt schon damit an, dass Replika es nicht gut finden muss, wenn man sie Bitch nennt. Der Beitrag „Alles nur ein Spiel?“ wird am 29. Januar 2022 um 13.05 Uhr ausgestrahlt. Weitere Informationen über www.deutschlandfunkkultur.de/programm.
Der von Oliver Bendel herausgegebene Springer-Band „Soziale Roboter“ enthält 30 Beiträge international bekannter Autorinnen und Autoren – wenn man das Vorwort mitzählt. Von Martina Mara und Benedikt Leichtmann stammt die Abhandlung „Soziale Robotik und Roboterpsychologie: Wie psychologische Forschung zur menschzentrierten Entwicklung robotischer Systeme beitragen kann“. Aus dem Abstract: „Egal in welchem Anwendungsbereich soziale Roboter zum Einsatz kommen, sie sind in jedem Fall dafür gemacht, mit Menschen zu interagieren. Die Psychologie als Wissenschaft menschlichen Denkens, Fühlens und Verhaltens kann im Austausch mit anderen Disziplinen daher wertvolle Beiträge zur Erforschung sozialer Roboter und zum Gelingen von Mensch-Roboter-Interaktion liefern. Ziel dieses Kapitels ist es, einen einführenden Einblick in die Besonderheiten psychologischer Zugänge zur Sozialen Robotik zu geben. Ausgewählte Themenfelder der Roboterpsychologie, darunter Anthropomorphismus, Technologieängstlichkeit oder Vertrauen in Roboter, werden theoretisch und empirisch beleuchtet. Da eine korrekte Einordnung von Forschungsergebnissen immer auch ein Verständnis zugrunde liegender Forschungsmethoden erfordert, geht ein weiterer Abschnitt darauf ein, wie psychologische Vorgänge wissenschaftlich untersucht und gemessen werden können. Mit der Frage ‚Brauchen Roboter Psychotherapie?‘ widmen wir uns abschließend populären Falschvorstellungen zur Roboterpsychologie und diskutieren außerdem Potenziale und Risiken von Robotern als therapeutischen Begleitwerkzeugen.“ Das Buch ist Anfang November 2021 erschienen und kann über link.springer.com/book/10.1007/978-3-658-31114-8 bezogen werden.
Abb.: Geistige Gesundheit auf einer alten Abbildung
„Schätzungen zu Folge gibt es weltweit inzwischen mehr als 1,7 Millionen Roboter mit sozialen Eigenschaften. Sie pflegen, bilden, helfen und unterhalten uns. Längst gibt es auch hoch technisierte Sexroboter. Doch können diese Maschinen tatsächlich Gefühle entwickeln – oder gar Liebe empfinden?“ (Website ARTE) Dies fragt sich ARTE in der Reihe „42 – Die Antwort auf fast alles“. Die Sendung „Werden wir Roboter lieben?“ wird am 19. Februar 2022 ausgestrahlt. Die Onlineversion ist bereits ab 20. Januar verfügbar. Zu Wort kommen Dr. Hooman Samani, Robotiker an der University of Plymouth, Prof. Dr. Martin Fischer, Kognitionspsychologe an der Universität Potsdam, und Prof. Dr. Oliver Bendel, Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Er forscht seit über 20 Jahren zu Conversational Agents und sozialen Robotern und hat Ende 2021 das Springer-Buch „Soziale Roboter“ herausgegeben. Weitere Informationen zur Sendung über www.arte.tv/de/videos/101938-004-A/42-die-antwort-auf-fast-alles/.
Die Studie „Soziale Roboter, Empathie und Emotionen“, erschienen am 8. November 2021, nimmt die Perspektiven von Informations-, Roboter- und Maschinenethik ein. Verantwortlich für diesen Teil waren Prof. Dr. Oliver Bendel und Jeanne Kreis. Die Perspektive der Informationsethik – vor allem das Konzept der informationellen Autonomie – hilft dabei, die Überwachungsmöglichkeiten und die Verletzungen von Privat- und Intimsphäre durch soziale Roboter kritisch zu reflektieren. Sie kann mithelfen, ethische Leitlinien zu entwickeln und ethische Kommissionen aufzusetzen. Es resultiert bei Verwendung der diskursiven Methode ein Interessenausgleich der verschiedenen Parteien, etwa ein Konsens zu dem, was bei Gesichts- und Stimmerkennung zu tun und was zu unterlassen ist. Mit Hilfe der Roboterethik kann die Frage nach den moralischen Rechten von sozialen Robotern abschlägig beantwortet werden, da solche Rechte Empfindungs- und Leidensfähigkeit bzw. Bewusstsein voraussetzen. Ein ergiebigeres Forschungsfeld findet die Disziplin in Bezug auf die Folgen des Einsatzes sozialer Roboter. Diese sollten keine Mittel für Betrug und Täuschung darstellen, da diese Rechte des Gegenübers beschädigen können. Zugleich ist es vertretbar, die Nutzer für eine Weile in einer Illusion zu belassen, wenn sie dazu in geeigneter Weise ihre Zustimmung gegeben haben und der Nutzen den Schaden überwiegt. Sie sollten aber, soweit es ihnen zugänglich und möglich ist, über die Hintergründe aufgeklärt worden sein und zu jedem Zeitpunkt wiederum Wahlfreiheit haben. Es ist vor allem stets zu überlegen, ob das Simulieren von Empathie und Emotionen notwendig und zielführend ist oder ob hier unnötigerweise Beziehungen und Bindungen etabliert werden, die sich für die Betroffenen als problematisch oder die Menschenwürde verletzend herausstellen können. Ethics by Design, Responsible AI und Maschinenethik können dazu beitragen, dass soziale Roboter sozial und moralisch adäquat agieren und reagieren. Die Entwicklerinnen und Entwickler werden mit Blick auf Betrug und Täuschung oder die Gefahr von Verzerrungen und Vorurteilen sensibilisiert, und sie werden in die Lage versetzt, den Maschinen passende Regeln und Grenzen einzupflanzen. So entstehen soziale Roboter als moralische Maschinen, die zumindest in geschlossenen und halboffenen, übersichtlichen Räumen mit voraussehbaren Prozessen und Situationen zu einem guten Leben beitragen können. Die Studie ist über zenodo.org/record/5554564 verfügbar.
Abb.: Eine Pose von Ameca (Photo: Engineered Arts)
UK-based company Engineered Arts showed off one of its creations in a YouTube video in late 2021. The humanoid robot Ameca makes a series of fascinating human-like facial expressions. The Verge magazine describes this process: „At the start of the video, Ameca appears to ‚wake up,‘ as its face conveys a mix of confusion and frustration when it opens its eyes. But when Ameca starts looking at its hands and arms, the robot opens its mouth and raises its brows in what it looks like is amazement. The end of the video shows Ameca smiling and holding a welcoming hand out towards the viewer – if that’s how you want to interpret that gesture.“ (The Verge, 5 December 2021) However, this smile does not turn out perfectly – a problem that affects all androids. Almost every emotional movement can now be simulated well – except for the one whose expression is the smile. Only when this problem is solved will Sophia, Erica, and Ameca be able to get out of Uncanny Valley.
„Chapter ist das internationale Designmagazin aus dem Verlag Plastic Media. Zweimal jährlich in Print sowie auf der korrespondierenden Multimedia-Website Chapter.digital verschmelzen in Chapter unterschiedliche Disziplinen und Genres zu einem großen Ganzen: Design und Mobilität, Technik und Kunst, Innovation und Leadership.“ (Website Chapter.digital) Die neue Ausgabe V trägt den Titel „Time and Space“. Zu diesem Heft heißt es: „Innovative, inspiring, challenging and visually unique—the new magazine from Plastic Media is about to write a new chapter in contemporary print media by covering the core topics ‚Design—Travel—Automotive‘ in an interdisciplinary approach, always outside the box of usual stereotypes and conventional takes.“ (Website Plastic Media) In dem Artikel „Gefühlschaos vorprogrammiert“ von Sarah Wetzlmayr aus Wien geht es u.a. um Maschinenethik – zu Wort kommt hier Prof. Dr. Oliver Bendel aus Zürich – und um Roboterpsychologie, eine Domäne von Prof. Dr. Martina Mara aus Linz. Das Heft kann hier bezogen werden.
Abb.: Das Designmagazin widmet sich der Maschinenethik
Die aktuelle Ausgabe von Ethik & Unterricht (3/2021) trägt den Titel „Digitale Spielewelten“. Auf der Website des Verlags heißt es: „Digitale Spiele sind in der Freizeitkultur und Lebenswelt der meisten Schülerinnen und Schüler fest verankert. In jüngerer Zeit haben sich zahlreiche didaktische Vorschläge dem Einsatz von digitalen Spielen auch im Philosophie- und Ethikunterricht zugewandt. Bei einigen Lehrkräften mögen Unsicherheiten bestehen. Überwiegen die motivationalen Vorteile oder wiegen die skeptischen Bedenken zum sinnvollen Einsatz von Computerspielen im Unterricht schwerer? Die Beiträge richten sich auch an Lehrkräfte, die mit digitalen Spielen Neuland betreten. Es sollen dabei Möglichkeiten aufzeigt werden, wie man mit oder durch solche Spiele neue Konzepte im Philosophieunterricht entwickeln kann.“ (Informationstext auf der Website) Zum Begleitmaterial gehört u.a. eine Zusammenfassung eines Artikels von Oliver Bendel, der zuerst in der Zeitschrift Aus Politik und Zeitgeschichte (6-8/2018) erschienen ist und – so der Titel – „Überlegungen zur Disziplin der Maschinenethik“ anstellt. In Ethik & Unterricht lautet der Titel „Über den moralischen Status von Maschinen“. Der Informationsethiker und Maschinenethiker ist der Ansicht, dass Robotern keine Rechte zukommen. Auch Pflichten im engeren Sinne haben sie nicht – sie können wohl aber Aufgaben übernehmen und sich dabei an moralische Regeln halten, die man ihnen vorgegeben hat. In diesem Falle sind sie sogenannte moralische Maschinen („moral machines“), also Maschinen mit einer künstlichen Moral („artifical morality“).
A group of about 50 scientists from all over the world worked for one week (September 19 – 24, 2021) at Schloss Dagstuhl – Leibniz-Zentrum für Informatik on the topic „Conversational Agent as Trustworthy Autonomous System (Trust-CA)“. Half were on site, the other half were connected via Zoom. Organizers of this event were Asbjørn Følstad (SINTEF – Oslo), Jonathan Grudin (Microsoft – Redmond), Effie Lai-Chong Law (University of Leicester), and Björn Schuller (University of Augsburg). On-site participants from Germany and Switzerland included Elisabeth André (University of Augsburg), Stefan Schaffer (DFKI), Sebastian Hobert (University of Göttingen), Matthias Kraus (University of Ulm), and Oliver Bendel (School of Business FHNW). The complete list of participants can be found on the Schloss Dagstuhl website, as well as some pictures. Oliver Bendel presented projects from ten years of research in machine ethics, namely GOODBOT, LIEBOT, BESTBOT, MOME, and SPACE-THEA. Further information is available here.