Chancen und Risiken von Pflegerobotern

Im Deutschen Bundestag widmet man sich am 20. Februar 2019 den Chancen und Risiken von Pflegerobotern. Robotikerin Dr. Birgit Graf spricht über „Potenziale und Grenzen der Robotik für die Pflege – Stand der Technik und Anwendung, Herausforderungen für Forschung und Entwicklung“, Pflegewissenschaftler Prof. Dr. Manfred Hülsken-Giesler nimmt eine „Einordnung und Bewertung aus Sicht der Pflegewissenschaft“ vor. „Ethisch-normative Herausforderungen der Pflegerobotik“ ist der Titel des Vortrags von Prof. Dr. Oliver Bendel, Informations- und Maschinenethiker. Daneben gibt es Kommentare aus der Perspektive der Technikfolgenabschätzung (Dr. Bettina-Johanna Krings, KIT/ITAS), der Forschungsförderung (Christine Weiß, VDI/VDE-IT), der Pflegeträger (Alexander Huhn, Caritas-Zentrum Garmisch-Partenkirchen) und der Pflegekräfte (Peter Tackenberg, Deutscher Berufsverband für Pflegeberufe (DBfK)). Die Einführung wird Dr. Christoph Kehl vom Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) halten. Das Programm kann hier heruntergeladen werden.

Ein Chatbot mit Gesichtserkennung

Der BESTBOT ist eine unmoralische Maschine in einer moralischen. Er ähnelt einer Matrjoschka, der Holzpuppe, in der weitere Holzpuppen stecken. Dies betonte Oliver Bendel in einem Gespräch mit dem Tages-Anzeiger. In die offene Welt würde er den Chatbot deshalb nicht entlassen. Dieser bleibt im Labor der Maschinenethik. Der BESTBOT wurde 2018 an der Hochschule für Wirtschaft FHNW entwickelt. Bereits im März 2018 stellte der Informations- und Maschinenethiker im Rahmen der AAAI Spring Symposia sein Paper „From GOODBOT to BESTBOT“ vor, das die Grundlage für das Projekt legte. David Studer programmierte den Chatbot in Java. Der BESTBOT ist ein vernetztes System, das Suchmaschinen und Lexika benutzt. Er analysiert die Texteingaben des Benutzers mit textbasierter Emotionserkennungssoftware. Zugleich wird Gesichtserkennung eingesetzt, wiederum mit Emotionserkennung. Wenn der Benutzer zum Beispiel angibt, dass es ihm gut geht, sein Gesicht aber anderes verrät, spricht der Chatbot diesen Widerspruch an. Dieser erkennt sowohl kleine als auch große Sorgen. Dies ist ohne Zweifel von hohem Nutzen, gerade wenn der Benutzer sich etwas antun will. Zugleich kann Gesichtserkennung, vor allem im Zusammenhang mit Emotionserkennung, hochproblematisch sein. Oliver Bendel rät davon ab, solche Systeme bei der automatisierten Kommunikation und im öffentlichen Raum einzusetzen. Der ganzseitige Artikel im Tages-Anzeiger zum BESTBOT ist am 12. Dezember 2018 erschienen und kann hier heruntergeladen werden.

Abb.: Was erkennt der Chatbot im Gesicht?

Zu Grundeinkommen und -eigentum

Die Studien zur Arbeitsmarktentwicklung ab 2020 gelangen zu unterschiedlichen Ergebnissen. Man kann aber auf jeden Fall sagen, dass bestimmte Arbeitsplätze wegfallen und viele Menschen ohne ihre vertraute Arbeit sein werden. Es ist auch anzunehmen, dass insgesamt weniger menschliche Arbeit im Auftrag (etwa für Arbeitgeber) verrichtet werden muss. Als Lösungen der wirtschaftlichen und sozialen Probleme werden oft bedingungsloses Grundeinkommen und Robotersteuer genannt. Der Beitrag „Are Robot Tax, Basic Income or Basic Property Solutions to the Social Problems of Automation?“ von Oliver Bendel diskutiert und kritisiert diese Ansätze im Kontext von Automatisierung und Digitalisierung. Zudem entwickelt er einen weitgehend unbekannten Vorschlag, das bedingungslose Grundeigentum, weiter und stellt dessen Potenziale ebenso dar wie dessen Risiken. Der Informations- und Maschinenethiker aus Zürich präsentiert seine Ergebnisse zwischen dem 25. und 27. März 2019 bei den AAAI Spring Symposia. Es ist sein sechster Vortrag an der Stanford University innerhalb von vier Jahren.

Abb.: Klein, aber mein

Der Roboter entdeckt die Philosophie

Die Ideen- und Entwicklungsgeschichte ist reich an künstlichen Kreaturen. Mythos und Fiktion bringen Pandora und Talos hervor, die Geschöpfe des Hephaistos, die Automatenmenschen des Daidalos, die Skulptur des Pygmalion, die eiserne Jungfrau des Nabis. Die Realität war zunächst verbunden mit der Illusion. Von ca. 1500 bis 1850 wurden tier- und menschenähnliche (Pseudo-)Automaten erdacht bzw. vorgeführt, die körnerschluckende Ente, die kunstvollen Androiden, der doppelbödige Schachtürke. Dann, nach weiteren 150 Jahren, streifte die Realität die Illusion mehr und mehr ab, wobei sie die Simulation in den meisten Fällen bei sich behielt. Es werden Systeme und Roboter erschaffen, die den Menschen nicht nur zum Verwechseln ähnlich sehen, sondern sogar, auch mit Hilfe künstlicher Intelligenz, selbst Optionen wählen und Aktionen ausführen, unter Umständen mit weitreichenden Folgen. Sie werden von sozialer Robotik und Maschinenethik gezähmt, dressiert, zivilisiert und moralisiert. Auch tierähnliche und dinghafte Artefakte scheinen plötzlich Eigenschaften zu haben, die man bisher Menschen zugeschrieben hat. Oliver Bendel wird in seinem Vortrag am 9. Januar 2019 im Haus Huth in Berlin erklären, was Roboterphilosophie und Roboterethik und was soziale Robotik und Maschinenethik sind. Er wird darstellen, wie man Entwickler und ihre Geschöpfe für die Philosophie gewinnt und wie man Roboterautos, Serviceroboter und Chatbots zu moralischen und unmoralischen Maschinen machen kann. Und wie man dabei in manchen Fällen die Büchse der Pandora öffnet. Weitere Informationen über die Website der Daimler und Benz Stiftung.

Abb.: Die Philosophie entdeckt den Roboter

Roboethics as Topical Issue in Paladyn Journal

In 2018, Paladyn Journal of Behavioral Robotics published several articles on robot and machine ethics. In a message to the authors, the editors noted: „Our special attention in recent months has been paid to ethical and moral issues that seem to be of daily debate of researchers from different disciplines.“ The current issue „Roboethics“ includes the articles „Towards animal-friendly machines“ by Oliver Bendel, „Liability for autonomous and artificially intelligent robots“ by Woodrow Barfield, „Corporantia: Is moral consciousness above individual brains/robots?“ by Christopher Charles Santos-Lang, „The soldier’s tolerance for autonomous systems“ by Jai Galliott and „GenEth: a general ethical dilemma analyzer“ by Michael Anderson and Susan Leigh Anderson. The following articles will be published in December 2019: „Autonomy in surgical robots and its meaningful human control“ by Fanny Ficuciello, Guglielmo Tamburrini, Alberto Arezzo, Luigi Villani, and Bruno Siciliano, and „AI for the Common Good?! Pitfalls, challenges, and Ethics Pen-Testing“ by Bettina Berendt. More information via www.degruyter.com/page/1498.

Fig.: Machines can be friendly to beetles

Moralische Maschinen mit maschinellem Lernen

Michael und Susan Leigh Anderson stellen beim Berliner Kolloquium 2019 ihre neuesten Ergebnisse aus der Disziplin der Maschinenethik vor. Üblicherweise werden sogenannten moralischen Maschinen starre Regeln gegeben, an die sie sich sozusagen sklavisch halten. Dies hat einige Vorteile, aber auch ein paar Nachteile, denen man mit Hilfe von maschinellem Lernen entgegentreten kann. Genau diesen Ansatz haben die Andersons zusammen mit einem Forscher vom Max-Planck-Institut für Intelligente Systeme verfolgt, wobei die Altenpflege als Kontext diente: „Contrary to those who regard such a goal as unattainable, Michael and Susan Leigh Anderson … and Vincent Berenz … have succeeded in programming a SoftBank Nao robot with a set of values that determines its behavior while aiding a person in a simulated eldercare environment. This unprecedented accomplishment uses machine learning to enable the robot to discern how each of its actions would satisfy or violate its ethical duties in the current situation and decide the best action to take.“ (Machine Ethics) Die Ergebnisse werden 2019 in den Proceedings of the IEEE publiziert. Der wissenschaftliche Leiter des 23. Berliner Kolloquiums zu Pflegerobotern ist Oliver Bendel. Die Anmeldung erfolgt über die Website der Daimler und Benz Stiftung.

Abb.: Ein Nao-Roboter (Foto: SoftBank/Philippe Dureuil, CC-BY-SA-4.0)

Chinesische Nachrichten

Wie verschiedene Medien melden, hat die chinesische Nachrichtenagentur Xinhua ein System vorgestellt, das im Fernsehen Nachrichten verlesen kann. Die verfügbaren Avatare sind realen Sprechern nachgebildet, nämlich Qiu Hao und Zhang Zhao. Die digitale Kopie von Qiu spricht chinesisch, die von Zhang englisch. „Das System nutzt Künstliche Intelligenz (KI) und maschinelles Lernen, um die Stimme, Lippenbewegungen, Mimik und Gestik der Vorbilder möglichst realistisch zu imitieren. Dadurch solle ein möglichst lebensnahes Abbild entstehen und kein kalter Roboter, erklärte Xinhua. Das System ist zudem lernfähig. Das bedeutet, die Avatare lernen von Videos menschlicher Sprecher und werden dadurch mit der Zeit besser.“ (Golem, 9. November 2018) Im Moment klingt die Stimme von Zhang erstaunlich künstlich. Die Stimmen üblicher Text-to-Speech-Engines erreichen eine bessere Qualität. Mit Hilfe von SSML kann man sie noch menschenähnlicher gestalten. Virtuelle Nachrichtensprecher sind insgesamt ein alter Hut. Ananova, eine virtuelle Nachrichtensprecherin, hatte vor 20 Jahren eine gewisse Popularität erlangt. Sie wechselte 2000 für eine Ablösesumme von 95 Millionen Pfund zum Telefonanbie­ter Orange.

Abb.: Ein chinesischer Avatar?

„Pflegeroboter“ bei Springer erschienen

Das Buch „Pflegeroboter“, herausgegeben von Oliver Bendel, ist im November 2018 bei Springer Gabler erschienen, herunterladbar bei SpringerLink (bis Ende des Jahres folgt die Printausgabe). Es bündelt technische, wirtschaftliche, medizinische und ethische Reflexionen über Pflegeroboter. Autorinnen und Autoren sind (in alphabetischer Reihenfolge) Elisabeth André, Heidrun Becker, Oliver Bendel, Hans Buxbaum, Sabine Daxberger, Nicola Döring, Michael Früh, Alina Gasser, Christoph Gisinger, Klaus Hauer, Manfred Hülsken-Giesler, Kathrin Janowski, Christoph Kehl, Jeanne Kreis, Birgit Lugrin, Katja Mombaur, Hartmut Remmers, Hannes Ritschel, Daniel Schilberg, Sumona Sen und Bernd Carsten Stahl. Manche Autoren gehen Fragen aus Wirtschafts-, Medizin- und Informationsethik nach: Wer trägt die Verantwortung bei einer fehlerhaften Betreuung und Versorgung durch die Maschine? Inwieweit kann diese die persönliche und informationelle Autonomie des Patienten unterstützen oder gefährden? Ist der Roboter eine Entlastung oder ein Konkurrent für Pflegekräfte? Weitere Informationen über www.springer.com/de/book/9783658226978. Zur Verfügung steht auch ein Flyer.

Proceedings of Robophilosophy 2018

In November 2018 the „Proceedings of Robophilosophy 2018“ with the title „Envisioning robots in society – power, politics, and public space“ were published. Editors are Mark Coeckelbergh, Janina Loh, Michael Funk, Johanna Seibt, and Marco Nørskov. In addition to the contributions of the participants, the book also contains abstracts and extended abstracts of the keynotes by Simon Penny, Raja Chatila, Hiroshi Ishiguro, Guy Standing, Catelijne Muller, Juha Heikkilä, Joanna Bryson, and Oliver Bendel (his article about service robots from the perspective of ethics is available here). Robophilosophy is the most important international conference for robophilosophy and roboethics. In February 2018 it took place at the University of Vienna. Machine ethics was also an issue this time. „Robots are predicted to play a role in many aspects of our lives in the future, affecting work, personal relationships, education, business, law, medicine and the arts. As they become increasingly intelligent, autonomous, and communicative, they will be able to function in ever more complex physical and social surroundings, transforming the practices, organizations, and societies in which they are embedded.“ (IOS Press) More information via www.ios.com.

Fig.: Robophilosophy in Vienna

Therapie und Robotik

„Therapieroboter unterstützen therapeutische Maßnahmen oder wenden selbst, häufig als autonome Maschinen, solche an. Sie sind mit ihrem Aussehen und in ihrer Körperlichkeit wie traditionelle Therapiegeräte präsent, machen aber darüber hinaus selbst Übungen mit Gelähmten, unterhalten Betagte und fordern Demente und Autisten mit Fragen und Spielen heraus. Manche verfügen über mimische, gestische und sprachliche Fähigkeiten und sind in einem bestimmten Umfang denk- und lernfähig (wenn man diese Begriffe auf Computersysteme anwenden will).“ Mit diesen Worten beginnt der Beitrag „Therapieroboter“ von Oliver Bendel für das Wirtschaftslexikon von Springer Gabler, erschienen im November 2018. Auch die Perspektive der Ethik wird eingenommen: „Der Frage der Verantwortung widmen sich Informationsethik und Medizinethik sowie Roboterethik. Der Hersteller (respektive der Entwickler) muss, zusammen mit dem Heim oder der Anstalt bzw. einer sonstigen Einrichtung, die Verantwortung tragen und die Haftung übernehmen. Allerdings kann er sich darauf berufen, dass die Effekte insgesamt positiv sein mögen, und darauf beharren, dass Einzelfälle mit negativen Implikationen in Kauf zu nehmen und zu verkraften seien.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/therapieroboter-100563 abgerufen werden.

Abb.: Massagetherapie