Das Moralmodul bei der ICSR 2022

Am 13. Dezember 2022 begann die ICSR, neben der Robophilosophy die bedeutendste Konferenz zur Sozialen Robotik. Oliver Bendel und Marc Heimann sind mit ihrem Paper „The CARE-MOMO Project“ vertreten. Sie stellten es gleich am Morgen beim Workshop „Robot Companionship: Applications and Challenges“ in einem Vortrag vor. Zudem hatten sie am Donnerstag (15. Dezember 2022) eine Posterpräsentation dazu. Mithilfe des Moralmoduls, das das bewährte Moralmenü enthält, können Pflegebedürftige ihre moralischen und sozialen Vorstellungen auf einen Pflegeroboter wie Lio von F&P Robotics übertragen. Der Vortrag fand viel Anklang im vollbesetzten Raum, auch beim Chair, der den Ansatz sehr interessant fand, wie er mehrmals betonte. Das Programm des Workshops kann hier heruntergeladen werden. Weitere Informationen zur Konferenz, die dieses Jahr in Florenz stattfindet, sind über www.icsr2022.it erhältlich.

Abb.: Ein Roboter von PAL Robotics bei der ICSR 2022

Das CARE-MOMO in Zürich und Florenz

Seit 2012 wurden von Prof. Dr. Oliver Bendel und seinen Teams 13 Artefakte der Maschinenethik und Sozialen Robotik entwickelt, vor allem Prototypen (Chatbots, Sprachassistenten und tierfreundliche Maschinen). Dabei verwendeten sie in mehreren Fällen eigene Ansätze wie annotierte Entscheidungsbäume und das Moralmenü (MOME). Das jüngste Ergebnis ist das CARE-MOMO („MOMO“ steht für „Morality Module“ bzw. „Moralmodul“), das von Marc Heimann an der Hochschule für Wirtschaft FHNW umgesetzt wurde und den Assistenzroboter Lio von F&P Robotics erweitern soll. Es baut auf dem MOME von 2019/2020 auf, das auf der Robophilosophy vorgestellt wurde. Mit Hilfe von Schiebereglern auf dem Display von Lio kann der Pflegebedürftige (bei Bedarf zusammen mit der Pflegekraft oder dem Angehörigen) seine Präferenzen wählen und so auf einfache Weise seine moralischen und sozialen Vorstellungen und grundsätzlichen Haltungen übertragen. Implementiert wurde ein Moralmenü, das die drei Bereiche „Soziales“, „Transparenz“ und „Funktionalität“ umfasst. Unter „Soziales“ findet sich die Frage „Soll Lio diskret sein, wenn ich in einer intimen Situation bin?“. Der Roboter soll sich gegebenenfalls wegdrehen oder zeitweise ausschalten. Der Bereich „Transparenz“ enthält die Frage „Soll Lio mitteilen, wenn die Kamera eingeschaltet oder benutzt wird?“. Ende Oktober 2022 wurde das CARE-MOMO bei F&P Robotics in Glattbrugg bei Zürich präsentiert. Der CEO Michael Früh zeigte sich interessiert, einzelne Elemente des Moralmoduls bei Lio zu übernehmen. In den kommenden Wochen wird dies im Einzelnen geprüft. Am 15. Dezember findet eine Demonstration des CARE-MOMO durch Oliver Bendel und Marc Heimann bei der ICSR statt, einer der führenden Konferenzen der Sozialen Robotik. Dieses Mal trifft man sich in Florenz. Bereits zwei Tage vorher stellt der Maschinenethiker die Erfindung und ihre Geschichte in einem Vortrag auf einem der Workshops vor.

Abb.: Die Funktionsweise des CARE-MOMO

CARE-MOMO-Projekt abgeschlossen

Die Abschlussarbeit von Marc Heimann mit dem Titel „CARE-MOMO“ beschreibt die Implementierung eines Moralmoduls für den Pflegeroboter Lio. Damit werden frühere Projekte fortgesetzt, vor allem die Entwicklung eines Moralmoduls für einen Chatbot (MOBO-MOME) aus dem Jahre 2020. Die Forschungsfrage lautet: „Welche moralischen Probleme treten beim Einsatz eines Pflegeroboters wie Lio auf und wie kann eines von ihnen mithilfe von Ansätzen der Maschinenethik gelöst werden?“ (Abstract Bachelorarbeit) „Durch Expertengespräche mit der Firma F&P Robotics AG und Interviews mit Mitarbeitenden, welche Lio täglich nutzen, konnten einige dieser moralischen Probleme identifiziert werden. Auch bereits bekannte moralische Problemsituationen von Robotern in der Pflege wurden durch wissenschaftliche Literaturrecherche der Sammlung hinzugefügt.“ (Abstract Bachelorarbeit) Des Weiteren wurden die Akzeptanz gegenüber und das Interesse an Robotern in der Pflege analysiert. Mit dem gesammelten Wissen entwickelte Marc Heimann anschließend einen „Prototyp eines Moralmoduls …, welches ein Moralmenü beinhaltet, das den Benutzer Lios Verhalten … individuell anhand der moralischen Probleme anpassen lässt“, und zwar auf einfache Weise mit Hilfe von Schiebereglern. Zur Verfügung stehen die Bereiche Soziale Aspekte, Transparenz und Funktionalität. „Umgesetzt wurde das Moralmodul als Webservice, damit Lio es in Zukunft auf einem Tablet zur Verfügung stellen kann.“ (Abstract Bachelorarbeit) Dabei kann es sich um das integrierte Display oder ein separates Tablet handeln. Im Herbst werden die Ergebnisse dem Unternehmen vorgestellt, das in Glattbrugg bei Zürich seinen Sitz hat. Ein Video zum Projekt findet sich in der Videosektion oder direkt auf YouTube.

Abb.: Lio von F&P Robotics

Der diskrete Pflegeroboter

Das CARE-MOMO („MOMO“ steht für „Morality Module“ bzw. „Moralmodul“) soll den Assistenzroboter Lio von F&P Robotics erweitern. Es baut auf dem MOME auf, dem Moralmenü, das bereits 2019/2020 entwickelt und 2020 auf der Robophilosophy vorgestellt wurde. Mit Hilfe von Schiebereglern auf dem Display von Lio kann der Pflegebedürftige (bei Bedarf zusammen mit der Pflegekraft oder dem Angehörigen) seine Präferenzen wählen und so auf einfache Weise seine moralischen Vorstellungen und grundsätzlichen Einstellungen übertragen. Marc Heimann erarbeitete ab Frühjahr 2022 im Rahmen seiner Abschlussarbeit die Optionen, die in einem Brainstorming mit dem Betreuer Oliver Bendel ergänzt und von F&P Robotics begutachtet wurden. Implementiert wird bis Mitte August ein Moralmenü, das die drei Bereiche „Soziales“, „Transparenz“ und „Funktionalität“ umfasst. Unter „Soziales“ findet sich etwa die Frage „Soll Lio diskret sein, wenn ich in einer intimen Situation bin?“. Der Roboter soll sich gegebenenfalls wegdrehen oder zeitweise ausschalten. Der Bereich „Transparenz“ enthält die Frage „Soll Lio mitteilen, wenn die Kamera eingeschaltet oder benutzt wird?“. Das CARE-MOMO wird als Webservice mithilfe von Spring prototypisch umgesetzt. Verwendet werden HTML, CSS und JavaScript sowie das Bootstrap-Framework für die Webseite und Java, JSON und REST für die Services und das Back-End. Die Firma entscheidet dann in der Folge, ob das Moralmodul gesamthaft oder teilweise für das Produkt übernommen wird.

Abb.: 20 Konzepte/Artefakte der Maschinenethik und Sozialen Robotik

Das MOBO-MOME

Die Idee eines Moralmenüs (MOME) entstand 2018 im Kontext der Maschinenethik. Damit sollte es möglich sein, die Moral einer Person auf eine Maschine zu übertragen. Auf einem Display bekommt man verschiedene Verhaltensregeln angezeigt und kann diese über Schieberegler aktivieren oder deaktivieren. Oliver Bendel entwickelte zwei Designstudien, eine für einen tierfreundlichen Staubsaugroboter namens LADYBIRD, eine andere für einen Sprachassistenten wie Google Duplex. Ende 2018 schrieb er an der Hochschule für Wirtschaft FHNW ein Projekt aus. Drei Studenten – Ozan Firat, Levin Padayatty and Yusuf Or – implementierten von Juni 2019 bis Januar 2020 das MOME für einen Chatbot mit dem Namen MOBO. Der Benutzer macht Angaben zu seiner Person und aktiviert oder deaktiviert dann neun verschiedene Verhaltensregeln. MOBO gibt Komplimente oder gibt keine Komplimente, antwortet voller Vorurteile oder ohne Vorurteile, bedroht den Gesprächspartner oder bedroht ihn nicht. Dabei geht er auf jeden Benutzer individuell ein, nennt dessen Namen – und spricht ihn je nach Einstellung formell oder informell an. Ein Video zum MOBO-MOME ist hier abrufbar.

Abb.: Talk to me

Das siebte Artefakt der Maschinenethik

An der Hochschule für Wirtschaft FHNW entsteht zwischen Juni 2019 und Januar 2020 das siebte Artefakt der Maschinenethik. Ideen- und Auftraggeber ist Prof. Dr. Oliver Bendel. Die Maschinenethik bringt moralische und unmoralische Maschinen hervor, derzeit als Konzepte, Simulationen oder Prototypen. Die maschinelle Moral ist überwiegend fest verankert, über Prinzipien bzw. Metaregeln sowie Regeln. Die Maschinen sind damit zu bestimmten Aktionen in der Lage, zu anderen nicht. Ein Ansatz, der eine gewisse Flexibilität verheißt, ist das Moralmenü (kurz MOME). Über dieses überträgt der Besitzer oder Benutzer seine eigene Moral, seine Vorstellungen und Überzeugungen zu Gut und Böse, seine Wertmaßstäbe, seine Verhaltensregeln auf die Maschine. Diese agiert und reagiert so, wie er dies auch tun würde, und zwar im Detail. Er trifft womöglich auf bestimmte Voreinstellungen, hat aber eine gewisse Freiheit, diese zu verändern oder neue Standardeinstellungen festzulegen. Im Projekt wird ein MOME prototypisch implementiert, das auf ein bereits bestehendes System oder ein im Projekt entwickeltes System zugreift.

Abb.: Ein Moralmenü für einen Sprachassistenten

Das Moralmenü (MOME)

Die Maschinenethik bringt moralische und unmoralische Maschinen hervor. Die maschinelle Moral ist in der Regel festgelegt; es sind bestimmte Aktionen möglich, andere nicht. Ein alternativer Ansatz ist das Moralmenü. Über dieses überträgt der Besitzer oder Benutzer seine eigene Moral auf die Maschine. Diese agiert und reagiert so, wie er dies auch tun würde. Die Vorteile und Nachteile werden in dem Beitrag „Das Moralmenü: Moralische Maschinen mit einer Stellvertretermoral“ von Oliver Bendel diskutiert, veröffentlicht am 27. Januar 2019 in Telepolis. Telepolis, gegründet 1996, widmet sich seit Jahren immer wieder Roboterethik und Maschinenethik. Bei Heise Medien ist 2016 auch „Die Moral in der Maschine: Beiträge zu Roboter- und Maschinenethik“ von Oliver Bendel erschienen. Der Beitrag kann über www.heise.de/tp/features/Das-Moralmenue-4285297.html abgerufen werden.

Abb.: Soll der Saugroboter mit den Katzen spielen?

Moralmenü (MOME) für LADYBIRD

LADYBIRD, der tierfreundliche Staubsaugerroboter, wurde 2014 erdacht und 2017 an der Stanford University (AAAI Spring Symposia) vorgestellt und dann an der School of Business FHNW als Prototyp umgesetzt. Im Kontext des Projekts wurde ein Menü vorgeschlagen, mit welchem der Benutzer die Moral des Staubsaugerroboters einstellen kann. Dieser verschont, wie der Name andeutet, Marienkäfer. Auch Spinnen sollte er am Leben lassen. Wer aber zum Beispiel partout bestimmte Insekten einsaugen lassen will, könnte dies über ein Menü festlegen. Wichtig ist, dass LADYBIRD insgesamt tierfreundlich bleibt. Über das Menü wird, so war die Idee, eine Stellvertretermoral im Detail entwickelt. Der Staubsaugerroboter als Stellvertretermaschine macht das, was der Besitzer auch machen würde. 2018 kam das Moralmenü (MOME) für LADYBIRD als Designstudie auf die Welt. Dieses kann man mit weiteren Ansätzen und Technologien koppeln. So könnte der Benutzer erfahren, wie andere entschieden haben, und wie die persönliche Moral, die er auf die Maschine übertragen hat, eingeschätzt wird. Auch könnte er gewarnt und aufgeklärt werden, wenn er nicht nur Ungeziefer, sondern auch Spinnen einsaugen lassen will.

Abb.: Moralmenü für LADYBIRD

Ich bin nur eine Maschine

Die Anrufe von Google Duplex haben in den Medien ein enormes Echo ausgelöst. Immer wieder wird nun die Forderung erhoben, dass die Maschine beim Chat oder Gespräch sagt, dass sie nur eine Maschine ist. Google hat bereits beteuert, dass Google Assistant genau dies tun wird. Oliver Bendel entwickelte 2013 mit seinen Studierenden den GOODBOT, einen moralisch adäquat agierenden und reagierenden Chatbot. Vorbereitend hatte er sieben Metaregeln in der schweizerischen Unternehmerzeitung veröffentlicht. Die erste lautete, dass der Chatbot dem Benutzer klarmachen soll, dass er eine Maschine ist, eine andere, dass er nicht lügen soll. Das PDF kann hier heruntergeladen werden. Die Metaregeln wurden auf den GOODBOT dann tatsächlich angewandt. Der Prototyp war Thema auf mehreren Konferenzen und in mehreren Artikeln. Im Sommer 2018 wird ihm ein ausführlicher Beitrag gewidmet, im „Handbuch Maschinenethik“, das von Oliver Bendel für Springer herausgegeben wird und in gedruckter Form Ende des Jahres erscheint. Vor kurzem hat er auch die Idee des Moralmenüs auf Google Assistant übertragen und einen Regelkatalog für Chatbots und Sprachassistenten veröffentlicht.

Abb.: Ich bin nur eine Maschine

Moralmenü für Sprachassistenten

Im Kontext des LADYBIRD-Projekts (2014/2017) wurde ein Menü vorgeschlagen, mit welchem der Benutzer die Moral des Staubsaugerroboters einstellen kann. Dieser verschont, wie der Name andeutet, Marienkäfer. Auch Spinnen sollte er am Leben lassen. Wer aber zum Beispiel partout bestimmte Insekten einsaugen lassen will, könnte dies über ein Menü festlegen. Wichtig ist, dass LADYBIRD insgesamt tierfreundlich bleibt und sich nicht ins Gegenteil verkehrt (und Marienkäfer sind auf jeden Fall tabu). Über das Menü wird eine Stellvertretermoral entwickelt. Der Staubsaugerroboter macht das, was der Besitzer auch machen würde. Andere Maschinen wie Sprachassistenten bzw. virtuelle Assistenten haben in der Regel keine grundsätzliche moralische Ausrichtung, eignen sich aber ebenso für den Einsatz eines Moralmenüs. Google Assistant soll in Zukunft mit Hilfe der Audiofunktion alle möglichen Reservierungen vornehmen (das Projekt wird Duplex genannt). Damit automatisiert er Vorgänge, die privaten und sozialen Charakter haben. Viele Benutzer werden es schätzen, wenn der Telefonassistent die eigenen Wertvorstellungen vertritt, da er ja in ihrem Namen bzw. Auftrag spricht. Die Designstudie MOME stellt ein Moralmenü beispielhaft für virtuelle Assistenten dieser Art vor. Die erste Option lautet: „Ich sage, dass ich eine Maschine bin.“ Eine solche Funktion war schon beim GOODBOT von 2013, einem moralisch adäquat agierenden und reagierenden Chatbot, umgesetzt.

Abb.: Moralmenü für virtuelle Assistenten