Kategorie: Roboterphilosophie

Über Mitsuku und Co.

„Chatbots unterhalten sich mit Menschen und unterhalten sie, sie beraten Kunden und Interessenten auf Websites und in Instant-Messaging-Systemen, sie rufen hilfreiche Ressourcen auf und geben dazu Erläuterungen. Ihr Erfolg erklärt sich vor allem durch ihre natürlichsprachlichen Fähigkeiten und ihre Konstruktion als hilfreiches, sachkundiges oder lustiges Gegenüber. Der Beitrag erklärt, was Chatbots und Sprachassistenten sind, nennt Vor- und Nachteile ihres Einsatzes und stellt Produkte für die Kundenkommunikation und den Unterhaltungsbereich vor. Zudem geht er auf Projekte der Maschinenethik ein. Die meisten Chatbots verhalten sich nicht adäquat, wenn der Benutzer ihnen gegenüber Sorgen äußert. Moralische Maschinen als Dialogsysteme können eine Lösung sein.“ So der Abstract des Beitrags „Von Cor@ bis Mitsuku: Chatbots in der Kundenkommunikation und im Unterhaltungsbereich“ von Oliver Bendel, erschienen im Mai 2019 im „Handbuch Digitale Wirtschaft“ (Herausgeber: Tobias Kollmann). Er ist verfügbar auf SpringerLink.

Abb.: Viele Chatbots haben ein weibliches Vorbild

Das Moralmenü (MOME)

Die Maschinenethik bringt moralische und unmoralische Maschinen hervor. Die maschinelle Moral ist in der Regel festgelegt; es sind bestimmte Aktionen möglich, andere nicht. Ein alternativer Ansatz ist das Moralmenü. Über dieses überträgt der Besitzer oder Benutzer seine eigene Moral auf die Maschine. Diese agiert und reagiert so, wie er dies auch tun würde. Die Vorteile und Nachteile werden in dem Beitrag „Das Moralmenü: Moralische Maschinen mit einer Stellvertretermoral“ von Oliver Bendel diskutiert, veröffentlicht am 27. Januar 2019 in Telepolis. Telepolis, gegründet 1996, widmet sich seit Jahren immer wieder Roboterethik und Maschinenethik. Bei Heise Medien ist 2016 auch „Die Moral in der Maschine: Beiträge zu Roboter- und Maschinenethik“ von Oliver Bendel erschienen. Der Beitrag kann über www.heise.de/tp/features/Das-Moralmenue-4285297.html abgerufen werden.

Abb.: Soll der Saugroboter mit den Katzen spielen?

Politik informiert sich über Pflegeroboter

Im Deutschen Bundestag widmet man sich am 20. Februar 2019 den Chancen und Risiken von Pflegerobotern. Robotikerin Dr. Birgit Graf spricht über „Potenziale und Grenzen der Robotik für die Pflege – Stand der Technik und Anwendung, Herausforderungen für Forschung und Entwicklung“, Pflegewissenschaftler Prof. Dr. Manfred Hülsken-Giesler nimmt eine „Einordnung und Bewertung aus Sicht der Pflegewissenschaft“ vor. „Ethisch-normative Herausforderungen der Pflegerobotik“ ist der Titel des Vortrags von Prof. Dr. Oliver Bendel, Informations- und Maschinenethiker. Daneben gibt es Kommentare aus der Perspektive der Technikfolgenabschätzung (Dr. Bettina-Johanna Krings, KIT/ITAS), der Forschungsförderung (Christine Weiß, VDI/VDE-IT), der Pflegeträger (Alexander Huhn, Caritas-Zentrum Garmisch-Partenkirchen) und der Pflegekräfte (Peter Tackenberg, Deutscher Berufsverband für Pflegeberufe (DBfK)). Die Einführung wird Dr. Christoph Kehl vom Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) halten. Das Programm kann hier heruntergeladen werden.

Abb.: Das Brandenburger Tor

Der rote Kaugummiautomat deutscher Dörfer

„Automaten gibt es seit tausenden Jahren, von den dampfbetriebenen Altären der Antike über die Androiden im Spätbarock (Musikerin, Schreiber und Zeichner) bis hin zu modernen Maschinen.“ So beginnt ein Beitrag von Oliver Bendel für das Gabler Wirtschaftslexikon. Es werden mehrere Beispiele gegeben: „Automaten verrichten selbstständig eine bestimmte Tätigkeit, etwa das Zubereiten und Ausgeben von Kaffee (Kaffeeautomat), das Auswerfen von Zigaretten (Zigarettenautomat) oder das Anzeigen der Zeit (Uhr). Manche sind rein mechanisch, wie der rote Kaugummiautomat deutscher Dörfer und Städte, andere elektronisch und vernetzt.“ Und Abgrenzungen – wie zu Robotern – vorgenommen. Am Ende kommt die Ethik zu Wort: „Wirtschafts-, Technik- und Informationsethik widmen sich den Herausforderungen, die sich durch Automaten und Automation ergeben, sei es in Bezug auf die Ersetzung von Mitarbeitenden, sei es in Bezug auf die Möglichkeit der Gefährdung, Verletzung und Überwachung. Die genannten Bereichsethiken betrachten ebenso den Beitrag von Automaten und Automation zu einem guten Leben, nicht zuletzt vor dem Hintergrund, dass Arbeit idealisiert und ideologisiert wird.“ Der Beitrag ist im Januar 2019 erschienen und kann über wirtschaftslexikon.gabler.de/definition/automat-119939 aufgerufen werden.

Abb.: Ein roter Kaugummiautomat

Podcast zur Maschinenethik

In seinem Vortrag „Die Entdeckung der Philosophie – ethische Dimensionen der Robotik“ am 9. Januar 2019 im Haus Huth am Potsdamer Platz in Berlin erklärte Prof. Dr. Oliver Bendel, wie man Roboterautos, Serviceroboter und Chatbots zu moralischen oder zu unmoralischen Maschinen machen kann. Der Vortrag fand vor vollbesetztem Haus statt und rief lebhafte Diskussionen hervor. Bei der Daimler und Benz Stiftung, die die Reihe verantwortet, ist nun ein Podcast zum Vortrag erschienen. Er kann hier abgerufen werden. Zur Vortragsreihe heißt es auf der Website: „Am Potsdamer Platz in Berlin lädt die Daimler und Benz Stiftung regelmäßig zur akademischen Debatte, die die rhetorische Form pflegt. So ist das inhaltliche Portfolio dieser offenen Veranstaltungsreihe im historischen Haus Huth weit gefächert: In Plädoyers, Lamenti, Antithesen oder anderen Formaten vertreten Wissenschaftler engagiert ihren Standpunkt und begründen ihn mit den Erkenntnissen ihrer Forschung.“ (Website Daimler und Benz Stiftung)

Über moralische und unmoralische Maschinen

„Moralische Maschinen sind mehr oder weniger autonome Systeme, die über moralische Fähigkeiten verfügen. Entwickelt werden sie von der Maschinenethik, einer Gestaltungsdisziplin im spezifischen Sinne. ‚Maschinelle Moral‘ ist ein Terminus technicus wie ‚künstliche Intelligenz‘. Man spielt auf ein Setting an, das Menschen haben, und man will Komponenten davon imitieren bzw. simulieren. So kann man etwa moralische Regeln adaptieren. Moralische und unmoralische Maschinen sind nicht gut oder böse, sie haben keinen freien Willen und kein Bewusstsein, keine Intuition und keine Empathie.“ So beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Es werden mehrere Beispiele für moralische Maschinen genannt, etwa spezifische Pflegeroboter und spezifische Chatbots. Am Ende heißt es: „Gerade bei komplexen moralischen Maschinen, die über Leben und Tod befinden sollen, ist Vorsicht angezeigt. Das autonome Auto könnte Menschen quantifizieren und qualifizieren, aber es gibt gute Gründe gegen den Versuch, ihm dies beizubringen.“ Der Beitrag ist Ende Januar 2019 erschienen und kann über wirtschaftslexikon.gabler.de/definition/moralische-maschinen-119940 aufgerufen werden.

Abb.: Autos sollten nicht über Leben und Tod von Menschen entscheiden

Robots and Rights

Robots have no rights from a philosophical and ethical point of view and cannot currently get any rights. You only have such rights if you can feel or suffer, if you have a consciousness or a will to live. Accordingly, animals can have certain rights, stones cannot. Only human beings have human rights. Certain animals can be granted basic rights, such as chimpanzees or gorillas. But to grant these animals human rights makes no sense. They are not human beings. If one day robots can feel or suffer, if they have a consciousness or a will to live, they must be granted rights. However, Oliver Bendel does not see any way to get there at the moment. According to him, one could at best develop „reverse cyborgs“, i.e. let brain and nerve cells grow on technical structures (or in a robot). Such reverse or inverted cyborgs might at some point feel something. The newspaper Daily Star dealt with this topic on 28 December 2018. The article can be accessed via www.dailystar.co.uk/news/latest-news/748890/robots-ai-human-rights-legal-status-eu-proposal.

Fig.: A human brain could be part of a reverse cyborg

Ein Chatbot mit Gesichtserkennung

Der BESTBOT ist eine unmoralische Maschine in einer moralischen. Er ähnelt einer Matrjoschka, der Holzpuppe, in der weitere Holzpuppen stecken. Dies betonte Oliver Bendel in einem Gespräch mit dem Tages-Anzeiger. In die offene Welt würde er den Chatbot deshalb nicht entlassen. Dieser bleibt im Labor der Maschinenethik. Der BESTBOT wurde 2018 an der Hochschule für Wirtschaft FHNW entwickelt. Bereits im März 2018 stellte der Informations- und Maschinenethiker im Rahmen der AAAI Spring Symposia sein Paper „From GOODBOT to BESTBOT“ vor, das die Grundlage für das Projekt legte. David Studer programmierte den Chatbot in Java. Der BESTBOT ist ein vernetztes System, das Suchmaschinen und Lexika benutzt. Er analysiert die Texteingaben des Benutzers mit textbasierter Emotionserkennungssoftware. Zugleich wird Gesichtserkennung eingesetzt, wiederum mit Emotionserkennung. Wenn der Benutzer zum Beispiel angibt, dass es ihm gut geht, sein Gesicht aber anderes verrät, spricht der Chatbot diesen Widerspruch an. Dieser erkennt sowohl kleine als auch große Sorgen. Dies ist ohne Zweifel von hohem Nutzen, gerade wenn der Benutzer sich etwas antun will. Zugleich kann Gesichtserkennung, vor allem im Zusammenhang mit Emotionserkennung, hochproblematisch sein. Oliver Bendel rät davon ab, solche Systeme bei der automatisierten Kommunikation und im öffentlichen Raum einzusetzen. Der ganzseitige Artikel im Tages-Anzeiger zum BESTBOT ist am 12. Dezember 2018 erschienen und kann hier heruntergeladen werden.

Abb.: Was erkennt der Chatbot im Gesicht?

Zu Grundeinkommen und -eigentum

Die Studien zur Arbeitsmarktentwicklung ab 2020 gelangen zu unterschiedlichen Ergebnissen. Man kann aber auf jeden Fall sagen, dass bestimmte Arbeitsplätze wegfallen und viele Menschen ohne ihre vertraute Arbeit sein werden. Es ist auch anzunehmen, dass insgesamt weniger menschliche Arbeit im Auftrag (etwa für Arbeitgeber) verrichtet werden muss. Als Lösungen der wirtschaftlichen und sozialen Probleme werden oft bedingungsloses Grundeinkommen und Robotersteuer genannt. Der Beitrag „Are Robot Tax, Basic Income or Basic Property Solutions to the Social Problems of Automation?“ von Oliver Bendel diskutiert und kritisiert diese Ansätze im Kontext von Automatisierung und Digitalisierung. Zudem entwickelt er einen weitgehend unbekannten Vorschlag, das bedingungslose Grundeigentum, weiter und stellt dessen Potenziale ebenso dar wie dessen Risiken. Der Informations- und Maschinenethiker aus Zürich präsentiert seine Ergebnisse zwischen dem 25. und 27. März 2019 bei den AAAI Spring Symposia. Es ist sein sechster Vortrag an der Stanford University innerhalb von vier Jahren.

Abb.: Klein, aber mein

Moralische Maschinen mit maschinellem Lernen

Michael und Susan Leigh Anderson stellen beim Berliner Kolloquium 2019 ihre neuesten Ergebnisse aus der Disziplin der Maschinenethik vor. Üblicherweise werden sogenannten moralischen Maschinen starre Regeln gegeben, an die sie sich sozusagen sklavisch halten. Dies hat einige Vorteile, aber auch ein paar Nachteile, denen man mit Hilfe von maschinellem Lernen entgegentreten kann. Genau diesen Ansatz haben die Andersons zusammen mit einem Forscher vom Max-Planck-Institut für Intelligente Systeme verfolgt, wobei die Altenpflege als Kontext diente: „Contrary to those who regard such a goal as unattainable, Michael and Susan Leigh Anderson … and Vincent Berenz … have succeeded in programming a SoftBank Nao robot with a set of values that determines its behavior while aiding a person in a simulated eldercare environment. This unprecedented accomplishment uses machine learning to enable the robot to discern how each of its actions would satisfy or violate its ethical duties in the current situation and decide the best action to take.“ (Machine Ethics) Die Ergebnisse werden 2019 in den Proceedings of the IEEE publiziert. Der wissenschaftliche Leiter des 23. Berliner Kolloquiums zu Pflegerobotern ist Oliver Bendel. Die Anmeldung erfolgt über die Website der Daimler und Benz Stiftung.

Abb.: Ein Nao-Roboter (Foto: SoftBank/Philippe Dureuil, CC-BY-SA-4.0)