Kategorie: Maschinenethik

Das Moralmenü (MOME)

Die Maschinenethik bringt moralische und unmoralische Maschinen hervor. Die maschinelle Moral ist in der Regel festgelegt; es sind bestimmte Aktionen möglich, andere nicht. Ein alternativer Ansatz ist das Moralmenü. Über dieses überträgt der Besitzer oder Benutzer seine eigene Moral auf die Maschine. Diese agiert und reagiert so, wie er dies auch tun würde. Die Vorteile und Nachteile werden in dem Beitrag „Das Moralmenü: Moralische Maschinen mit einer Stellvertretermoral“ von Oliver Bendel diskutiert, veröffentlicht am 27. Januar 2019 in Telepolis. Telepolis, gegründet 1996, widmet sich seit Jahren immer wieder Roboterethik und Maschinenethik. Bei Heise Medien ist 2016 auch „Die Moral in der Maschine: Beiträge zu Roboter- und Maschinenethik“ von Oliver Bendel erschienen. Der Beitrag kann über www.heise.de/tp/features/Das-Moralmenue-4285297.html abgerufen werden.

Abb.: Soll der Saugroboter mit den Katzen spielen?

Podcast zur Maschinenethik

In seinem Vortrag „Die Entdeckung der Philosophie – ethische Dimensionen der Robotik“ am 9. Januar 2019 im Haus Huth am Potsdamer Platz in Berlin erklärte Prof. Dr. Oliver Bendel, wie man Roboterautos, Serviceroboter und Chatbots zu moralischen oder zu unmoralischen Maschinen machen kann. Der Vortrag fand vor vollbesetztem Haus statt und rief lebhafte Diskussionen hervor. Bei der Daimler und Benz Stiftung, die die Reihe verantwortet, ist nun ein Podcast zum Vortrag erschienen. Er kann hier abgerufen werden. Zur Vortragsreihe heißt es auf der Website: „Am Potsdamer Platz in Berlin lädt die Daimler und Benz Stiftung regelmäßig zur akademischen Debatte, die die rhetorische Form pflegt. So ist das inhaltliche Portfolio dieser offenen Veranstaltungsreihe im historischen Haus Huth weit gefächert: In Plädoyers, Lamenti, Antithesen oder anderen Formaten vertreten Wissenschaftler engagiert ihren Standpunkt und begründen ihn mit den Erkenntnissen ihrer Forschung.“ (Website Daimler und Benz Stiftung)

Über moralische und unmoralische Maschinen

„Moralische Maschinen sind mehr oder weniger autonome Systeme, die über moralische Fähigkeiten verfügen. Entwickelt werden sie von der Maschinenethik, einer Gestaltungsdisziplin im spezifischen Sinne. ‚Maschinelle Moral‘ ist ein Terminus technicus wie ‚künstliche Intelligenz‘. Man spielt auf ein Setting an, das Menschen haben, und man will Komponenten davon imitieren bzw. simulieren. So kann man etwa moralische Regeln adaptieren. Moralische und unmoralische Maschinen sind nicht gut oder böse, sie haben keinen freien Willen und kein Bewusstsein, keine Intuition und keine Empathie.“ So beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Es werden mehrere Beispiele für moralische Maschinen genannt, etwa spezifische Pflegeroboter und spezifische Chatbots. Am Ende heißt es: „Gerade bei komplexen moralischen Maschinen, die über Leben und Tod befinden sollen, ist Vorsicht angezeigt. Das autonome Auto könnte Menschen quantifizieren und qualifizieren, aber es gibt gute Gründe gegen den Versuch, ihm dies beizubringen.“ Der Beitrag ist Ende Januar 2019 erschienen und kann über wirtschaftslexikon.gabler.de/definition/moralische-maschinen-119940 aufgerufen werden.

Abb.: Autos sollten nicht über Leben und Tod von Menschen entscheiden

Diskussion über autonome Kampfroboter

Die Heinrich-Böll-Stiftung kündigt eine Veranstaltung zu autonomen Kampfrobotern an: „Künstliche Intelligenz (KI) ist das große Glücksversprechen des 21. Jahrhunderts und wird viele Lebensbereiche moderner Industriegesellschaften dramatisch verändern, von der Mobilität zur industriellen Fertigung oder der Krankenpflege. KI wird auch die Sicherheits- und Verteidigungspolitik verändern. Sie wird dazu führen, dass moderne Waffensysteme zunehmend autonom agieren und die menschlichen Eingriffsmöglichkeiten auf ein Minimum reduzieren.“ (Information HBS) Dies werfe, so die Stiftung, ethische Fragen auf, insbesondere dann, wenn zukünftig Kampfroboter ihre Ziele autonom auswählen und bekämpfen. „Doch wie realistisch ist dieses Szenario? Wieviel Autonomie steckt schon heute in modernen Waffensystemen und welche Entwicklungstendenzen zeichnen sich ab?“ (Information HBS) Diese Fragen will man mit Noel Sharkey, „einem führenden Experten für Ethik und Robotik“, einer Vertreterin des Auswärtigen Amtes und einem Mitglied des Bundestags diskutieren. Die Veranstaltung findet am 23. Januar 2019 von 19.00 bis 20.30 Uhr bei der Heinrich-Böll-Stiftung in Berlin statt.

Abb.: Der will nur spielen

Beitrag „Algorithmen, Daten und Ethik“

Im „Handbuch Maschinenethik“, seit 2016 von Prof. Dr. Oliver Bendel herausgegeben, ist der 16. Beitrag erschienen, mit dem Titel „Algorithmen, Daten und Ethik: Ein Beitrag zur Papiermaschinenethik“ … Der Autor ist Dr. Stefan Ullrich, Forschungsgruppenleiter am Weizenbaum-Institut für die vernetzte Gesellschaft. Aus dem Abstract: „Die informationstechnischen Realisierungen von Algorithmen sind längst in alle Lebensbereiche des modernen Menschen vorgedrungen. Algorithmen werden als Allheilmittel angepriesen oder als Hauptschuldige der ‚Digitalen Unmündigkeit‘ gesehen. Zunächst werden wir Algorithmen ganz ohne Digitaltechnik betrachten, also auf bestimmte Arten von Texten eingehen, die auf den menschlichen Geist eine Art Zwang ausüben, die so genannten Paper Machine Codes. Die Betrachtungen zur Ethik der Algorithmen wird mit einer ethischen Betrachtung der (Eingabe-)Daten verbunden, besonderes Augenmerk liegt auf der Signatur einer Person. Es folgen dann Ausführungen zu Geistesmaschinen und nutzlosen Maschinen, um mit einem Ausblick auf die Bedingungen zur Möglichkeit der Mündigkeit im Zeitalter der Internet of Things zu schließen.“ Alle Beiträge sind über link.springer.com/referencework/10.1007/978-3-658-17484-2 verfügbar.

Abb.: Algorithmen, Daten und Ethik

Moral Competence for Social Robots

At the end of 2018, the article entitled „Learning How to Behave: Moral Competence for Social Robots“ by Bertram F. Malle and Matthias Scheutz was published in the „Handbuch Maschinenethik“ („Handbook Machine Ethics“) (ed.: Oliver Bendel). An excerpt from the abstract: „We describe a theoretical framework and recent research on one key aspect of robot ethics: the development and implementation of a robot’s moral competence.“ The authors propose „that moral competence consists of five elements, two constituents (moral norms and moral vocabulary) and three activities (moral judgment, moral action, and moral communication)“. „A robot’s computational representations of social and moral norms is a prerequisite for all three moral activities. However, merely programming in advance the vast network of human norms is impossible, so new computational learning algorithms are needed that allow robots to acquire and update the context-specific and graded norms relevant to their domain of deployment. Moral vocabulary is needed primarily for moral communication, which expresses moral judgments of others’ violations and explains one’s own moral violations – to justify them, apologize, or declare intentions to do better. Current robots have at best rudimentary moral competence, but with improved learning and reasoning they may begin to show the kinds of capacities that humans will expect of future social robots.“ (Abstract) An overview of the contributions that have been published electronically since 2017 can be found on link.springer.com/referencework/10.1007/978-3-658-17484-2.

Ein Chatbot mit Gesichtserkennung

Der BESTBOT ist eine unmoralische Maschine in einer moralischen. Er ähnelt einer Matrjoschka, der Holzpuppe, in der weitere Holzpuppen stecken. Dies betonte Oliver Bendel in einem Gespräch mit dem Tages-Anzeiger. In die offene Welt würde er den Chatbot deshalb nicht entlassen. Dieser bleibt im Labor der Maschinenethik. Der BESTBOT wurde 2018 an der Hochschule für Wirtschaft FHNW entwickelt. Bereits im März 2018 stellte der Informations- und Maschinenethiker im Rahmen der AAAI Spring Symposia sein Paper „From GOODBOT to BESTBOT“ vor, das die Grundlage für das Projekt legte. David Studer programmierte den Chatbot in Java. Der BESTBOT ist ein vernetztes System, das Suchmaschinen und Lexika benutzt. Er analysiert die Texteingaben des Benutzers mit textbasierter Emotionserkennungssoftware. Zugleich wird Gesichtserkennung eingesetzt, wiederum mit Emotionserkennung. Wenn der Benutzer zum Beispiel angibt, dass es ihm gut geht, sein Gesicht aber anderes verrät, spricht der Chatbot diesen Widerspruch an. Dieser erkennt sowohl kleine als auch große Sorgen. Dies ist ohne Zweifel von hohem Nutzen, gerade wenn der Benutzer sich etwas antun will. Zugleich kann Gesichtserkennung, vor allem im Zusammenhang mit Emotionserkennung, hochproblematisch sein. Oliver Bendel rät davon ab, solche Systeme bei der automatisierten Kommunikation und im öffentlichen Raum einzusetzen. Der ganzseitige Artikel im Tages-Anzeiger zum BESTBOT ist am 12. Dezember 2018 erschienen und kann hier heruntergeladen werden.

Abb.: Was erkennt der Chatbot im Gesicht?

Der Roboter entdeckt die Philosophie

Die Ideen- und Entwicklungsgeschichte ist reich an künstlichen Kreaturen. Mythos und Fiktion bringen Pandora und Talos hervor, die Geschöpfe des Hephaistos, die Automatenmenschen des Daidalos, die Skulptur des Pygmalion, die eiserne Jungfrau des Nabis. Die Realität war zunächst verbunden mit der Illusion. Von ca. 1500 bis 1850 wurden tier- und menschenähnliche (Pseudo-)Automaten erdacht bzw. vorgeführt, die körnerschluckende Ente, die kunstvollen Androiden, der doppelbödige Schachtürke. Dann, nach weiteren 150 Jahren, streifte die Realität die Illusion mehr und mehr ab, wobei sie die Simulation in den meisten Fällen bei sich behielt. Es werden Systeme und Roboter erschaffen, die den Menschen nicht nur zum Verwechseln ähnlich sehen, sondern sogar, auch mit Hilfe künstlicher Intelligenz, selbst Optionen wählen und Aktionen ausführen, unter Umständen mit weitreichenden Folgen. Sie werden von sozialer Robotik und Maschinenethik gezähmt, dressiert, zivilisiert und moralisiert. Auch tierähnliche und dinghafte Artefakte scheinen plötzlich Eigenschaften zu haben, die man bisher Menschen zugeschrieben hat. Oliver Bendel wird in seinem Vortrag am 9. Januar 2019 im Haus Huth in Berlin erklären, was Roboterphilosophie und Roboterethik und was soziale Robotik und Maschinenethik sind. Er wird darstellen, wie man Entwickler und ihre Geschöpfe für die Philosophie gewinnt und wie man Roboterautos, Serviceroboter und Chatbots zu moralischen und unmoralischen Maschinen machen kann. Und wie man dabei in manchen Fällen die Büchse der Pandora öffnet. Weitere Informationen über die Website der Daimler und Benz Stiftung.

Abb.: Die Philosophie entdeckt den Roboter

Roboethics as Topical Issue in Paladyn Journal

In 2018, Paladyn Journal of Behavioral Robotics published several articles on robot and machine ethics. In a message to the authors, the editors noted: „Our special attention in recent months has been paid to ethical and moral issues that seem to be of daily debate of researchers from different disciplines.“ The current issue „Roboethics“ includes the articles „Towards animal-friendly machines“ by Oliver Bendel, „Liability for autonomous and artificially intelligent robots“ by Woodrow Barfield, „Corporantia: Is moral consciousness above individual brains/robots?“ by Christopher Charles Santos-Lang, „The soldier’s tolerance for autonomous systems“ by Jai Galliott and „GenEth: a general ethical dilemma analyzer“ by Michael Anderson and Susan Leigh Anderson. The following articles will be published in December 2019: „Autonomy in surgical robots and its meaningful human control“ by Fanny Ficuciello, Guglielmo Tamburrini, Alberto Arezzo, Luigi Villani, and Bruno Siciliano, and „AI for the Common Good?! Pitfalls, challenges, and Ethics Pen-Testing“ by Bettina Berendt. More information via www.degruyter.com/page/1498.

Fig.: Machines can be friendly to beetles

Moralische Maschinen mit maschinellem Lernen

Michael und Susan Leigh Anderson stellen beim Berliner Kolloquium 2019 ihre neuesten Ergebnisse aus der Disziplin der Maschinenethik vor. Üblicherweise werden sogenannten moralischen Maschinen starre Regeln gegeben, an die sie sich sozusagen sklavisch halten. Dies hat einige Vorteile, aber auch ein paar Nachteile, denen man mit Hilfe von maschinellem Lernen entgegentreten kann. Genau diesen Ansatz haben die Andersons zusammen mit einem Forscher vom Max-Planck-Institut für Intelligente Systeme verfolgt, wobei die Altenpflege als Kontext diente: „Contrary to those who regard such a goal as unattainable, Michael and Susan Leigh Anderson … and Vincent Berenz … have succeeded in programming a SoftBank Nao robot with a set of values that determines its behavior while aiding a person in a simulated eldercare environment. This unprecedented accomplishment uses machine learning to enable the robot to discern how each of its actions would satisfy or violate its ethical duties in the current situation and decide the best action to take.“ (Machine Ethics) Die Ergebnisse werden 2019 in den Proceedings of the IEEE publiziert. Der wissenschaftliche Leiter des 23. Berliner Kolloquiums zu Pflegerobotern ist Oliver Bendel. Die Anmeldung erfolgt über die Website der Daimler und Benz Stiftung.

Abb.: Ein Nao-Roboter (Foto: SoftBank/Philippe Dureuil, CC-BY-SA-4.0)