Moral Competence for Social Robots

At the end of 2018, the article entitled „Learning How to Behave: Moral Competence for Social Robots“ by Bertram F. Malle and Matthias Scheutz was published in the „Handbuch Maschinenethik“ („Handbook Machine Ethics“) (ed.: Oliver Bendel). An excerpt from the abstract: „We describe a theoretical framework and recent research on one key aspect of robot ethics: the development and implementation of a robot’s moral competence.“ The authors propose „that moral competence consists of five elements, two constituents (moral norms and moral vocabulary) and three activities (moral judgment, moral action, and moral communication)“. „A robot’s computational representations of social and moral norms is a prerequisite for all three moral activities. However, merely programming in advance the vast network of human norms is impossible, so new computational learning algorithms are needed that allow robots to acquire and update the context-specific and graded norms relevant to their domain of deployment. Moral vocabulary is needed primarily for moral communication, which expresses moral judgments of others’ violations and explains one’s own moral violations – to justify them, apologize, or declare intentions to do better. Current robots have at best rudimentary moral competence, but with improved learning and reasoning they may begin to show the kinds of capacities that humans will expect of future social robots.“ (Abstract) An overview of the contributions that have been published electronically since 2017 can be found on link.springer.com/referencework/10.1007/978-3-658-17484-2.

Virtuelle Realität und maschinelle Moral

Seit ca. zehn Jahren werden moralische Maschinen intensiv erforscht. Auch autonome Autos waren früh im Fokus der zuständigen Disziplin, der Maschinenethik. 2012 wurde unter der Betreuung von Oliver Bendel eine Formel entwickelt, mit deren Hilfe autonome Autos in theoretischen Dilemmasituationen qualifizieren und quantifizieren können (Möglichkeiten, die er auf der TA-Konferenz in Prag Anfang 2013 kritisch diskutiert hat), später kamen Mittel wie annotierte Entscheidungsbäume hinzu. Forscher der Universität Osnabrück haben nun einen weiteren Ansatz vorgelegt, der autonome Autos als selbstlernende Systeme vorsieht. Josephine Lütke vom NDR fasst die Studie „Using Virtual Reality to Assess Ethical Decisions in Road Traffic Scenarios“ wie folgt zusammen: „Die Forscher haben eine Autofahrt auf einer Straße in der virtuellen Realität simuliert. Etwas mehr als 100 Probanden setzten sich eine spezielle Brille auf, die ihnen das Gefühl gab, tatsächlich Auto zu fahren.“ (Website NDR, 5. Juli 2017) Sie mussten nun – dies erinnert an die Moral Machine des MIT – in Dilemmasituationen entscheiden. „Mit diesen Ergebnissen der Versuche fütterten die Wissenschaftler dann einen Computer. Allerdings bekam die Maschine nicht alle Informationen. Etwa zehn Prozent der moralischen Entscheidungen, die die Menschen getroffen hatten, enthielten die Forscher der Maschine vor. Stattdessen musste der Computer die Versuche selbst machen. Und: Er hatte gelernt und entschied auch in den Fällen, die er noch nicht kannte, fast immer so, wie es auch die Menschen in den Versuchen gemacht hatten.“ (Website NDR, 5. Juli 2017) Weitere Informationen über www.ndr.de und journal.frontiersin.org.

Abb.: Virtuelle Realität und maschinelle Moral

Bremsen für Haus- oder für Wildtiere?

„Klett News Ethik und Philosophie“, der Newsletter des Schulbuchverlags, untersucht in der aktuellen Ausgabe (Mai 2017) „Die Moral in der Maschine“. Das Buch mit dem gleichlautenden Titel von Prof. Dr. Oliver Bendel kam 2016 bei Heise Medien heraus. Der Newsletter enthält Material aus diesem Buch und anderen Quellen, etwa aus dem Massachusetts Institute of Technology (MIT). Es wird vor allem auf autonomes Fahren aus Sicht der Maschinenethik eingegangen. Entstanden sind drei Arbeitsblätter für die Klassen 10 bis 12/13 und eine Unterrichtsidee zur „moral machine“ der Hochschule in Cambridge. Zudem sind Links – z.B. zu maschinenethik.net – und Literaturhinweise (etwa zur Kurzgeschichte „Sally“ von Isaac Asimov) enthalten. Im Vorwort spricht Dr. Peter Ley auch die Forschung von Oliver Bendel zu Maschinen und Tieren im Rahmen von Maschinenethik und Tierethik sowie der Mensch-Maschine-Interaktion an und skizziert ein spezielles Problem: „Was bedeutet es, wenn das Programm das Bremssystem für unsere geliebten Haustiere aktiviert, nicht aber für Fuchs und Hase?“ Weitere Informationen über www.klett.de.

Abb.: Schutz von Haus- oder von Wildtieren?