Kategorie: Roboterethik

Beiträge im „Handbuch Maschinenethik“

Seit Ende 2016 sitzen renommierte Wissenschaftlerinnen und Wissenschaftler an Beiträgen für das „Handbuch Maschinenethik“ von Springer. Ende 2018 soll das gedruckte Werk erscheinen. Herausgeber ist der Informations- und Maschinenethiker und Roboterphilosoph Oliver Bendel. Die ersten Beiträge wurden im Frühjahr 2018 in elektronischer Form publiziert. Mit dabei sind etwa Luís Moniz Pereira, einer der bekanntesten Maschinenethiker der Welt, und Roboterethikerin Janina Loh, die mit Mark Coeckelbergh zusammenarbeitet. Ein Beitrag der Stuttgarter Philosophin Catrin Misselhorn, die ebenfalls einen hervorragenden Ruf in der Disziplin hat, kommt in wenigen Tagen heraus. In ein paar Monaten folgen Julian Nida-Rümelin und Eric Hilgendorf, um nur zwei weitere Namen zu nennen. Der Philosoph war einst Kulturstaatsminister, und der Roboterrechtler fehlt bei kaum einer Debatte über autonome Autos und künstliche Intelligenz. Eine Übersicht über die Beiträge, die laufend elektronisch veröffentlicht werden, findet sich über link.springer.com/referencework/10.1007/978-3-658-17484-2 … Oliver Bendel wird selbst mit sechs Beiträgen vertreten sein, vor allem zu Artefakten der Maschinenethik, also zu konkreten Umsetzungen. Er hat sich in mehreren Büchern und in über 100 Artikeln und Buchbeiträgen der Maschinenethik gewidmet.

Abb.: Maschinen kommen ins Grübeln

Die Industrie wird uns nicht sterben lassen

In der SonntagsZeitung vom 20. Mai 2018 ist ein umfangreiches Interview mit Oliver Bendel erschienen, nebst Informationen zu einer Robotik- und KI-Konferenz, die unlängst in Stuttgart am Fraunhofer IPA stattfand. Der Beitrag von Joachim Laukenmann mit dem Titel „Die Industrie wird uns nicht sterben lassen, denn wir sollen ihre Produkte kaufen“ kann hier heruntergeladen werden. Im Interview geht es vor allem um Kooperations- und Kollaborationsroboter, auch Co-Robots oder Cobots genannt, aus Sicht der Ethik. Oliver Bendel erklärte im Wirtschaftslexikon von Gabler Springer: „Kooperations- und Kollaborationsroboter sind moderne Industrieroboter, die mit uns Schritt für Schritt an einem gemeinsamen Ziel (Kooperationsroboter) bzw. Hand in Hand an einer gemeinsamen Aufgabe arbeiten, wobei wiederum ein bestimmtes Ziel gegeben ist (Kollaborationsroboter). Sie nutzen dabei ihre mechanischen und sensorischen Fähigkeiten und treffen Entscheidungen mit Blick auf Produkte und Prozesse im Unternehmen bzw. in der Einrichtung.“ Am Ende des Interviews äußert Oliver Bendel auch Kapitalismuskritik. Er ist für eine Reichensteuer und für ein bedingungsloses Grundeinkommen. Die Robotersteuer muss nach seiner Ansicht diskutiert werden, hat aber mehr Nach- als Vorteile.

Abb.: Eine Maschine

Der falsche Zwilling

„Die Mängelmaschine“ ist der Titel eines Beitrags auf Ö1, ausgestrahlt am 14. Mai 2018. Zu Wort kommen Hiroshi Ishiguro, Mark Coeckelbergh, Janina Loh und Oliver Bendel. Der japanische Robotiker hat einen Doppelgänger geschaffen: „Der Roboter Geminoid sieht genauso aus wie sein Schöpfer – und vertritt ihn bisweilen sogar bei Vorlesungen. Für Ishiguro ist sein künstlicher Klon eine Person, eine nicht ganz perfekte und liebenswerte Kopie seiner selbst. Aber die Frage ist für ihn nicht besonders wichtig.“ (Website Ö1) Denn, so wird Ishiguro zitiert: „Warum müssen wir zwischen Menschen und Maschinen unterscheiden? Der Mensch ist ein Tier, das sich der Technologie bedient. Ohne Maschinen wären wir bloß Affen – und unfähig in dieser Welt zu überleben.“ (Website Ö1) Es gibt viele Gründe, zwischen Menschen und Maschinen zu unterscheiden. Einer davon: Während wir empfinden und leiden und glücklich sind, tun die Maschinen dies nicht. Und das ist eine gewaltige Differenz mit gewaltigen Implikationen: Wir müssen Menschen und Maschinen völlig unterschiedlich behandeln. Man kann von einem Mangel sprechen, den auch der Zwilling von Ishiguro aufweist: „Forscher/innen aus dem Westen … halten Geminoid für nicht mehr als eine aufwändig gestaltete Puppe.“ (Website Ö1)

Abb.: Der falsche Zwilling

Ich bin nur eine Maschine

Die Anrufe von Google Duplex haben in den Medien ein enormes Echo ausgelöst. Immer wieder wird nun die Forderung erhoben, dass die Maschine beim Chat oder Gespräch sagt, dass sie nur eine Maschine ist. Google hat bereits beteuert, dass Google Assistant genau dies tun wird. Oliver Bendel entwickelte 2013 mit seinen Studierenden den GOODBOT, einen moralisch adäquat agierenden und reagierenden Chatbot. Vorbereitend hatte er sieben Metaregeln in der schweizerischen Unternehmerzeitung veröffentlicht. Die erste lautete, dass der Chatbot dem Benutzer klarmachen soll, dass er eine Maschine ist, eine andere, dass er nicht lügen soll. Das PDF kann hier heruntergeladen werden. Die Metaregeln wurden auf den GOODBOT dann tatsächlich angewandt. Der Prototyp war Thema auf mehreren Konferenzen und in mehreren Artikeln. Im Sommer 2018 wird ihm ein ausführlicher Beitrag gewidmet, im „Handbuch Maschinenethik“, das von Oliver Bendel für Springer herausgegeben wird und in gedruckter Form Ende des Jahres erscheint. Vor kurzem hat er auch die Idee des Moralmenüs auf Google Assistant übertragen und einen Regelkatalog für Chatbots und Sprachassistenten veröffentlicht.

Abb.: Ich bin nur eine Maschine

Moralmenü für Sprachassistenten

Im Kontext des LADYBIRD-Projekts (2014/2017) wurde ein Menü vorgeschlagen, mit welchem der Benutzer die Moral des Staubsaugerroboters einstellen kann. Dieser verschont, wie der Name andeutet, Marienkäfer. Auch Spinnen sollte er am Leben lassen. Wer aber zum Beispiel partout bestimmte Insekten einsaugen lassen will, könnte dies über ein Menü festlegen. Wichtig ist, dass LADYBIRD insgesamt tierfreundlich bleibt und sich nicht ins Gegenteil verkehrt (und Marienkäfer sind auf jeden Fall tabu). Über das Menü wird eine Stellvertretermoral entwickelt. Der Staubsaugerroboter macht das, was der Besitzer auch machen würde. Andere Maschinen wie Sprachassistenten bzw. virtuelle Assistenten haben in der Regel keine grundsätzliche moralische Ausrichtung, eignen sich aber ebenso für den Einsatz eines Moralmenüs. Google Assistant soll in Zukunft mit Hilfe der Audiofunktion alle möglichen Reservierungen vornehmen (das Projekt wird Duplex genannt). Damit automatisiert er Vorgänge, die privaten und sozialen Charakter haben. Viele Benutzer werden es schätzen, wenn der Telefonassistent die eigenen Wertvorstellungen vertritt, da er ja in ihrem Namen bzw. Auftrag spricht. Die Designstudie MOME stellt ein Moralmenü beispielhaft für virtuelle Assistenten dieser Art vor. Die erste Option lautet: „Ich sage, dass ich eine Maschine bin.“ Eine solche Funktion war schon beim GOODBOT von 2013, einem moralisch adäquat agierenden und reagierenden Chatbot, umgesetzt.

Abb.: Moralmenü für virtuelle Assistenten

Bücher zu Informations- und Maschinenethik

In der neuen iX (5/2018) werden zwei Bücher zur Ethik empfohlen, „300 Keywords Informationsethik: Grundwissen aus Computer-, Netz- und Neue-Medien-Ethik sowie Maschinenethik“ von Oliver Bendel, einem „Vordenker der Roboterethik“, wie es im Text heißt, und „3TH1CS“, herausgegeben von Philipp Otto und Eike Gräf. Zum erstgenannten resümiert Ariane Rüdiger, es beschreibe „kurz und leicht verständlich, manchmal auch amüsant, alphabetisch geordnet und oft garniert mit praktischen, greifbaren Beispielen, was bestimmte informationsethische Begriffe in der Fachdiskussion genau bedeuten“. „Das reicht von Roboterethik bis zur informationellen Notwehr und von virtueller Realität bis zu Social-Media-Richtlinien. Bendel macht nicht den Fehler, seine Auffassungen zu bestimmten ethischen Fragen als allgemeinverbindlich zu erklären, sondern erwähnt stets auch abweichende Meinungen, was das broschierte Buch zu einer guten Grundlage für Diskussionen macht. Dazu trägt auch der übersichtliche Umfang bei.“ (iX, 5/2018) „3TH1CS“ enthält u.a. Beiträge von Luciano Floridi („Die Mangroven-Gesellschaft“), Oliver Bendel („Sexroboter und Robotersex aus Sicht der Ethik“) und Susan L. und Michael Anderson („Ethische Roboter für die Altenpflege“). Laut Rüdiger „eine interessante, vielseitige und teilweise durchaus unterhaltsame Lektüre“ (iX, 5/2018).

CIMON will ins All

Eine fliegende Alexa hat ihn der SPIEGEL etwas despektierlich genannt. Gemeint ist CIMON, ein autonomer, mit künstlicher Intelligenz verbundener Weltraumroboter, der demnächst im Columbus-Modul der ISS zum Einsatz kommen soll. Entwickelt hat ihn das Deutsche Zentrum für Luft- und Raumfahrt (DLR). „CIMON kann sehen, hören, verstehen, sprechen – und fliegen. Er ist rund, hat einen Durchmesser von 32 Zentimetern und wiegt fünf Kilogramm.“ (Website DLR) Sein Vorbild war nicht Alexa, sondern vielmehr, so der DLR auf seiner Website, Professor Simon Wright aus der 80er-Jahre-Zeichentrickserie „Captain Future“, ein „fliegendes Gehirn“ mit Sensoren, Kameras und einem Sprachprozessor. Mit Hilfe von 14 internen Ventilatoren kann sich CIMON frei in alle Raumrichtungen bewegen und rotieren. Er kann sich laut DLR dem Astronauten zuwenden, wenn er angesprochen wird, und ihm selbstständig oder auf sein Kommando hin folgen. Auch im Unterschied zu Alexa hat CIMON ein Gesicht, zu sehen auf dem Display an der abgeflachten Seite. Damit kann er freundlich und bestimmt auch zuversichtlich schauen. Ob er auch moralische Fähigkeiten hat, ist nicht bekannt. Weitere Informationen über www.dlr.de.

Abb.: Professor Simon Wright war ein fliegendes Gehirn

Haben Roboter Gefühle?

Können Roboter bald selbstständig Gefühle wie Hass oder Liebe entwickeln? Dies hat der WDR im April 2018 den Informations- und Maschinenethiker Oliver Bendel gefragt. Der Kontext war die Angst, die wir vor Maschinen haben oder haben können. Er antwortete: Maschinen werden solche Gefühle meines Erachtens nicht entwickeln können, da diese biologisch-chemische und genetisch-hormonelle Grundlagen brauchen. Die Vorstellung, dass sie solche Gefühle haben, kann natürlich Angst machen. Und emotionale Roboter wie Pepper zeigen Gefühle – aber haben eben keine. Eine wichtige Frage ist, ob sie überhaupt Gefühle zeigen sollen. Und ob sie uns weismachen sollen, dass sie Menschen oder ähnlich wie Menschen sind.“ Uns ist in Europa die Angst vor künstlichen Kreaturen gleichsam eingepflanzt. Diese dachten wir uns bereits vor tausenden Jahren aus. Bei Homer und Ovid finden sich Schreckensgestalten wie Talos und Pandora, wobei die künstliche Frau in der Literatur einige Wandlungen erlebt hat. Später ging es ähnlich weiter, mit der Eisernen Jungfrau, dem Golem, Frankensteins Monster. Auch Ausnahmen gibt es, bereits in der Antike, wie Galatea, von Pygmalion erschaffen und von Aphrodite zum Leben erweckt. Das Interview kann über www1.wdr.de/wissen/technik/roboter-maschinenethik-interview-100.html nachgelesen werden.

Abb.: Haben Roboter Gefühle?

Technical Reports von „AI and Society“

Die Technical Reports des AAAI 2018 Spring Symposium „AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ sind Ende April 2018 erschienen. Zum Download stehen u.a. bereit „From GOODBOT to BESTBOT“ (Oliver Bendel), „The Uncanny Return of Physiognomy“ (Oliver Bendel), „The Heart of the Matter: Patient Autonomy as a Model for the Wellbeing of Technology Users“ (Emanuelle Burton et al.), „Trustworthiness and Safety for Intelligent Ethical Logical Agents via Interval Temporal Logic and Runtime Self-Checking“ (Stefania Costantin et al.), „Ethical Considerations for AI Researchers“ (Kyle Dent), „Interactive Agent that Understands the User“ (Piotr Gmytrasiewicz et al.), „Toward Beneficial Human-Level AI … and Beyond“ (Philip C. Jackson Jr.), „Towards Provably Moral AI Agents in Bottom-Up Learning Frameworks“ (Nolan P. Shaw et al.), „An Architecture for a Military AI System with Ethical Rules“ (Yetian Wang et al.) und „Architecting a Human-Like Emotion-Driven Conscious Moral Mind for Value Alignment and AGI Safety“ (Mark R. Waser et al.). Das Symposium fand vom 26. bis zum 28. März 2018 an der Stanford University statt. Für die Maschinenethik wie auch für Informationsethik und Roboterethik ist die Konferenzreihe seit Jahren eine der wichtigsten Plattformen weltweit.

Abb.: Was tun gegen bestimmte Formen der Gesichtserkennung?

Sollen Roboter haften?

Haben Roboter Rechte bzw. soll man sie mit Rechten ausstatten? Die eine Frage ist ethisch, die andere rechtlich deutbar. Oliver Bendel hält als Ethiker nichts von Rechten für Roboter. Dies können weder empfinden noch leiden, sie haben kein Bewusstsein, sie sind keine echten Personen, aber auch keine echten Lebewesen. Im Zivilrecht kann man, so seine Meinung, ohne weiteres eine elektronische Person konstruieren, die man verklagen kann und die dann haften muss (etwa über ein Budget, das sie hat, oder einen Fonds, mit dem sie verbunden ist). Einerseits ist das die Lösung für das Problem, dass sich in vielen Fällen kaum mehr eindeutig verantwortliche natürliche oder juristische Personen ausmachen lassen. Andererseits eben nicht, denn woher sollte das Geld kommen – wenn nicht von natürlichen und juristischen Personen, die mit dem Roboter in irgendeiner Verbindung stehen? Und bei selbstlernenden Systemen wie Tay wird es vollends kompliziert, wobei dieser Fall ins Strafrechtliche hineinreicht. Eine Gruppe von KI-Forschern, Philosophen, Theologen und Rechtswissenschaftlern hat sich in einem offenen Brief gegen die Schaffung des Status einer elektronischen Person gewandt, wie eine Arbeitsgruppe des Europäischen Parlaments sie dieses Jahr vorgeschlagen hat. Der Artikel „Streit um Rechte von Robotern“ stellt die unterschiedlichen Positionen dar. Er ist am 21. April 2018 in der Aargauer Zeitung erschienen und kann über www.aargauerzeitung.ch/leben/forschung-technik/streit-um-rechte-von-robotern-wer-haftet-wenn-etwas-schief-geht-132457958 aufgerufen werden.

Abb.: Wie gestaltet man eine elektronische Person?