Schlagworte: Einfache moralische Maschinen

Virtuelle Realität und maschinelle Moral

Seit ca. zehn Jahren werden moralische Maschinen intensiv erforscht. Auch autonome Autos waren früh im Fokus der zuständigen Disziplin, der Maschinenethik. 2012 wurde unter der Betreuung von Oliver Bendel eine Formel entwickelt, mit deren Hilfe autonome Autos in theoretischen Dilemmasituationen qualifizieren und quantifizieren können (Möglichkeiten, die er auf der TA-Konferenz in Prag Anfang 2013 kritisch diskutiert hat), später kamen Mittel wie annotierte Entscheidungsbäume hinzu. Forscher der Universität Osnabrück haben nun einen weiteren Ansatz vorgelegt, der autonome Autos als selbstlernende Systeme vorsieht. Josephine Lütke vom NDR fasst die Studie „Using Virtual Reality to Assess Ethical Decisions in Road Traffic Scenarios“ wie folgt zusammen: „Die Forscher haben eine Autofahrt auf einer Straße in der virtuellen Realität simuliert. Etwas mehr als 100 Probanden setzten sich eine spezielle Brille auf, die ihnen das Gefühl gab, tatsächlich Auto zu fahren.“ (Website NDR, 5. Juli 2017) Sie mussten nun – dies erinnert an die Moral Machine des MIT – in Dilemmasituationen entscheiden. „Mit diesen Ergebnissen der Versuche fütterten die Wissenschaftler dann einen Computer. Allerdings bekam die Maschine nicht alle Informationen. Etwa zehn Prozent der moralischen Entscheidungen, die die Menschen getroffen hatten, enthielten die Forscher der Maschine vor. Stattdessen musste der Computer die Versuche selbst machen. Und: Er hatte gelernt und entschied auch in den Fällen, die er noch nicht kannte, fast immer so, wie es auch die Menschen in den Versuchen gemacht hatten.“ (Website NDR, 5. Juli 2017) Weitere Informationen über www.ndr.de und journal.frontiersin.org.

Abb.: Virtuelle Realität und maschinelle Moral

LADYBIRD-Projekt startet

An der Hochschule für Wirtschaft FHNW startet im März 2017 das LADYBIRD-Projekt. Die Idee des tierfreundlichen Staubsaugerroboters kommt seit 2013 in verschiedenen Publikationen von Oliver Bendel vor. In der Online-Zeitschrift inside-it.ch heißt es, Serviceroboter wie Haushalts- und Gartenroboter „sind in zahlreichen Ausführungen erhältlich und erleben einen wahren Boom“. Und weiter: „Ein gewöhnlicher Saugroboter verschlingt das, was vor ihm und unter ihm ist. Dazu gehören nicht nur Staubflocken und Kekskrümel, sondern auch Spinnen und Käfer. Nach der Meinung vieler Menschen sollte man Tiere nicht einfach verletzen oder beseitigen. Man kann den Roboter mit Bilderkennung und Bewegungssensoren ausstatten und ihm beibringen, Lebewesen vor dem Tod zu bewahren.“ Im letzten Jahr erstellte Oliver Bendel einen annotierten Entscheidungsbaum für die einfache moralische Maschine. Zudem wurden in einem Paper, das Ende März im Rahmen der AAAI-Konferenz an der Stanford University präsentiert wird („LADYBIRD: the Animal-Friendly Robot Vacuum Cleaner“), technische Details behandelt. In dem Praxisprojekt arbeiten zwei Studenten und eine Studentin über mehrere Monate. Auftraggeber ist Oliver Bendel, Betreuer Bradley Richards. Wie in anderen Projekten innerhalb der Maschinenethik an der Hochschule geht es darum, dass am Ende ein Prototyp mit den wichtigsten Komponenten und Funktionen vorliegt.

Abb.: Bekannt ist LADYBIRD bereits – nun wird er gebaut

Programmierte Moral

Nur ein halbes Jahr nach „Die Moral in der Maschine“ von Oliver Bendel und rechtzeitig zur Frankfurter Buchmesse 2016 ist das Buch „Programmierte Ethik“ erschienen, ebenfalls bei Heise Medien, herausgegeben von Florian Rötzer, dem Chefredakteur von Telepolis. Das Buch versammelt Originalbeiträge von Oliver Bendel und Catrin Misselhorn ebenso wie ein bereits bekanntes Interview mit dem in Zürich lebenden Maschinenethiker. Weitere Beiträge stammen von Raúl Rojas, Hans-Arthur Marsiske, Patrick Spät, Stefan Höltgen und Florian Rötzer selbst, der seit Jahrzehnten die neuesten technischen Entwicklungen beobachtet und beschreibt. Aus dem Klappentext: „Maschinen und Roboter, die immer selbständiger handeln und entscheiden sollen, ziehen als Saug- und Mähroboter, als Pflege-, Spiel-, Service- oder auch Sexroboter, als unverkörperte Agenten, als Überwachungs- oder auch als Kampfroboter in die Lebenswelt ein. Wir müssen uns an den Umgang mit den neuen Mitbewohnern unserer Lebenswelt gewöhnen und diesen müssen höchst unterschiedliche Regeln im Umgang mit den Menschen und der Umwelt einprogrammiert oder anerzogen werden.“ Es geht um das Programmieren von Moral und auch – man denke an die Diskussion, welche Modelle normativer Ethik für Maschinen taugen – um das Programmieren von Ethik. Das E-Book kann über die üblichen Shops bezogen werden und kostet 5,99 Euro.

pc

Abb.: Computer und Roboter entscheiden und urteilen immer häufiger autonom

Roboterethik im Deutschlandfunk

Am Donnerstag, 26. Mai 2016, ist der Wirtschaftsinformatiker, Informationsethiker und Maschinenethiker Oliver Bendel im Gespräch mit Inge Breuer. Das Schwerpunktthema im Deutschlandfunk lautet „Roboterethik: Wieviel Moral brauchen intelligente Maschinen?“ Aus der Ankündigung des Senders: „Bereits heute übernehmen Roboter eine Vielzahl von Aufgaben in der Industrie, im Finanzsektor, aber zunehmend auch bei Serviceleistungen, in der Pflege und im Verkehr. Diese schlauen Maschinen werden zunehmend autonomer und können auch komplexe Entscheidungen selbst treffen. Je autonomer solche intelligenten Systeme aber handeln, desto mehr stellt sich die Grundfrage nach der moralischen Fundierung der von diesen Maschinen getroffenen Entscheidungen. Wie vermag die ‚Moral der Maschine‘ sichergestellt, wie weit kann sie ihr von Beginn an ‚einprogrammiert‘ werden? Z.B. bei einem selbstfahrenden Auto: Soll es einem Unfall ausweichen, wenn es erkennt, dass dann stattdessen ein anderer den Unfall haben wird? Sind die eigenen Insassen – und damit Kunden des Herstellers – schutzwürdiger als Dritte? Wer trägt die Verantwortung für die Entscheidungen der Maschine? Zunehmend wird auch in Deutschland die Frage gestellt, ob man (teil-)autonomen Systemen so etwas wie Moral beibringen kann.“ Die Rubrik „Aus Kultur- und Sozialwissenschaften“ wird ab 20.10 Uhr ausgestrahlt.

Walker

Abb.: Wohin geht der Robot?

Noch bleiben die Hände am Steuerrad

Bruno Knellwolf berichtete am 3. März 2016 vom Auto-Salon in Genf. Der Artikel, der u.a. im St. Galler Tagblatt erschienen ist, beginnt mit den Worten: „Neben 120 Welt- und Europapremieren sind ab heute am Auto-Salon in Genf bei einigen Autoherstellern auch ihre Forschungen zum selbstfahrenden Auto zu sehen. Lotta Jakobsson von Volvo erklärt, warum wir noch einige Zeit das Lenkrad im Griff behalten werden.“ (Tagblatt, 3. März 2016) „Wenn jemand fahren will, soll er das tun können. Dafür hat er ja ein Auto“, wird die Expertin zitiert. „Doch sei es ihm auf der langen Reise auf der Autobahn langweilig, sollte er sich mit etwas anderem beschäftigen können. Das autonome Fahren sei aber noch nicht mehrheitsfähig, weil uns die Erfahrung fehle. Unsere Haltung in dieser Frage werde sich aber in fünf bis zehn Jahren ändern.“ (Tagblatt, 3. März 2016) Zu Wort kommt auch Oliver Bendel. „Darf man sein und das Leben anderer also einem Algorithmus anvertrauen? Im ‚Spiegel‘ zweifelt Oliver Bendel von der Fachhochschule Nordwestschweiz daran. Es sei fatal, Maschinen komplexe moralische Entscheidungen zu überlassen.“ Der Wirtschaftsinformatiker und Maschinenethiker spricht sich für einfache moralische Maschinen aus, die einfache moralische Entscheidungen treffen, etwa in Bezug auf Tiere, und dadurch zu deren Wohl beitragen können. Der Artikel mit dem Titel „Noch bleiben die Hände am Steuerrad“ kann hier gelesen werden.

Steuer

Abb.: Bald fehlen die Hände am Steuerrad

 

Welchen Wert hat der Mensch?

„Darf das selbstfahrende Auto Menschenleben bewerten?“ Dies fragt in dem gleichnamigen Artikel in der Welt vom 25. Februar 2016 die Journalistin Barbara Schneider. Im Teaser schreibt sie: „Bald sollen selbstfahrende Autos zum Alltag gehören. Ethiker melden Bedenken an: Soll Technik zum Beispiel entscheiden dürfen, dass bei einem Unfall ein Mensch stirbt, damit viele andere überleben?“ Zu Wort kommen u.a. Catrin Misselhorn und Oliver Bendel. Ihre Positionen werden gegenübergestellt: „Die Tübinger Philosophin Catrin Misselhorn verfolgt den Ansatz, nach einem gesellschaftlichen Konsens für diese ethischen Fragen zu suchen. … Es müsse anhand von empirischen Befragungen herausgefunden werden, welches ethische Konzept der Intuition der meisten Menschen entspreche, sagt Misselhorn. Mit dieser Moral könne dann das selbstfahrende Auto ausgestattet werden.“ (Die Welt, 25. Februar 2016) Und weiter: „Der Philosoph Oliver Bendel sieht das anders. Er warnt prinzipiell davor, Maschinen wie Roboter-Autos komplexe Entscheidungen zu überlassen. ‚Die Maschine kann keine Verantwortung übernehmen‘, sagt er. Ein Roboter-Auto, das beispielsweise einen Unfall verursache, könne keine Schuld tragen.“ (Die Welt, 25. Februar 2016) Aus diesem Ansatz heraus konzipiert der Maschinenethiker einfache moralische Maschinen, etwa tierfreundliche Saugroboter oder das Recht am Bild und die Privatsphäre achtende Fotodrohnen. Der Artikel kann über www.welt.de/wissenschaft/article152649685/Darf-das-selbstfahrende-Auto-Menschenleben-bewerten.html aufgerufen werden.

red_hut_girl

Abb.: Mehr Angst vor dem bösen Auto als vor dem bösen Wolf?

Maschinenethik im SPIEGEL

Der SPIEGEL beleuchtet in seiner Titelstory der Ausgabe 9/2016 das autonome Auto („Steuer frei“). Markus Brauck, Dietmar Hawranek und Thomas Schulz lassen u.a. Daimler-Vorstand Wolfgang Bernhard, Daimler-Chef Dieter Zetsche, Google-Forscher Sebastian Thrun und Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel zu Wort kommen. „Das können wir nicht dem Google überlassen“, wird Bernhard zitiert, und gemeint ist das Geschäft mit dem Roboterauto. Das Magazin wird grundsätzlich: „Technologische Umbrüche, wie sie in der Automobilindustrie jetzt anstehen, haben schon viele Firmen hinweggefegt, die unsterblich schienen. Den Fernsehhersteller Telefunken, den Schreibmaschinenfabrikanten Triumph-Adler, die Fotofirma Kodak.“ (SPIEGEL, 27. Februar 2016) „Wir haben uns aufgemacht“, so Zetsche laut SPIEGEL, „diese Statistik zu schlagen“. „Buchstäblich Hunderte Menschen wollten mir weismachen, dass man kein fahrerloses Auto bauen kann“, sagt Thrun. Der Forscher gilt als Pionier in diesem Bereich. Bendel verbindet Maschinen- und Tierethik. Erwähnt wird seine Konzeption eines tierfreundlichen Saugroboters namens LADYBIRD, aber auch seine Arbeit zu Roboterautos. „Er ist Spezialist für Maschinenethik und setzt sich seit Jahren mit den moralischen Dilemmata auseinander, die das selbstfahrende Auto mit sich bringt. … Für Bendel hängt die Akzeptanz von selbstfahrenden Autos auch davon ab, ob diese ethischen Fragen zur Zufriedenheit der Bürger beantwortet werden. Bendel misstraut den optimistischen Visionen der Industrie. Es sei fatal, Maschinen komplexe moralische Entscheidungen zu überlassen.“ (SPIEGEL, 27. Februar 2016)

Oldtimer_Auto

Abb.: Das Auto schaut dich an, bevor es dich tötet

Die moralische Brille

Der Artikel „Die Datenbrille aus Sicht der Informationsethik“ von Oliver Bendel geht auf die „Datenbrille in der Moral der Informationsgesellschaft“ ein. In der Zusammenfassung heißt es: „Die Datenbrille ist ein mit Peripheriegeräten ergänzter Kleinstrechner, der am Kopf getragen und mit Augen und Händen sowie der Stimme gesteuert bzw. bedient wird. Dinge, Pflanzen, Tiere und Menschen respektive Situationen und Prozesse werden registriert, analysiert und mit virtuellen Informationen angereichert.“ Und weiter: „Aus ethischer Sicht stellen sich verschiedene Fragen. Insbesondere die Informationsethik ist gefordert, etwa zu Themen wie Informationsgerechtigkeit und informationelle Autonomie.“ Auch die Perspektive der Maschinenethik wird eingenommen: „Die Maschinenethik widmet sich schwerpunktmäßig autonomen, intelligenten, häufig mobilen Systemen. Schon bei Computern im automatisierten Handel und bei 3D-Druckern sind nicht alle dieser Merkmale gegeben, und doch versucht man sie als Subjekte im moralischen Sinne zu verbessern. Von daher spricht nichts dagegen, dass die Erkenntnisse auf die Datenbrille angewandt werden, wenn diese selbstständig Entscheidungen trifft oder Informationen filtert.“ Der Artikel ist im Februar 2016 in der Printversion der Zeitschrift Informatik-Spektrum 39 (1), S. 21 – 29, erschienen. Bereits seit 13. September 2014 ist er als „Online-First“-Artikel verfügbar.

google_glass

Abb.: Wie entscheidet die Datenbrille?

Simple Moral Machines

Vom 21. bis zum 23. März 2016 findet an der Stanford University der Workshop „Ethical and Moral Considerations in Non-Human Agents“ statt, im Rahmen der AAAI Spring Symposia. Keynote-Speaker sind Ron Arkin (Georgia Institute of Technology), Maja Matarić (University of Southern California) und Luis Moriz Pereira (Universidade Nova de Lisboa). Organisiert wird der Workshop von Bipin Indurkhya (Jagiellonian University, Krakau) und Georgi Stojanov (The American University of Paris). Im Programmkomitee sitzen u.a. Peter Asaro (The New School, New York) und Patrick Lin (California Polytechnic State University). Einen der wissenschaftlichen Vorträge wird Oliver Bendel (Hochschule für Wirtschaft FHNW, Basel, Olten und Brugg-Windisch) halten. Aus dem Abstract von „Annotated Decision Trees for Simple Moral Machines“: „This article proposes an approach for creating annotated decision trees, and specifies their central components. The focus is on simple moral machines. The chances of such models are illustrated with the example of a self-driving car that is friendly to humans and animals. Finally the advantages and disadvantages are discussed and conclusions are drawn.“ Weitere Informationen über sites.google.com/site/ethicalnonhumanagents/.

policecar

Abb.: Ein als Polizeiwagen getarntes Roboterauto

Der Lügenbot kommt auf die Welt

An der Hochschule für Wirtschaft FHNW wird ab Frühjahr 2016 im Rahmen einer Abschlussarbeit ein Lügenbot entwickelt. Der betreuende Professor, Dr. Oliver Bendel, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert, etwa „Wenn ein Chatbot zum Lügenbot wird“ (ICTkommunikation), „Können Maschinen lügen? Die Wahrheit über Münchhausen-Maschinen“ (Telepolis) und „Der Lügenbot und andere Münchhausen-Maschinen“ (MittelstandsWiki). In „Robots between the Devil and the Deep Blue Sea“ wurde zudem das sogenannte Lügenbot-Problem vorgestellt, als eines von vier Dilemmata. In den Beiträgen wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man könnte also Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student wird den Chatbot für zwei Szenarien realisieren, den Einsatz im Auftrag der Lebensmittel- und der Tourismusbranche. Bereits 2013 kam der GOODBOT als einfache moralische Maschine auf die Welt. Der Lügenbot könnte als einfache unmoralische Maschine bezeichnet werden, wobei Lügen natürlich nicht per se schlecht ist. Er ist interessant für die Maschinenethik als Gestaltungsdisziplin und für die Informationsethik als Reflexionsdisziplin. Über die Resultate des Projekts wird zur gegebenen Zeit auf maschinenethik.net informiert.

Maedchen_Chatbot

Abb.: Wagt er es, mich anzulügen, der Bot?