Grundfragen der Maschinenethik

Grundfragen der Maschinenethik“ von Catrin Misselhorn ist ein weiteres Grundlagenwerk zu dieser Disziplin, die erst seit ca. zehn Jahren besteht und moralische Maschinen bzw. maschinelle Moral zum Gegenstand hat. Aus dem Klappentext: „Maschinen werden immer selbständiger und intelligenter. Dabei geraten sie in Situationen, die moralische Entscheidungen verlangen. Doch können Maschinen überhaupt moralisch handeln, dürfen oder sollen sie es sogar? Wie baut man eine moralische Maschine? Mit diesen und ähnlichen Fragen beschäftigt sich die Maschinenethik. Catrin Misselhorn erläutert die Grundlagen dieser neuen Disziplin an der Schnittstelle von Philosophie, Informatik und Robotik am Beispiel von autonomen Waffensystemen, Pflegerobotern und autonomem Fahren.“ (Klappentext) Die renommierte Stuttgarter Philosophin ist auch Autorin des „Handbuchs Maschinenethik“ – dieses wird von Oliver Bendel aus Zürich herausgegeben und erscheint bei Springer.

GOODBOT und LIEBOT im Handbuch

Anfang Juli 2018 sind zwei Beiträge im Handbuch zur Maschinenethik bei Springer erschienen. Sie stammen von Oliver Bendel, der auch der Herausgeber ist, und tragen den Titel „Das GOODBOT-Projekt“ und „Das LIEBOT-Projekt“. In den Beiträgen werden zwei Artefakte der Maschinenethik vorgestellt, die an der Hochschule für Wirtschaft FHNW 2013 bzw. 2016 entstanden sind. Der LÜGENBOT ist international bekannt geworden. Seit Ende 2016 sitzen renommierte Wissenschaftlerinnen und Wissenschaftler an ihren Kapiteln zum „Handbuch Maschinenethik“. Ende 2018 soll das gedruckte Werk erscheinen. Mit dabei sind etwa Luís Moniz Pereira aus Lissabon, einer der bekanntesten Maschinenethiker der Welt, und Roboterethikerin Janina Loh, die in Wien mit Mark Coeckelbergh zusammenarbeitet. Ein Beitrag von Dr. Stefan Ullrich, des Sprechers der GI-Fachgruppe „Informatik und Ethik“, kommt in wenigen Tagen heraus. Eine Übersicht über die Beiträge, die laufend elektronisch veröffentlicht werden, findet sich über link.springer.com/referencework/10.1007/978-3-658-17484-2

Abb.: Das LIEBOT-Projekt

Virtuelle Realität und maschinelle Moral

Seit ca. zehn Jahren werden moralische Maschinen intensiv erforscht. Auch autonome Autos waren früh im Fokus der zuständigen Disziplin, der Maschinenethik. 2012 wurde unter der Betreuung von Oliver Bendel eine Formel entwickelt, mit deren Hilfe autonome Autos in theoretischen Dilemmasituationen qualifizieren und quantifizieren können (Möglichkeiten, die er auf der TA-Konferenz in Prag Anfang 2013 kritisch diskutiert hat), später kamen Mittel wie annotierte Entscheidungsbäume hinzu. Forscher der Universität Osnabrück haben nun einen weiteren Ansatz vorgelegt, der autonome Autos als selbstlernende Systeme vorsieht. Josephine Lütke vom NDR fasst die Studie „Using Virtual Reality to Assess Ethical Decisions in Road Traffic Scenarios“ wie folgt zusammen: „Die Forscher haben eine Autofahrt auf einer Straße in der virtuellen Realität simuliert. Etwas mehr als 100 Probanden setzten sich eine spezielle Brille auf, die ihnen das Gefühl gab, tatsächlich Auto zu fahren.“ (Website NDR, 5. Juli 2017) Sie mussten nun – dies erinnert an die Moral Machine des MIT – in Dilemmasituationen entscheiden. „Mit diesen Ergebnissen der Versuche fütterten die Wissenschaftler dann einen Computer. Allerdings bekam die Maschine nicht alle Informationen. Etwa zehn Prozent der moralischen Entscheidungen, die die Menschen getroffen hatten, enthielten die Forscher der Maschine vor. Stattdessen musste der Computer die Versuche selbst machen. Und: Er hatte gelernt und entschied auch in den Fällen, die er noch nicht kannte, fast immer so, wie es auch die Menschen in den Versuchen gemacht hatten.“ (Website NDR, 5. Juli 2017) Weitere Informationen über www.ndr.de und journal.frontiersin.org.

Abb.: Virtuelle Realität und maschinelle Moral

LADYBIRD-Projekt startet

An der Hochschule für Wirtschaft FHNW startet im März 2017 das LADYBIRD-Projekt. Die Idee des tierfreundlichen Staubsaugerroboters kommt seit 2013 in verschiedenen Publikationen von Oliver Bendel vor. In der Online-Zeitschrift inside-it.ch heißt es, Serviceroboter wie Haushalts- und Gartenroboter „sind in zahlreichen Ausführungen erhältlich und erleben einen wahren Boom“. Und weiter: „Ein gewöhnlicher Saugroboter verschlingt das, was vor ihm und unter ihm ist. Dazu gehören nicht nur Staubflocken und Kekskrümel, sondern auch Spinnen und Käfer. Nach der Meinung vieler Menschen sollte man Tiere nicht einfach verletzen oder beseitigen. Man kann den Roboter mit Bilderkennung und Bewegungssensoren ausstatten und ihm beibringen, Lebewesen vor dem Tod zu bewahren.“ Im letzten Jahr erstellte Oliver Bendel einen annotierten Entscheidungsbaum für die einfache moralische Maschine. Zudem wurden in einem Paper, das Ende März im Rahmen der AAAI-Konferenz an der Stanford University präsentiert wird („LADYBIRD: the Animal-Friendly Robot Vacuum Cleaner“), technische Details behandelt. In dem Praxisprojekt arbeiten zwei Studenten und eine Studentin über mehrere Monate. Auftraggeber ist Oliver Bendel, Betreuer Bradley Richards. Wie in anderen Projekten innerhalb der Maschinenethik an der Hochschule geht es darum, dass am Ende ein Prototyp mit den wichtigsten Komponenten und Funktionen vorliegt.

Abb.: Bekannt ist LADYBIRD bereits – nun wird er gebaut

Programmierte Moral

Nur ein halbes Jahr nach „Die Moral in der Maschine“ von Oliver Bendel und rechtzeitig zur Frankfurter Buchmesse 2016 ist das Buch „Programmierte Ethik“ erschienen, ebenfalls bei Heise Medien, herausgegeben von Florian Rötzer, dem Chefredakteur von Telepolis. Das Buch versammelt Originalbeiträge von Oliver Bendel und Catrin Misselhorn ebenso wie ein bereits bekanntes Interview mit dem in Zürich lebenden Maschinenethiker. Weitere Beiträge stammen von Raúl Rojas, Hans-Arthur Marsiske, Patrick Spät, Stefan Höltgen und Florian Rötzer selbst, der seit Jahrzehnten die neuesten technischen Entwicklungen beobachtet und beschreibt. Aus dem Klappentext: „Maschinen und Roboter, die immer selbständiger handeln und entscheiden sollen, ziehen als Saug- und Mähroboter, als Pflege-, Spiel-, Service- oder auch Sexroboter, als unverkörperte Agenten, als Überwachungs- oder auch als Kampfroboter in die Lebenswelt ein. Wir müssen uns an den Umgang mit den neuen Mitbewohnern unserer Lebenswelt gewöhnen und diesen müssen höchst unterschiedliche Regeln im Umgang mit den Menschen und der Umwelt einprogrammiert oder anerzogen werden.“ Es geht um das Programmieren von Moral und auch – man denke an die Diskussion, welche Modelle normativer Ethik für Maschinen taugen – um das Programmieren von Ethik. Das E-Book kann über die üblichen Shops bezogen werden und kostet 5,99 Euro.

pc

Abb.: Computer und Roboter entscheiden und urteilen immer häufiger autonom

Roboterethik im Deutschlandfunk

Am Donnerstag, 26. Mai 2016, ist der Wirtschaftsinformatiker, Informationsethiker und Maschinenethiker Oliver Bendel im Gespräch mit Inge Breuer. Das Schwerpunktthema im Deutschlandfunk lautet „Roboterethik: Wieviel Moral brauchen intelligente Maschinen?“ Aus der Ankündigung des Senders: „Bereits heute übernehmen Roboter eine Vielzahl von Aufgaben in der Industrie, im Finanzsektor, aber zunehmend auch bei Serviceleistungen, in der Pflege und im Verkehr. Diese schlauen Maschinen werden zunehmend autonomer und können auch komplexe Entscheidungen selbst treffen. Je autonomer solche intelligenten Systeme aber handeln, desto mehr stellt sich die Grundfrage nach der moralischen Fundierung der von diesen Maschinen getroffenen Entscheidungen. Wie vermag die ‚Moral der Maschine‘ sichergestellt, wie weit kann sie ihr von Beginn an ‚einprogrammiert‘ werden? Z.B. bei einem selbstfahrenden Auto: Soll es einem Unfall ausweichen, wenn es erkennt, dass dann stattdessen ein anderer den Unfall haben wird? Sind die eigenen Insassen – und damit Kunden des Herstellers – schutzwürdiger als Dritte? Wer trägt die Verantwortung für die Entscheidungen der Maschine? Zunehmend wird auch in Deutschland die Frage gestellt, ob man (teil-)autonomen Systemen so etwas wie Moral beibringen kann.“ Die Rubrik „Aus Kultur- und Sozialwissenschaften“ wird ab 20.10 Uhr ausgestrahlt.

Walker

Abb.: Wohin geht der Robot?

Noch bleiben die Hände am Steuerrad

Bruno Knellwolf berichtete am 3. März 2016 vom Auto-Salon in Genf. Der Artikel, der u.a. im St. Galler Tagblatt erschienen ist, beginnt mit den Worten: „Neben 120 Welt- und Europapremieren sind ab heute am Auto-Salon in Genf bei einigen Autoherstellern auch ihre Forschungen zum selbstfahrenden Auto zu sehen. Lotta Jakobsson von Volvo erklärt, warum wir noch einige Zeit das Lenkrad im Griff behalten werden.“ (Tagblatt, 3. März 2016) „Wenn jemand fahren will, soll er das tun können. Dafür hat er ja ein Auto“, wird die Expertin zitiert. „Doch sei es ihm auf der langen Reise auf der Autobahn langweilig, sollte er sich mit etwas anderem beschäftigen können. Das autonome Fahren sei aber noch nicht mehrheitsfähig, weil uns die Erfahrung fehle. Unsere Haltung in dieser Frage werde sich aber in fünf bis zehn Jahren ändern.“ (Tagblatt, 3. März 2016) Zu Wort kommt auch Oliver Bendel. „Darf man sein und das Leben anderer also einem Algorithmus anvertrauen? Im ‚Spiegel‘ zweifelt Oliver Bendel von der Fachhochschule Nordwestschweiz daran. Es sei fatal, Maschinen komplexe moralische Entscheidungen zu überlassen.“ Der Wirtschaftsinformatiker und Maschinenethiker spricht sich für einfache moralische Maschinen aus, die einfache moralische Entscheidungen treffen, etwa in Bezug auf Tiere, und dadurch zu deren Wohl beitragen können. Der Artikel mit dem Titel „Noch bleiben die Hände am Steuerrad“ kann hier gelesen werden.

Steuer

Abb.: Bald fehlen die Hände am Steuerrad

 

Welchen Wert hat der Mensch?

„Darf das selbstfahrende Auto Menschenleben bewerten?“ Dies fragt in dem gleichnamigen Artikel in der Welt vom 25. Februar 2016 die Journalistin Barbara Schneider. Im Teaser schreibt sie: „Bald sollen selbstfahrende Autos zum Alltag gehören. Ethiker melden Bedenken an: Soll Technik zum Beispiel entscheiden dürfen, dass bei einem Unfall ein Mensch stirbt, damit viele andere überleben?“ Zu Wort kommen u.a. Catrin Misselhorn und Oliver Bendel. Ihre Positionen werden gegenübergestellt: „Die Tübinger Philosophin Catrin Misselhorn verfolgt den Ansatz, nach einem gesellschaftlichen Konsens für diese ethischen Fragen zu suchen. … Es müsse anhand von empirischen Befragungen herausgefunden werden, welches ethische Konzept der Intuition der meisten Menschen entspreche, sagt Misselhorn. Mit dieser Moral könne dann das selbstfahrende Auto ausgestattet werden.“ (Die Welt, 25. Februar 2016) Und weiter: „Der Philosoph Oliver Bendel sieht das anders. Er warnt prinzipiell davor, Maschinen wie Roboter-Autos komplexe Entscheidungen zu überlassen. ‚Die Maschine kann keine Verantwortung übernehmen‘, sagt er. Ein Roboter-Auto, das beispielsweise einen Unfall verursache, könne keine Schuld tragen.“ (Die Welt, 25. Februar 2016) Aus diesem Ansatz heraus konzipiert der Maschinenethiker einfache moralische Maschinen, etwa tierfreundliche Saugroboter oder das Recht am Bild und die Privatsphäre achtende Fotodrohnen. Der Artikel kann über www.welt.de/wissenschaft/article152649685/Darf-das-selbstfahrende-Auto-Menschenleben-bewerten.html aufgerufen werden.

Abb.: Mehr Angst vor dem bösen Auto als vor dem bösen Wolf?

Maschinenethik im SPIEGEL

Der SPIEGEL beleuchtet in seiner Titelstory der Ausgabe 9/2016 das autonome Auto („Steuer frei“). Markus Brauck, Dietmar Hawranek und Thomas Schulz lassen u.a. Daimler-Vorstand Wolfgang Bernhard, Daimler-Chef Dieter Zetsche, Google-Forscher Sebastian Thrun und Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel zu Wort kommen. „Das können wir nicht dem Google überlassen“, wird Bernhard zitiert, und gemeint ist das Geschäft mit dem Roboterauto. Das Magazin wird grundsätzlich: „Technologische Umbrüche, wie sie in der Automobilindustrie jetzt anstehen, haben schon viele Firmen hinweggefegt, die unsterblich schienen. Den Fernsehhersteller Telefunken, den Schreibmaschinenfabrikanten Triumph-Adler, die Fotofirma Kodak.“ (SPIEGEL, 27. Februar 2016) „Wir haben uns aufgemacht“, so Zetsche laut SPIEGEL, „diese Statistik zu schlagen“. „Buchstäblich Hunderte Menschen wollten mir weismachen, dass man kein fahrerloses Auto bauen kann“, sagt Thrun. Der Forscher gilt als Pionier in diesem Bereich. Bendel verbindet Maschinen- und Tierethik. Erwähnt wird seine Konzeption eines tierfreundlichen Saugroboters namens LADYBIRD, aber auch seine Arbeit zu Roboterautos. „Er ist Spezialist für Maschinenethik und setzt sich seit Jahren mit den moralischen Dilemmata auseinander, die das selbstfahrende Auto mit sich bringt. … Für Bendel hängt die Akzeptanz von selbstfahrenden Autos auch davon ab, ob diese ethischen Fragen zur Zufriedenheit der Bürger beantwortet werden. Bendel misstraut den optimistischen Visionen der Industrie. Es sei fatal, Maschinen komplexe moralische Entscheidungen zu überlassen.“ (SPIEGEL, 27. Februar 2016)

Oldtimer_Auto

Abb.: Das Auto schaut dich an, bevor es dich tötet

Die moralische Brille

Der Artikel „Die Datenbrille aus Sicht der Informationsethik“ von Oliver Bendel geht auf die „Datenbrille in der Moral der Informationsgesellschaft“ ein. In der Zusammenfassung heißt es: „Die Datenbrille ist ein mit Peripheriegeräten ergänzter Kleinstrechner, der am Kopf getragen und mit Augen und Händen sowie der Stimme gesteuert bzw. bedient wird. Dinge, Pflanzen, Tiere und Menschen respektive Situationen und Prozesse werden registriert, analysiert und mit virtuellen Informationen angereichert.“ Und weiter: „Aus ethischer Sicht stellen sich verschiedene Fragen. Insbesondere die Informationsethik ist gefordert, etwa zu Themen wie Informationsgerechtigkeit und informationelle Autonomie.“ Auch die Perspektive der Maschinenethik wird eingenommen: „Die Maschinenethik widmet sich schwerpunktmäßig autonomen, intelligenten, häufig mobilen Systemen. Schon bei Computern im automatisierten Handel und bei 3D-Druckern sind nicht alle dieser Merkmale gegeben, und doch versucht man sie als Subjekte im moralischen Sinne zu verbessern. Von daher spricht nichts dagegen, dass die Erkenntnisse auf die Datenbrille angewandt werden, wenn diese selbstständig Entscheidungen trifft oder Informationen filtert.“ Der Artikel ist im Februar 2016 in der Printversion der Zeitschrift Informatik-Spektrum 39 (1), S. 21 – 29, erschienen. Bereits seit 13. September 2014 ist er als „Online-First“-Artikel verfügbar.

google_glass

Abb.: Wie entscheidet die Datenbrille?

Simple Moral Machines

Vom 21. bis zum 23. März 2016 findet an der Stanford University der Workshop „Ethical and Moral Considerations in Non-Human Agents“ statt, im Rahmen der AAAI Spring Symposia. Keynote-Speaker sind Ron Arkin (Georgia Institute of Technology), Maja Matarić (University of Southern California) und Luis Moriz Pereira (Universidade Nova de Lisboa). Organisiert wird der Workshop von Bipin Indurkhya (Jagiellonian University, Krakau) und Georgi Stojanov (The American University of Paris). Im Programmkomitee sitzen u.a. Peter Asaro (The New School, New York) und Patrick Lin (California Polytechnic State University). Einen der wissenschaftlichen Vorträge wird Oliver Bendel (Hochschule für Wirtschaft FHNW, Basel, Olten und Brugg-Windisch) halten. Aus dem Abstract von „Annotated Decision Trees for Simple Moral Machines„: „This article proposes an approach for creating annotated decision trees, and specifies their central components. The focus is on simple moral machines. The chances of such models are illustrated with the example of a self-driving car that is friendly to humans and animals. Finally the advantages and disadvantages are discussed and conclusions are drawn.“ Weitere Informationen über sites.google.com/site/ethicalnonhumanagents/.

policecar

Abb.: Ein als Polizeiwagen getarntes Roboterauto

Der Lügenbot kommt auf die Welt

An der Hochschule für Wirtschaft FHNW wird ab Frühjahr 2016 im Rahmen einer Abschlussarbeit ein Lügenbot entwickelt. Der betreuende Professor, Dr. Oliver Bendel, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert, etwa „Wenn ein Chatbot zum Lügenbot wird“ (ICTkommunikation), „Können Maschinen lügen? Die Wahrheit über Münchhausen-Maschinen“ (Telepolis) und „Der Lügenbot und andere Münchhausen-Maschinen“ (MittelstandsWiki). In „Robots between the Devil and the Deep Blue Sea“ wurde zudem das sogenannte Lügenbot-Problem vorgestellt, als eines von vier Dilemmata. In den Beiträgen wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man könnte also Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student wird den Chatbot für zwei Szenarien realisieren, den Einsatz im Auftrag der Lebensmittel- und der Tourismusbranche. Bereits 2013 kam der GOODBOT als einfache moralische Maschine auf die Welt. Der Lügenbot könnte als einfache unmoralische Maschine bezeichnet werden, wobei Lügen natürlich nicht per se schlecht ist. Er ist interessant für die Maschinenethik als Gestaltungsdisziplin und für die Informationsethik als Reflexionsdisziplin. Über die Resultate des Projekts wird zur gegebenen Zeit auf maschinenethik.net informiert.

Maedchen_Chatbot

Abb.: Wagt er es, mich anzulügen, der Bot?

Tödliche Entscheidungen

„Wie Roboter über Menschenleben entscheiden“ lautet der Titel eines Artikels von Katrin Haas, der am 25. November 2015 in der Rheinischen Post erschienen ist. Im Teaser wird gesagt: „Ob im Verkehr oder in der Pflege – überall könnten in Zukunft Roboter moralische, manchmal tödliche Entscheidungen treffen.“ „Ich rate von Maschinen ab, die über Leben und Tod entscheiden“, wird der Maschinenethiker Oliver Bendel (Hochschule für Wirtschaft FHNW) zitiert, und er „wirbt dafür, nur einfache moralische Maschinen zu entwickeln“. Seine Forschung konzentriert sich stark auf Begegnungen von Maschinen mit Tieren. Und in diesem Zusammenhang ist er dafür, möglichst viel Leben zu retten. Auch Catrin Misselhorn von der Universität Stuttgart wird zitiert. Auf die Frage, wie lange es noch dauert, „bis Roboter sich um Menschen kümmern“, antwortet sie: „Vor Kurzem hätte ich gesagt, bis das umgesetzt wird, dauert es noch. Aber jetzt im Moment erlebt die Branche einen großen Auftrieb durch die Diskussion um autonom fahrende Autos.“ Die Online-Version des Artikels kann über www.rp-online.de/wirtschaft/wie-roboter-ueber-menschenleben-entscheiden-aid-1.5584750 abgerufen werden.

Roboter mit Nasen

Beim Swiss ICT Symposium vom 10. bis 11. November 2015 gab es ein breites Spektrum von Vorträgen und Themen. Prof. Dr. Manfred Spitzer (Hirnforscher und Psychiater) und Sascha Lobo (SPON-Kolumnist) unterhielten als Keynoter das Publikum mit gewagten Thesen und anschaulichen Beispielen. Im gut besuchten Track „Internet der Dinge“ referierte Moritz Köhler (Director of Software Engineering, Sensirion AG). „IoT-Geräte und Mobiltelefone verschmelzen zusehends und ermöglichen völlig neue Anwendungen und Geschäftsmodelle.“ (www.swissict.ch) Was wird möglich, so fragte er sich, wenn Telefone immer mehr Kenntnis von ihrer Umwelt haben? Und lieferte „eine Einführung in die Sensorik in Mobiltelefonen und deren Bedeutung“. Smartphones, die Atem-, Stadt- und Raumluft analysieren können, lassen Behörden, Unternehmen und Privatleute aufhorchen. Auch Roboter mit Nasen werden für Staunen sorgen und nicht zuletzt bei der Tier-Maschine-Interaktion von Bedeutung sein. „Moralische Maschinen“ lautete der Titel des Vortrags von Prof. Dr. Oliver Bendel (Professor für Wirtschaftsinformatik und Ethik, Hochschule für Wirtschaft FHNW): „Autos bremsen rechtzeitig vor Menschen ab. Serviceroboter bringen Medikamente und sind nett zu uns. Manche Dinge, Roboter und (teil-)autonome Maschinen werden aber falsche oder interessengeleitete Entscheidungen treffen. Einfache moralische Maschinen könnten eine Lösung sein.“ (www.swissict.ch) Vielleicht entdeckt auch die Maschinenethik die Olfaktorik und lässt Roboter die Gerüche von Menschen analysieren und automatisch die dazu passenden Düfte ausströmen. Die Maschine wird insofern gut, als wir sie gut riechen können. Die Vortragsfolien stehen über www.swissict.ch zur Verfügung.

Tissues

Abb.: Brauchen Roboter bald Taschentücher?

Auto und Ethik bei der IAA in Frankfurt

Das große Thema der IAA war im September 2015 das autonome Auto. Das zeigte sich auch im „IAA Spot – Das offizielle Magazin“. Darin wurden nicht zuletzt Bezüge zur Maschinenethik hergestellt. Der Artikel von Holger Holzer mit dem Titel „Das Autonomie-Dilemma“ beginnt mit den Sätzen: „Unsere Autos werden mit zunehmender Autonomie künftig auch über Leben und Tod von Menschen entscheiden müssen. Doch nach welchen Regeln soll das geschehen? Die Diskussion dazu hat gerade erst begonnen.“ Zu Wort kommen u.a. Daimler-Chef Dieter Zetsche und Maschinenethiker Oliver Bendel. Zetsche „forderte erst kürzlich eine ethische Debatte über Roboterautos und die branchenübergreifende Suche nach einem geeigneten Entscheidungs-Algorithmus“. Bendel ist skeptischer und schlägt vor, die Maschinen in komplexen Situationen, in denen das Weiterleben von Menschen auf dem Spiel steht, nicht selbstständig entscheiden zu lassen. Zudem will er die autonomen Autos in festgelegte Bereiche verbannen. Sven Hötitzsch, Experte für Roboterrecht, beantwortet die Schuldfrage im juristischen Sinne. Der Artikel kann hier abgerufen werden.

Train

Abb.: Immer wieder bemüht wird das Trolley-Problem

Asimov für Autos

In seinem Artikel „Asimowsche Regeln für den Asphaltdschungel: Autonome Fahrzeuge werfen grundlegende ethische Fragen auf“ lässt Hans-Arthur Marsiske verschiedene Experten zu Wort kommen. Der Maschinenethiker Oliver Bendel, Hochschule für Wirtschaft FHNW, schätzt moralische Maschinen, konzipiert sie auch selbst, ist aber der Meinung, dass sie bestimmte Entscheidungen nicht übernehmen sollten, etwa über Leben und Tod von Menschen im Straßenverkehr. Patrick Lin, Philosoph an der California Polytechnic State University, ist der Ansicht, „dass autonome Fahrzeuge bei einem unvermeidlichen Zusammenstoß in der Lage sein sollten, die Kollision zu optimieren, also so zu reagieren, dass der Schaden möglichst gering ausfällt“. Er bezieht Menschen ausdrücklich mit ein; die Maschine wird also darüber urteilen, wer überleben darf und wer sterben muss. Der Jurist Eric Hilgendorf befürchtet grundsätzlich, „dass autonome Fahrzeuge das deutsche Rechtsverständnis unter Druck setzen könnten, da es schwieriger zu programmieren sei als das angelsächsische“. Sowohl Lin als auch Bendel plädieren für eine breite gesellschaftliche Diskussion. Der Beitrag ist am 28. August 2015 im Onlinemagazin Telepolis erschienen und kann über www.heise.de/tp/artikel/45/45810/1.html abgerufen werden. Einen ähnlichen Artikel des selben Autors hat die Zeitung Neues Deutschland am Tag darauf abgedruckt: „Das moralische Auto: Lässt sich die Steuerung autonomer Fahrzeuge so programmieren, dass sie menschlichen Verhaltensregeln folgen?“, verfügbar über www.pressreader.com.

Bully

Abb.: Da war die Welt noch in Ordnung