Schlagworte: Autonome Systeme

Menschenleben sind keine Rechengröße

In der Stuttgarter Zeitung vom 12. März 2016 ist ein ganzseitiges Interview – geführt hat es der Wissenschaftsjournalist Dr. Werner Ludwig – mit Prof. Dr. Oliver Bendel aus Zürich erschienen. Der Wirtschaftsinformatiker und Ethiker geht u.a. auf autonome Autos ein: „Ich bin nicht gegen das autonome Auto an sich. Ich bin ja selbst Maschinenethiker und konzipiere Maschinen, die bestimmte moralische Entscheidungen treffen. Ich bin nur der Meinung, dass das Auto eigentlich kein geeignetes System für die praktische Anwendung ist – zumindest, wenn es dabei um Menschenleben geht. Ich beschäftige mich stattdessen mit der Frage, wie man Kollisionen mit Tieren vermeiden kann. Auch das ist ja ein ethisches Problem. Ich frage mich zum Beispiel, ob man nicht Autos bauen könnte, die vor dem letzten Frosch seiner Art bremsen – natürlich nur, wenn dahinter keiner fährt. Ich halte es für schwierig und kaum akzeptabel, dass Maschinen über Menschenleben entscheiden.“ (Stuttgarter Zeitung, 12. März 2016) Das Interview mit der Überschrift „Menschenleben sind keine Rechengröße“ ist auf Seite 11 zu finden. Es kann, mit freundlicher Genehmigung des Autors und der Zeitung, hier heruntergeladen werden.

bus_stuttgart

Abb.: Auch ein Bus kann autonom fahren

Moral für die Maschine

Der Hessische Rundfunk (hr2 Kultur) bringt am 20. September 2015 eine Sendung zum Thema „Moral für die Maschine – Ansätze einer Roboterethik“. Im Ankündigungstext auf der Website heißt es: „Die Roboter kommen. Aus dem Alltag werden sie bald nicht mehr wegzudenken sein. Roboter-Autos fahren, ohne dass ein Mensch am Steuer sitzt. Pflege-Roboter erinnern alte Menschen daran, regelmäßig zu trinken. Elektronische Plüschtiere geben Pflegebedürftigen Zuwendung und Nähe. Die Maschinen werden immer selbstständiger und intelligenter. Es dauert nicht mehr lange, bis Roboter eigenständig eine moralische Entscheidung fällen müssen. Je autonomer Roboter handeln können, desto dringender ist die Frage nach einer Ethik der Maschinen. An welchen Werten soll sich ein Roboter orientieren? Wie entscheidet das selbstfahrende Auto in einer Dilemmasituation? Inwiefern können emotionale Roboter den Menschen in der Pflege ersetzen? Philosophen und Ingenieure suchen nach Lösungen, den Maschinen moralische Vorstellungen einzuprogrammieren.“ (Website hr2 Kultur) Befragt hat Barbara Schneider u.a. den Maschinenethiker Oliver Bendel. Weitere Informationen über www.hr-online.de/website/radio/hr2/.

robotgirl

Abb.: Roboterfrau mit oder ohne Moral

Asimov für Autos

In seinem Artikel „Asimowsche Regeln für den Asphaltdschungel: Autonome Fahrzeuge werfen grundlegende ethische Fragen auf“ lässt Hans-Arthur Marsiske verschiedene Experten zu Wort kommen. Der Maschinenethiker Oliver Bendel, Hochschule für Wirtschaft FHNW, schätzt moralische Maschinen, konzipiert sie auch selbst, ist aber der Meinung, dass sie bestimmte Entscheidungen nicht übernehmen sollten, etwa über Leben und Tod von Menschen im Straßenverkehr. Patrick Lin, Philosoph an der California Polytechnic State University, ist der Ansicht, „dass autonome Fahrzeuge bei einem unvermeidlichen Zusammenstoß in der Lage sein sollten, die Kollision zu optimieren, also so zu reagieren, dass der Schaden möglichst gering ausfällt“. Er bezieht Menschen ausdrücklich mit ein; die Maschine wird also darüber urteilen, wer überleben darf und wer sterben muss. Der Jurist Eric Hilgendorf befürchtet grundsätzlich, „dass autonome Fahrzeuge das deutsche Rechtsverständnis unter Druck setzen könnten, da es schwieriger zu programmieren sei als das angelsächsische“. Sowohl Lin als auch Bendel plädieren für eine breite gesellschaftliche Diskussion. Der Beitrag ist am 28. August 2015 im Onlinemagazin Telepolis erschienen und kann über www.heise.de/tp/artikel/45/45810/1.html abgerufen werden. Einen ähnlichen Artikel des selben Autors hat die Zeitung Neues Deutschland am Tag darauf abgedruckt: „Das moralische Auto: Lässt sich die Steuerung autonomer Fahrzeuge so programmieren, dass sie menschlichen Verhaltensregeln folgen?“, verfügbar über www.pressreader.com.

Bully

Abb.: Da war die Welt noch in Ordnung

Für ein Verbot von Kampfrobotern

KI-Forscher und Robotiker sowie weitere Wissenschaftler aus aller Welt haben das Verbot von autonomen Waffensystemen, etwa Kampfrobotern, gefordert. Zu den Unterzeichnern des offenen Briefs gehören der Physiker und Astrophysiker Stephen Hawking, der Apple-Co-Founder Steve Wozniak und der Sprachwissenschaftler und Linksintellektuelle Noam Chomsky. Manche Experten lehnen Kampfroboter ab, weil diese falsche Entscheidungen treffen und die Bevölkerung verunsichern können, andere weisen darauf hin, dass Maschinen anders als Menschen nicht zu Plünderungen, Brandschatzungen und Vergewaltigungen neigen und somit die Nebenschauplätze von Kriegen menschlicher gestaltet werden können. Zudem könne man das Leben derjenigen Soldaten schützen, die von den Robotern unterstützt oder ersetzt werden. Der offene Brief wurde bei der Eröffnung der IJCAI 2015 Conference am 28. Juli 2015 präsentiert. Unterschrieben hat ihn auch der Maschinenethiker Oliver Bendel, der in seinen Fachartikeln nicht zuletzt Kampfdrohnen thematisiert hat und der Robotern, die komplexe Entscheidungen mit moralischen Implikationen zu treffen haben, ausgesprochen kritisch gegenübersteht. Er spricht sich für sogenannte einfache moralische Maschinen aus.

star_wars

Abb.: Damals war alles noch Science-Fiction

Moralische Roboter

Die Stanford University widmet sich im Frühjahr 2016 der Maschinenethik. Vom 21. bis 23. März findet der Workshop „Ethical and Moral Considerations in Non-Human Agents“ im Rahmen der AAAI Spring Symposia statt. Keynote-Speaker sind Ron Arkin (Georgia Institute of Technology), Maja Matarić (University of Southern California) und Luis Moriz Pereira (Universidade Nova de Lisboa). Organisiert wird der Workshop von Bipin Indurkhya (Jagiellonian University, Krakau) und Georgi Stojanov (The American University of Paris). Im Call for Papers heißt es: „Our machines are tasked with ever more autonomous decisions that directly impact on the well-being of other humans. There is a very real need to imbue our AI creations with a robust moral sense that real people would recognize as a functional model of human morality.“ Themen sind „Modeling evolution and emergence of moral norms“, „Designing moral regulations for autonomous systems“, „Role of analogies and metaphors in moral reasoning and argumentation“ und „Ontologies for moral and ethical reasoning“. Papers müssen bis 5. Oktober 2015 eingereicht werden. Weitere Informationen über sites.google.com/site/ethicalnonhumanagents/.

Robot_Woman

Abb.: Hat dieser Roboter so etwas wie Moral?

Rethinking Machine Ethics

Ein Call for Chapters zum Thema „Rethinking Machine Ethics in the Age of Ubiquitous Technology“ richtet sich u.a. an Philosophen, Informatiker, Robotiker und KI-Experten. Herausgeber des Buchs wird Jeffrey White vom Korean Advanced Institute of Science and Technology (KAIST) sein. Die Ziele werden auf der Website www.igi-global.com wie folgt beschrieben: „The present volume aims to bind together forward-looking constructive and interdisciplinary visions of moral/ethical ideals, aims, and applications of machine technology, either as extensions of ongoing engineering research or as theoretical approaches to moral/ethical problems employing machine ethics resources within the vast moral landscape confronting machine ethics researchers.“ Ein Abstract muss bis zum 28. Februar 2014 eingereicht werden. Weitere Informationen direkt über www.igi-global.com/publish/call-for-papers/call-details/1227.