Schlagwörter: Selbstfahrende Autos

Die Versklavung der Maschinen

„Der Maschinenethiker Oliver Bendel beschäftigt sich mit selbstfahrenden Autos und versucht, ihnen Moral beizubringen. Wer aber entscheidet, welche Moral befolgt werden soll?“ (Website SRF, 6. Juli 2016) Mit diesen Worten beginnt ein Beitrag von Yves Bossart auf der Website des Schweizer Fernsehens, der ein Interview mit dem Wissenschaftler enthält und auf visualisierte Gedankenexperimente des Senders verweist. Am Ende wird Oliver Bendel nach Rechten von Robotern befragt. Er antwortet darauf: „Für moralische Rücksicht braucht es einen Lebenswillen, Bewusstsein oder Empfindungsfähigkeit. All das haben Maschinen noch nicht einmal im Ansatz. Deswegen dürfen wir alles mit ihnen machen, ja sie dürfen auch versklavt werden. Das einzige, was dagegen spricht, ist der psychologische Verdacht, dass wir Menschen vielleicht moralisch abstumpfen, wenn wir menschenähnliche Wesen schlecht behandeln oder versklaven. Ein Argument, das man in ähnlicher Form bereits beim deutschen Philosophen Immanuel Kant findet.“ Der Beitrag kann über www.srf.ch/kultur/gesellschaft-religion/autonome-autos-gehoeren-nicht-in-unsere-staedte abgerufen werden.

Sklave

Abb.: Versklavte Maschinen statt versklavte Menschen

Interview zu Roboterautos

Deutschlandradio Kultur ist am Dienstag, 12. April 2016, im Gespräch mit Oliver Bendel. Der Wirtschaftsinformatiker und Maschinenethiker lebt in Zürich und forscht und publiziert seit Jahren über moralische Maschinen, seien es selbstständig fahrende Autos, Pflege- und Therapieroboter, zivile Drohnen oder Chatbots. Nana Brink ist als Autorin und Moderatorin unterwegs, für taz, SPIEGEL, Focus und Deutschlandradio. Ab 7.40 Uhr wird sie Fragen stellen zu autonomen Autos und deren Möglichkeiten, vor und während der Fahrt etwas zu lernen. Oliver Bendel ist skeptisch gegenüber komplexen moralischen Maschinen, die in offenen Welten verkehren und über Tod und Leben von Menschen entscheiden. Sein Interesse gilt einfachen moralischen Maschinen, ob im Haushalt oder in der Fabrikhalle. Dort sollen Geräte und Roboter besser sein als vorher, auch im moralischen Sinne. Beispiele sind Saugroboter, die Marienkäfer verschonen, und 3D-Drucker, die keine Waffen produzieren. Das Interview wird live geführt. Weitere Informationen gibt es über www.deutschlandradiokultur.de – dort ist zum gegebenen Zeitpunkt auch der Podcast zu finden.

printer

Abb.: Der 3D-Drucker kann sich weigern, eine Waffe auszudrucken

Das Roboterauto zwischen den Kulturen

Prof. Dr. Mark Coeckelbergh vom Centre for Computing and Social Responsibility De Montfort University, Leicester, UK hält am 21. Oktober 2015 einen Vortrag zum Thema „Die Ethik selbstfahrender Autos“. Im Ankündigungstext heißt es: „Sollten wir völlig automatisierte, intelligent selbstfahrende Autos ohne menschliche Fahrer entwickeln und verwenden? Können solche Autos jemals sicher sein? Können sie ethisch sein? Stellen solche Autos eine Bedrohung von Menschen dar oder ist das Weglassen von Menschen als Fahrer die Lösung?“ (Website ots.at) Es geht demnach um Fragen der Technik- und Informationsethik, aber auch der Maschinenethik. Auch die Frage nach der kulturellen Adaption wird aufgeworfen: „Ein weiteres Problem könnte hinsichtlich der kulturellen Unterschiede entstehen: wenn Fahrverhalten in Gesellschaften und Kulturen verschieden ist, wie kann das beim Design solcher autonomer Systeme berücksichtigt werden?“ Der Vortrag findet am Österreichischen Forschungsinstitut für Artificial Intelligence in Wien statt und beginnt um 18.30 Uhr. Weitere Informationen über http://www.ots.at.

kuh

Abb.: Für die Kuh wird gebremst, ob in Indien oder in Texas

Auch Maschinen brauchen Moral

Im Beitrag „Auch Maschinen brauchen Moral“ von Marlene Nowotny wird auf die Forschung von Matthias Scheutz, Professor für Cognitive and Computer Science und Direktor des Human-Robot Interaction Laboratory an der Tufts University in Massachusetts, eingegangen. „Je selbstständiger diese Maschinen in sozialen Kontexten agieren, desto besser müssen sie mit Konfliktsituationen umgehen können.“ (Website ORF, 1. September 2015) Scheutz arbeite „daran, Robotern genau diese Fähigkeit zu geben“. „Eine solche ethische Kontrollarchitektur für Roboter könnte auch bei selbstfahrenden Autos zum Einsatz kommen. Die entsprechende Robotertechnologie ist hier bereits vorhanden – die Fahrzeuge können u.a. einschätzen, ob der Fahrer vor ihnen risikoaffin ist oder nicht -[,] aber die selbstfahrenden Autos sind nicht in der Lage, in Krisensituationen Entscheidungen zu treffen.“ (Website ORF, 1. September 2015) Im Gegensatz zu Autos mit Notbremsassistenten – die Technik ist also teilweise verfügbar, an der Moral wird noch gefeilt. Interessant ist der Hinweis auf aktuelle Forschungsergebnisse von Scheutz: „In solchen Situationen ein Urteil zu bilden, ist kompliziert genug. Doch es kommt erschwerend hinzu, dass Menschen an Roboter höhere ethische Erwartungen haben als an ihre Mitmenschen.“ Der Beitrag ist am 1. September 2015 erschienen und kann über http://science.orf.at/stories/1762399/ abgerufen werden.

Auto mit Moral

In einem ganzseitigen Artikel über selbstständig fahrende Autos mit dem Titel „Auto mit Moral“ stellt der Autor, Michael Baumann, promovierter Wissenschaftler an der ZHAW, die Einschätzungen von zwei Experten gegenüber. Oliver Bendel, Informations- und Maschinenethiker von der Hochschule für Wirtschaft FHNW, hat nichts gegen Autos dieser Art. Er will ihnen aber bestimmte Zonen zuweisen, etwa umfunktionierte Standstreifen auf der Autobahn, und bestimmte Uhrzeiten, etwa die Stunden der Nacht. Zudem hält er eine Geschwindigkeitsbegrenzung für notwendig. Frank M. Rinderknecht, Gründer und CEO der Autokonzeptschmiede Rinspeed, will die Autos immer und überall sehen. Die Einstellung der Gesellschaft ihnen gegenüber müsse sich ändern. Die Gesellschaft ist auch für Oliver Bendel zentral. Er geht im Moment davon aus, dass sie maschinelle Entscheidungen über Leben und Tod von menschlichen Verkehrsteilnehmern kaum hinnehmen wird. Als Maschinenethiker ist er an solchen Entscheidungen durchaus interessiert. Allerdings konzentriert er sich in seiner Forschung auf das Tierwohl. Dabei sind ebenfalls moralische Urteile relevant; nur sind die Risiken bei der Umsetzung viel geringer und die Chancen offensichtlicher. Der Artikel ist am 17. Mai 2015 in der Wochenzeitung Schweiz am Sonntag erschienen und als PDF verfügbar.

Schild

Abb.: Was soll das Auto tun?

Entscheidungsbäume für moralische Maschinen

Immer mehr teilautonome und autonome Maschinen müssen Entscheidungen treffen, die moralische Implikationen haben. Die Maschinenethik, die als Pendant zur Menschenethik aufgefasst werden kann, untersucht Möglichkeiten und Grenzen moralischer Maschinen. Oliver Bendel hat seit 2014 diverse Designstudien erarbeitet und damit Vorschläge für Aussehen und Funktionen unterbreitet. Noch wenig benutzt werden Entscheidungsbäume zur Konzeption von moralischen Maschinen. Ein neuer Beitrag von Oliver Bendel konzentriert sich auf einfache moralische Maschinen, die tierfreundlich sein sollen, und es wird für jede ausgewählte Aufgabe ein annotierter Entscheidungsbaum modelliert. Beispielsweise wird dargestellt, welche Bremsungen ein Roboterauto für wen durchführen soll. Der Beitrag erscheint nach endgültiger Annahme durch den Arbeitskreis Wirtschaftsinformatik (AKWI) im Herbst dieses Jahres. Tagungs- und Erscheinungsort ist Luzern.

Baum

Abb.: Kein Entscheidungsbaum

Smart Cars made in Switzerland

„Die Schweiz kann wieder eine bedeutende Rolle im Automobilbau und in der Zulieferindustrie spielen. Es braucht nur die richtigen Weichenstellungen. Die Bahn wird nicht aufs Abstellgleis geraten, sondern kann sogar Synergien schaffen.“ Um diese scheinbar gewagte These zu begründen, holt Oliver Bendel in seinem Artikel „Made in Switzerland: Smart Cars“ ein bisschen aus. Er erzählt die Geschichte des Automobils in der Eidgenossenschaft, erklärt im Detail, was autonome Autos sind, und kommt dann zur Sache. „Was spricht dafür, dass die Schweiz in diesem boomenden Markt der Car IT, der Assistenzsysteme und der autonomen Autos eine Chance hat? Dass sie mitspielt, sozusagen mitfährt, im Mittelfeld oder an der Spitze?“ Mehrere Argumente werden genannt, und am Ende wird klar, dass es wirklich sein könnte, wenn man nur wollte, wenn Einrichtungen und Personen einmal über den Tellerrand hinausschauen würden, wenn sie einmal visionär wären, dann … Der Beitrag ist im Mai 2015 in der UnternehmerZeitung erschienen und kann über die Website des Instituts für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW heruntergeladen werden.

Messer

Abb.: Made in Switzerland