Schlagwörter: Roboterautos

Die Suche nach dem Moralmodul

„Das Auto hat sich und seine Umwelt immer wieder stark verändert. Am Anfang versuchte man, die Kutsche nachzuahmen, und fast wie in den Jahrhunderten zuvor holperte und wankte man über das Pflaster. Dann entdeckte man die Stromlinienförmigkeit, duckte sich in den Fahrerraum hinein, wand sich aus dem Sitz heraus. In die Lücke, die die Steine hinterlassen hatten, floss der Asphalt. Die Städte wurden umgebaut. Sie wurden so autofreundlich, dass der Gehsteig in manchen Ländern zum Strich verkam, auf dem man sich vorsichtig zwischen Verkehr und Mauer vorwärts bewegte. Vorwärts, vor allem im Sinne des Fortschritts, das war die Devise, bis man die Innenstädte wieder für die Fußgänger erschloss und Fußgängerzonen entstanden. Dann tat sich eine Weile nichts. Autoindustrie und Stadtplaner wirkten müde und schwach. Bis die Idee des autonomen Autos geboren wurde.“ So beginnt ein Artikel zu Roboterautos und zur Maschinenethik von Oliver Bendel, erschienen am 9. September 2016 im Tagesspiegel, der traditionsreichen Zeitung aus Berlin, für Berlin und ganz Deutschland. Er kann über https://causa.tagesspiegel.de/die-suche-nach-dem-moralmodul.html abgerufen werden.

kutschenfahrt

Abb.: Den Pferden und dem Kutscher ausgeliefert

Die Versklavung der Maschinen

„Der Maschinenethiker Oliver Bendel beschäftigt sich mit selbstfahrenden Autos und versucht, ihnen Moral beizubringen. Wer aber entscheidet, welche Moral befolgt werden soll?“ (Website SRF, 6. Juli 2016) Mit diesen Worten beginnt ein Beitrag von Yves Bossart auf der Website des Schweizer Fernsehens, der ein Interview mit dem Wissenschaftler enthält und auf visualisierte Gedankenexperimente des Senders verweist. Am Ende wird Oliver Bendel nach Rechten von Robotern befragt. Er antwortet darauf: „Für moralische Rücksicht braucht es einen Lebenswillen, Bewusstsein oder Empfindungsfähigkeit. All das haben Maschinen noch nicht einmal im Ansatz. Deswegen dürfen wir alles mit ihnen machen, ja sie dürfen auch versklavt werden. Das einzige, was dagegen spricht, ist der psychologische Verdacht, dass wir Menschen vielleicht moralisch abstumpfen, wenn wir menschenähnliche Wesen schlecht behandeln oder versklaven. Ein Argument, das man in ähnlicher Form bereits beim deutschen Philosophen Immanuel Kant findet.“ Der Beitrag kann über www.srf.ch/kultur/gesellschaft-religion/autonome-autos-gehoeren-nicht-in-unsere-staedte abgerufen werden.

Sklave

Abb.: Versklavte Maschinen statt versklavte Menschen

Der Tesla-Unfall

Der tödliche Unfall mit einem Tesla Model S vom Mai 2016, der derzeit durch die Medien geht, wurde vom Hersteller am 30. Juni 2016 wie folgt beschrieben: „What we know is that the vehicle was on a divided highway with Autopilot engaged when a tractor trailer drove across the highway perpendicular to the Model S. Neither Autopilot nor the driver noticed the white side of the tractor trailer against a brightly lit sky, so the brake was not applied. The high ride height of the trailer combined with its positioning across the road and the extremely rare circumstances of the impact caused the Model S to pass under the trailer, with the bottom of the trailer impacting the windshield of the Model S.“ (Tesla-Blog, 30. Juni 2016) Demnach kamen zwei Umstände zusammen. Zum einen ist der Sattelzug senkrecht auf den Highway getroffen bzw. hat senkrecht zum Automobil gestanden. Eine ähnliche Situation könnte sich mit LKW und PKW in europäischen Städten ständig ergeben, auf europäischen Autobahnen dagegen kaum. Zum anderen hat sich die Kamera täuschen lassen und, von unten her aufnehmend, die weiße Fläche des Fahrzeugs mit dem hellen Himmel dahinter gleichgesetzt. Dies zeigt einmal mehr, dass Kameras nur bedingt eine geeignete Technik für automatische und autonome Autos sind und in jedem Falle mit verschiedenen anderen Systemen wie Radar und LiDAR kombiniert werden müssen. Kameras kann man leicht täuschen und täuschen sich leicht. Im Tesla Model S ist eine komplexe Sensorik verbaut (Kameras, Radar, Ultraschall). Allerdings besteht offenbar Verbesserungsbedarf, und was das optische System wahrnimmt, muss unbedingt durch ein anderes geeignetes System überprüft werden. Zusätzlich könnten die Hersteller konventioneller PKW und LKW in die Pflicht genommen werden. In Zukunft sind graue, weiße oder blaue Karosserien und Sattelauflieger vielleicht zu vermeiden.

Red_Truck

Abb.: Auch die Fläche dieses LKWs könnte verwechselt werden

Qualifizierung des Faktors Mensch

Nach dem Wunsch von Alexander Dobrindt sollen „Autopilot und Fahrer rechtlich gleichgestellt“ werden, wie die Welt am 22. Mai berichtet. Der Verkehrsminister will zudem „ethische Fragen klären lassen“ (Die Welt, 22. Mai 2016). „Denn die Automatisierung kann zu moralisch kaum lösbaren Problemen führen. So sind Situationen vorstellbar, in denen ein Fahrzeug zwar einen Unfall nicht mehr verhindern, aber noch die Entscheidung treffen kann, ob es nach links ausweicht, wo eine Gruppe Schulkinder steht oder nach rechts wo ein älterer Fußgänger gerade die Straße überquert.“ (Die Welt, 22. Mai 2016) Dobrindt wolle deshalb „unter Beteiligung von Wissenschaft, Automobilindustrie und Digitalwirtschaft eine Kommission“ gründen, „die klare Leitlinien für Algorithmen entwickelt, welche die Fahrzeugreaktionen in Risikosituationen bestimmen“ (Die Welt, 22. Mai 2016). Allerdings will der Minister schon jetzt zwei Grundsätze für die Computersteuerungen vorgeben: 1. „Ein autonomes Auto müsse sich im Zweifel immer für den Sachschaden und gegen den Personenschaden entscheiden.“ Und 2: „Eine Qualifizierung des Faktors Mensch ist unzulässig“, wie es im entsprechenden Strategiepapier heißt. Ein Minister dürfe nur so wertvoll sein „wie alle anderen Menschen“ (Die Welt, 22. Mai 2016). Die Zeitung bemerkt dazu ganz richtig: „Doch gelöst ist das Problem mit dieser Festlegung natürlich noch nicht, denn nach irgendeinem Prinzip muss das Auto schließlich entscheiden, in welche Richtung es ausweicht, wenn ein Unfall unvermeidlich ist.“ Man darf gespannt sein, wer in die Kommission berufen wird und wie unabhängig diese ist. Die Welt hat in der Vergangenheit immer wieder über autonome Autos aus Sicht der Maschinenethik berichtet, etwa in diesem Artikel von Barbara Schneider und diesem Beitrag von Philipp Vetter.

 

Yellow_Car

Abb.: Ist es so freundlich, wie es scheint?

AAAI-Workshop zur Maschinenethik I

Beim Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University, der am 21. März 2016 im Rahmen der AAAI Spring Symposia eröffnet wurde, erklärte Ron Arkin (Georgia Institute of Technology, USA) in seiner Keynote „Robots that Need to Mislead: Biologically Inspired Machine Deception“, wie Tiere täuschen und wie man Maschinen beibringen kann, andere zu täuschen. Er ging auch auf die Möglichkeit ein, dass Roboter lügen, und stellte die Frage: „Should a robot be allowed to lie?“ Elizabeth Kinne und Georgi Stojanov thematisierten in „Grounding Drones‘ Ethical Use Reasoning“ die Chancen und Risiken von Kampfdrohnen. Sie stellten Szenarien vor, um die Probleme beim Einsatz zu vergegenwärtigen. Die Verantwortlichen könnten dazu neigen, immer mehr heikle Entscheidungen den Robotern zu überlassen. Der Vortrag „Metaethics in context of engineering ethical and moral systems“ von Michal Klincewicz und Lily Frank, bereits nach der Kaffeepause, fragte nach den grundsätzlichen Möglichkeiten und Unmöglichkeiten moralischer Systeme. Oliver Bendel ging auf das LIEBOT-Projekt ein. An der Hochschule für Wirtschaft FHNW wird 2016 im Rahmen einer Bachelor-Arbeit ein Chatbot programmiert, der konsequent die Unwahrheit sagt. Vor allem stellte der Wissenschaftler aber einen annotierten Entscheidungsbaum für eine einfache moralische Maschine vor, ein tierfreundliches Roboterauto. „The artificial autonomous moral agents (AAMA): a minimalist model“ war der letzte Vortrag vor dem Lunch. Ioan Muntean schlug in „The artificial autonomous moral agents (AAMA): a minimalist model“ einen Ansatz der Tugendethik vor, den er zusammen mit Don Howard erarbeitet hatte.

Die Moral der Roboter

Für „Der Sonntag“ vom 13. März 2016 hat René Zipperlen den Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel von der Hochschule für Wirtschaft FHNW interviewt. Sein Interesse gilt u.a. der Situation, die sich niemand wünscht: „Was ist, wenn ein autonomes Auto einen Unfall baut?“ Der Wissenschaftler führt aus: „Es klingt paradox: Für den Menschen stellt sich womöglich keine moralische Frage, weil alles viel zu schnell geht. Bei der Maschine entsteht aber vielleicht eine moralische Situation, weil sie andere Möglichkeiten nutzen kann als nur Reflexe, sie kann aufgrund einer Vielzahl von Beobachtungen und Bewertungen blitzschnell entscheiden, ob sie weiterfährt, ausweicht oder bremst.“ (Der Sonntag, 13. März 2016) Eine andere Frage ist: „Würden Sie die Autonomie von Fahrzeugen ab einem gewissen Punkt begrenzen?“ Die Antwort lautet: „Ich bin für hybride Autos, bei denen wir noch selbst eingreifen können. Google will Lenkrad und Pedal entfernen. Das halte ich für einen Fehler, denn es macht uns ohnmächtig. Ich wäre durchaus dafür, das autonome Auto zwischen Städten verkehren zu lassen, auf geraden Strecken wie der Autobahn.“ (Der Sonntag, 13. März 2016) Zipperlen: „Und im Stadtverkehr?“ Bendel: „Würde ich es im Moment verbieten. Städte sind zu kompliziert.“ (Der Sonntag, 13. März 2016) Der ganze Beitrag mit dem Titel „Die Moral der Roboter“ kann hier heruntergeladen werden.

Auto_Sonntag

Abb.: Fahrverbot in den Städten für das autonome Auto?

Menschenleben sind keine Rechengröße

In der Stuttgarter Zeitung vom 12. März 2016 ist ein ganzseitiges Interview – geführt hat es der Wissenschaftsjournalist Dr. Werner Ludwig – mit Prof. Dr. Oliver Bendel aus Zürich erschienen. Der Wirtschaftsinformatiker und Ethiker geht u.a. auf autonome Autos ein: „Ich bin nicht gegen das autonome Auto an sich. Ich bin ja selbst Maschinenethiker und konzipiere Maschinen, die bestimmte moralische Entscheidungen treffen. Ich bin nur der Meinung, dass das Auto eigentlich kein geeignetes System für die praktische Anwendung ist – zumindest, wenn es dabei um Menschenleben geht. Ich beschäftige mich stattdessen mit der Frage, wie man Kollisionen mit Tieren vermeiden kann. Auch das ist ja ein ethisches Problem. Ich frage mich zum Beispiel, ob man nicht Autos bauen könnte, die vor dem letzten Frosch seiner Art bremsen – natürlich nur, wenn dahinter keiner fährt. Ich halte es für schwierig und kaum akzeptabel, dass Maschinen über Menschenleben entscheiden.“ (Stuttgarter Zeitung, 12. März 2016) Das Interview mit der Überschrift „Menschenleben sind keine Rechengröße“ ist auf Seite 11 zu finden. Es kann, mit freundlicher Genehmigung des Autors und der Zeitung, hier heruntergeladen werden.

bus_stuttgart

Abb.: Auch ein Bus kann autonom fahren

Welchen Wert hat der Mensch?

„Darf das selbstfahrende Auto Menschenleben bewerten?“ Dies fragt in dem gleichnamigen Artikel in der Welt vom 25. Februar 2016 die Journalistin Barbara Schneider. Im Teaser schreibt sie: „Bald sollen selbstfahrende Autos zum Alltag gehören. Ethiker melden Bedenken an: Soll Technik zum Beispiel entscheiden dürfen, dass bei einem Unfall ein Mensch stirbt, damit viele andere überleben?“ Zu Wort kommen u.a. Catrin Misselhorn und Oliver Bendel. Ihre Positionen werden gegenübergestellt: „Die Tübinger Philosophin Catrin Misselhorn verfolgt den Ansatz, nach einem gesellschaftlichen Konsens für diese ethischen Fragen zu suchen. … Es müsse anhand von empirischen Befragungen herausgefunden werden, welches ethische Konzept der Intuition der meisten Menschen entspreche, sagt Misselhorn. Mit dieser Moral könne dann das selbstfahrende Auto ausgestattet werden.“ (Die Welt, 25. Februar 2016) Und weiter: „Der Philosoph Oliver Bendel sieht das anders. Er warnt prinzipiell davor, Maschinen wie Roboter-Autos komplexe Entscheidungen zu überlassen. ‚Die Maschine kann keine Verantwortung übernehmen‘, sagt er. Ein Roboter-Auto, das beispielsweise einen Unfall verursache, könne keine Schuld tragen.“ (Die Welt, 25. Februar 2016) Aus diesem Ansatz heraus konzipiert der Maschinenethiker einfache moralische Maschinen, etwa tierfreundliche Saugroboter oder das Recht am Bild und die Privatsphäre achtende Fotodrohnen. Der Artikel kann über www.welt.de/wissenschaft/article152649685/Darf-das-selbstfahrende-Auto-Menschenleben-bewerten.html aufgerufen werden.

red_hut_girl

Abb.: Mehr Angst vor dem bösen Auto als vor dem bösen Wolf?

Umweltfreundliche Roboterautos

Im Studiengang Energie- und Umwelttechnik der Fachhochschule Nordwestschweiz FHNW, von der Hochschule für Technik verantwortet und von der Hochschule für Wirtschaft mitgetragen, wurde im Januar 2016 das Projekt „Umweltfreundliche Roboterautos“ beendet. Der Student Robin Güdel, betreut von Prof. Dr. Oliver Bendel (in diesem Studiengang der Dozent für Umwelt- und Unternehmensethik), hat zunächst fünf Fahrerassistenzsysteme bzw. Kommunikationsverfahren untersucht. Es habe sich „herausgestellt, dass die Energieeffizienz beträchtlich erhöht werden kann“ (Abschlussbericht). „Auch Emissionen wie Lärm, CO2 und andere Schadstoffe können dank dieser Systeme gesenkt werden. Die effektiven Einsparungen sind jedoch schwer zu quantifizieren, da diese von vielen Einflussfaktoren abhängen.“ (Abschlussbericht) Im Anschluss wurden Roboterautos unter die Lupe genommen. Ein Ergebnis war, dass neue Konzepte für die Nutzung des Automobils entstehen könnten. Beim „Carsharing der Zukunft“ handle es sich um eine Dienstleistung, bei welcher man mit Hilfe autonomer Fahrzeuge am Standort A abgeholt und zum Standort B transportiert wird. „Falls eine solche Dienstleistung stark genutzt wird, könnten viele Konsumenten von dem Besitz eines eigenen Fahrzeugs absehen.“ (Abschlussbericht)

Laufen

Abb.: Laufen ist noch umweltfreundlicher

Die KI in der Moral

Der Call for Papers zum Workshop ETHICS FOR ARTIFICIAL INTELLIGENCE bei der 25th International Joint Conference on Artificial Intelligence IJCAI-16 sollte Informations-, Maschinen- und Roboterethiker gleichermaßen interessieren. In der Beschreibung heißt es: „Recent progress in various subfields of AI has caused some researchers and pundits to raise concerns about the dangers that AI might ultimately pose. These concerns range from questions about the ethics of delegating to military drones the authority to decide when to attack human targets, up to fears about a possible existential risk posed by AI technologies … Much of the debate surrounding these issues has taken place in a scientific vacuum, uninformed by the experiences and insights of practicing AI researchers. Meanwhile, a wide range of other and sometimes less obvious ethical issues arise from current and proposed use of AI in diverse areas such as medicine, social care, autonomous trading agents and autonomous vehicles.“ (Website Workshop) Zum Ziel des Workshops wird gesagt: „The aim of this workshop is to bring together … AI researchers and others interested in understanding how the discipline of AI should respond to these concerns. The workshop particularly aims to foster an active exchange of ideas between attendees from different disciplinary backgrounds to gain a better understanding of the ethical issues surrounding AI.“ (Website Workshop) Die Konferenz findet vom 9. – 15. Juli 2016 in New York statt. Weitere Informationen über www.cs.ox.ac.uk/efai/call-for-papers/.