Schlagwörter: Dobrindt

Dobrindts Kommission legt Bericht vor

Die „Ethikkommission“, die Alexander Dobrindt eingesetzt hat, hat nach neun Monaten ihren Bericht vorgelegt. Einerseits ging es um datenschutzrechtliche und informationsethische, andererseits um maschinenethische Fragen im Kontext des automatisierten Fahrens. Die Kommission war, wie üblich in Deutschland, vor allem mit Vertretern von Interessengruppen besetzt, etwa von ADAC und Kirche. Philosophische Ethiker blieben in der Minderzahl. Laut finanznachrichten.de müssten Fahrzeughalter und -nutzer „grundsätzlich über Weitergabe und Verwendung ihrer anfallenden Fahrzeugdaten“ entscheiden dürfen. Die Zulassung von automatisierten Systemen sei nur vertretbar, „wenn sie im Vergleich zu menschlichen Fahrleistungen zumindest eine Verminderung von Schäden im Sinne einer positiven Risikobilanz verspricht“. „So müssten Sach- und Tierschäden bei Unfällen immer Vorrang vor dem Personenschaden haben.“ (finanznachrichten.de, 20. Juni 2017) Dies war bereits eine Vorgabe von Alexander Dobrindt gewesen. Grundsätzlich müssten, so die Zeitung, die Systeme so programmiert sein, dass es nicht zu Unfällen kommt. Genau dies ist aber nicht möglich, und nicht nur die Software ist das Problem, sondern auch die Hardware im weitesten Sinne. „Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen … strikt untersagt. Eine Aufrechnung von Opfern ist untersagt. Eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden kann vertretbar sein. Die an der Erzeugung von Mobilitätsrisiken Beteiligten dürfen Unbeteiligte nicht opfern“, heiße es in dem Bericht (finanznachrichten.de, 20. Juni 2017). Das Qualifizieren wird also abgelehnt (dies war auch eine Vorgabe des Bundesverkehrsministers), das Quantifizieren nicht grundsätzlich.

Mensch und Tier im Straßenverkehr

Die Ethikkommission von Alexander Dobrindt hat erste Ergebnisse vorgelegt. Im Interview mit Philipp Vetter von der Welt ging Oliver Bendel unter anderem auf die Forderung ein, dass im Straßenverkehr stets Menschen- vor Tierleben stehen soll. Der Forscher konzentriert sich in seiner Arbeit zu Fahrerassistenzsystemen und autonomen Autos auf das Tierwohl und schlägt vor, das Wohl von Menschen vor allem dadurch sicherzustellen, indem das autonome Fahren auf der Autobahn stattfindet. Am Telefon gab er zur Auskunft: „Natürlich sollte ein autonomes Auto, wenn es nicht mehr ausweichen kann, im Zweifel das Tier überfahren und nicht den Menschen. Das sehen auch die meisten Tierschützer so, zu denen auch ich gehöre. Vereinzelt mag es aber Menschen geben, die sagen: Mein Hund ist mir wichtiger als mein Nachbar. Das ist sicher eine Minderheit.“ Der Wirtschaftsinformatiker, Informationsethiker und Maschinenethiker kritisiert seit langem, dass Ethikkommissionen in Deutschland stark von Theologen und insbesondere Moraltheologen bestimmt sind. Diese können meist weder etwas zur Sache beitragen noch zur Frage der Moral aus wissenschaftlicher Sicht wie Moralphilosophen. Sie argumentieren mit Vorannahmen, über die man nicht vernünftig sprechen kann, und neigen zu Formen des Moralismus. Im Gespräch stellte er fest: „Meiner Meinung nach ist die Ethikkommission falsch besetzt. Mir leuchtet nicht ein, welche Kompetenz ein Kirchenvertreter beim Thema autonomes Fahren haben soll.“ Der Artikel, der auf diesen und anderen Aussagen aufbaut, kann über www.welt.de/wirtschaft/article160551011/Autonome-Autos-sollen-zuerst-Fussgaenger-schuetzen.html aufgerufen werden.

Abb.: Mensch und Tier im Straßenverkehr

Wie gefährlich sind Roboter?

Den Chancen und Risiken von Robotern widmet sich die Bild am Sonntag am 10. Juli 2016 auf einer Doppelseite. „Wie viel Roboter ist gut?“ fragt der Autor, Florian Zerfaß, im Titel. Am 7. Juli sprach er mit Oliver Bendel, Wirtschaftsinformatiker, Informationsethiker und Maschinenethiker, der zu den Chancen zählt, dass Roboter die Menschen unterstützen und entlasten. Konkret erwähnte er gegenüber dem Journalisten das BMW-Werk in Spartanburg, wo Leichtbauroboter die Türdichtungen eindrücken und so die Handgelenke der Arbeiter entlasten, die unmittelbar daneben ihren weniger beschwerlichen Aufgaben nachgehen. Auch Pflegeroboter führte er an, die zusammen mit Pflegern im Tandem die Patienten umbetten und -lagern – Prototypen wie Robear, die in Bälde in Pflegeheimen und Krankenhäusern einsatzbereit sein sollen. Mit Risiken behaftet seien selbstlernende Systeme in offenen Welten. In der BamS wird Oliver Bendel mehrfach zitiert. Unter anderem weist er als Maschinenethiker darauf hin, dass man Maschinen eine Art von Moral beibringen kann. Der Artikel wird auf der Titelseite mit der Frage „Wie gefährlich sind Roboter?“ angeteasert und ist auf den Seiten 8 und 9 abgedruckt. Die Seiten 4 und 5 gehören dem Bundesverkehrsminister Alexander Dobrindt, der über seine „großen Baustellen“ reden soll. Eine davon ist die Ethikkommission, die die Entscheidungen automatischer und autonomer Autos aus ethischer Sicht beurteilen und sie in moralischer Hinsicht bestimmen soll. Ob ihr dies gelingen wird, steht in den Sternen. Oliver Bendel warnt davor, dass Autos über Leben und Tod von Menschen bestimmen.

Robot_and_Girl

Abb.: Ist das Mädchen sicher?

Qualifizierung des Faktors Mensch

Nach dem Wunsch von Alexander Dobrindt sollen „Autopilot und Fahrer rechtlich gleichgestellt“ werden, wie die Welt am 22. Mai berichtet. Der Verkehrsminister will zudem „ethische Fragen klären lassen“ (Die Welt, 22. Mai 2016). „Denn die Automatisierung kann zu moralisch kaum lösbaren Problemen führen. So sind Situationen vorstellbar, in denen ein Fahrzeug zwar einen Unfall nicht mehr verhindern, aber noch die Entscheidung treffen kann, ob es nach links ausweicht, wo eine Gruppe Schulkinder steht oder nach rechts wo ein älterer Fußgänger gerade die Straße überquert.“ (Die Welt, 22. Mai 2016) Dobrindt wolle deshalb „unter Beteiligung von Wissenschaft, Automobilindustrie und Digitalwirtschaft eine Kommission“ gründen, „die klare Leitlinien für Algorithmen entwickelt, welche die Fahrzeugreaktionen in Risikosituationen bestimmen“ (Die Welt, 22. Mai 2016). Allerdings will der Minister schon jetzt zwei Grundsätze für die Computersteuerungen vorgeben: 1. „Ein autonomes Auto müsse sich im Zweifel immer für den Sachschaden und gegen den Personenschaden entscheiden.“ Und 2: „Eine Qualifizierung des Faktors Mensch ist unzulässig“, wie es im entsprechenden Strategiepapier heißt. Ein Minister dürfe nur so wertvoll sein „wie alle anderen Menschen“ (Die Welt, 22. Mai 2016). Die Zeitung bemerkt dazu ganz richtig: „Doch gelöst ist das Problem mit dieser Festlegung natürlich noch nicht, denn nach irgendeinem Prinzip muss das Auto schließlich entscheiden, in welche Richtung es ausweicht, wenn ein Unfall unvermeidlich ist.“ Man darf gespannt sein, wer in die Kommission berufen wird und wie unabhängig diese ist. Die Welt hat in der Vergangenheit immer wieder über autonome Autos aus Sicht der Maschinenethik berichtet, etwa in diesem Artikel von Barbara Schneider und diesem Beitrag von Philipp Vetter.

 

Yellow_Car

Abb.: Ist es so freundlich, wie es scheint?

Wen soll das Roboterauto überfahren?

„Wen soll das autonome Auto lieber überfahren?“ Diesen Titel trägt ein Artikel, der am 14. September 2015 in der Online-Version der WELT erschienen ist; eine gedruckte Version folgte am 21. September. Interviewt wurden Eric Hilgendorf, Juraprofessor an der Universität Würzburg, und Oliver Bendel, Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik an der Hochschule für Wirtschaft FHNW. Auch Politiker werden zitiert: „In rund drei Jahren werden 80 Prozent aller Neuwagen in Deutschland miteinander vernetzt sein“, sage Verkehrsminister Alexander Dobrindt voraus. „Dann können die Autos erkennen, wo andere Fahrzeuge sind, wie weit weg, wie schnell. Sie können Informationen von diesen über den Straßenzustand, die Verkehrsdichte, die Witterungsverhältnisse bekommen.“ (WELT, 14. September 2015) Oliver Bendel konzipiert moralische Maschinen, ist aber skeptisch in Bezug auf komplexe moralische Maschinen, also auch in Bezug auf autonome Autos, die in offenen Welten eine Vielzahl von Entscheidungen – manche mit moralischen Implikationen – treffen müssen. Er ist der Meinung, dass sich gewisse Dilemmata nicht in befriedigender Weise lösen lassen.

Schienen_grau

Abb.: Was macht man, damit das Auto nicht vom rechten Weg abkommt?