Schlagworte: Roboterautos

Foundation of Responsible Robotics

„Alle forschen an Robotern und keiner bedenkt, was wir damit anrichten.“ (Website DRadio Wissen, 11. Dezember 2015) Dieser Meinung sei, so der Sender, eine Gruppe von Wissenschaftlern. „Deshalb haben sie die Foundation of Responsible Robotics gegründet, also die Stiftung für verantwortungsvolle Robotik. Bei der Gründungsfeier in London warnte der emeritierte Professor und Mitgründer Noel Sharkey, die britische Regierung stecke zwar viel Geld in die Forschung – aber die Auswirkungen auf die Gesellschaft würden überhaupt nicht bedacht. Und auch ethische Fragen spielten kaum eine Rolle.“ (Website DRadio Wissen, 11. Dezember 2015) Allerdings fragen Informationsethik, Technikethik und Roboterethik sowie Wirtschaftsethik – in vielen Ländern umtriebige Disziplinen – sehr wohl nach ethischen Implikationen des Einsatzes von Robotern, und die Maschinenethik konzipiert sogar moralische Maschinen. Folgende Beispiele führt Noel Sharkey an: „Durch die Automatisierung in der Industrie könnten massenhaft Menschen arbeitslos werden. Auch Menschenrechte würden verletzt, etwa wenn Roboter bei der Betreuung von Senioren mit Kameras filmen. Polizeidrohnen seien in mehreren Ländern mit Waffen ausgerüstet. Selbstfahrende Autos könnten Bomben transportieren und so Selbstmordattentäter ersetzen.“ Das ist freilich nicht das Hauptproblem bei Roboterautos; das Hauptproblem ist, dass diese selbst Menschen töten. „Die Stiftung will erreichen, dass die Forschung solche Gefahren stärker mitdenkt.“ (Website DRadio Wissen, 11. Dezember 2015) Dies ist auf jeden Fall ein ehrenwertes Ziel.

Pflegeroboter und Schamgefühl

In „Forschung aktuell“ (Deutschlandfunk) wurde am 25. November 2015 der Beitrag „Die Moral der Maschinen“ gesendet. Volkart Wildermuth war am Vortag während der Berliner Konferenz „Roboterethik“ im Gespräch mit Prof. Dr. Jochen Steil, Prof. Dr. Catrin Misselhorn, Prof. Dr. Alin Albu-Schäffer und Prof. Dr. Oliver Bendel. Im Vorspann wird auf Roboter in der Science-Fiction eingegangen. Die Roboter der Wirklichkeit seien fleißig dabei, ihren Kollegen nachzueifern. Dabei würden sich aber moralische Herausforderungen ergeben. Catrin Misselhorn erzählt, dass es ihrer Großmutter nicht recht gewesen sei, wenn der Pflegedienst sie im Intimbereich gewaschen habe. „Ich könnte mir vorstellen, dass ihr in diesem Fall es recht gewesen wäre, wenn ein Roboter diese Tätigkeit übernommen hätte.“ In eine ähnliche Richtung weist eine Befragung, die von der Hochschule für Wirtschaft FHNW durchgeführt wurde. Zu Roboterautos stellt der Maschinenethiker Oliver Bendel fest: „Ich denke, der Mensch sollte bestimmte Entscheidungen selbst treffen, selbst wenn sie falsch sind.“ Für ihn sind dies Entscheidungen über Leben und Tod von Menschen, wie sie in Dilemmata diskutiert werden. Er schlägt grundsätzlich vor, den normalen Verkehr und den autonomen Verkehr soweit wie möglich voneinander zu trennen und Roboterautos zu beschränken. Fußgänger und Fahrradfahrer in Städten sollten sich nicht permanent auf autonome Autos einstellen und ihr Verhalten an diese anpassen müssen. Der Beitrag kann über www.deutschlandfunk.de/forschung-aktuell.675.de.html abgerufen werden.

Krankenschwester

Abb.: Beseitigt der Pflegeroboter das Schamgefühl?

Nachlese zum Workshop zur Maschinenethik

Im Saal war noch ein gut gelaunter Guildo Horn (Podiumsteilnehmer im Workshop „Wie schreibt man über Menschen mit Behinderungen?“), als die Referenten hereinkamen. Er begrüßte sie mit den Worten: „Jetzt kommen schon die Nächsten – hallo!“ Die Nächsten waren die Referenten des Workshops „Maschinenethik“, nämlich Oliver Bendel („Moral für Maschinen“) und Barbara Lenz („Autonome Autos“). Bendel von der Hochschule für Wirtschaft FHNW eröffnete in fachlicher Hinsicht den Workshop und führte in die derzeit wohl meistdiskutierte Disziplin ein – und gestand, dass ihm die ganze Zeit das Lied „Guildo hat euch lieb“ des von ihm sehr geschätzten Sängers und Aktivisten durch den Kopf gehe. Lenz vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) vertiefte mit dem derzeit wohl meistgenannten Anwendungsbeispiel. Abgesagt hatte Frank Sauer, Universität der Bundeswehr München („Autonome Waffen“). Über eine halbe Stunde erstreckte sich ein lebhaftes Frage-Antwort-Spiel mit dem Moderator Ralf Krauter vom Deutschlandfunk, der den Referenten auch noch die letzten Geheimnisse (die natürlich längst publiziert waren) entlockte. Wie programmiert man moralische Maschinen? Was spricht für regelbasierte, was für fallbasierte Ansätze? Wieviel Autonomie soll der Mensch behalten? Was will die Wirtschaft, was die Wissenschaft? Die anwesenden Journalistinnen und Journalisten geizten anschließend nicht mit Fragen. Im Konferenzhotel Maritim ging es insgesamt trubelig zu im Rahmen der Veranstaltung „Wissenswerte“. In den Workshops redete man sich die Köpfe heiß über „Multimediales Storytelling“, „Science und Fiction“ und „Big Data in der Medizin“. Im Messebereich präsentierten sich die Partnerorganisationen, u.a. die Max-Planck-Gesellschaft, die Fraunhofer-Gesellschaft, die Helmholtz-Gemeinschaft, die Leibniz-Gemeinschaft und der Stifterverband. Am frühen Abend war Dr. Franz Alt im Gespräch mit Lena Ganschow. Danach klang der Abend beim Essen im Friesenhof aus.

Wenn Roboter über Leben und Tod entscheiden

Ein Workshop in Bremen widmet sich dem Thema „Maschinenethik – wenn Roboter über Leben und Tod entscheiden“. Den Eröffnungsvortrag hält Prof. Dr. Oliver Bendel, Hochschule für Wirtschaft FHNW (Basel, Olten und Brugg-Windisch). Er führt in die Disziplin ein und stellt Methoden vor, um moralische Maschinen umzusetzen. Dabei geht er auch auf annotierte Entscheidungsbäume ein. Auf der Website www.wissenswerte-bremen.de wird erklärt: „Maschinen, die quasi als Subjekte selbst Verantwortung übernehmen – wer trifft die Entscheidungen, wer übernimmt die Verantwortung? Die technologische Entwicklung stellt die Gesellschaft vor viele Fragen und Herausforderungen; bisherige Regeln lassen sich nur schwer auf aktuelle und zukünftige Gegebenheiten übertragen.“ Der Workshop lege den Fokus auf ein hochaktuelles Problem und widme sich den ethischen Problemen bei zwei exemplarischen autonomen Systemen, nämlich bei Roboterautos (Vortrag von Prof. Dr. Barbara Lenz, Leiterin Institut für Verkehrsforschung, Deutsches Zentrum für Luft- und Raumfahrt, Berlin) und autonomen Waffensystemen (Vortrag von Dr. Frank Sauer, Senior Researcher, Institut für Politikwissenschaft, Universität der Bundeswehr München). Der Workshop ist Teil des Dialogforums WISSENSWERTE 2015 vom 16. bis 17. November 2015. Die Programmplanung obliegt u.a. der Technischen Universität Dortmund, Partner sind Helmholtz-Gemeinschaft, Leibniz-Gemeinschaft, Max-Planck-Gesellschaft, Fraunhofer-Gesellschaft und Stifterband für die deutsche Wissenschaft. Das Programmheft enthält weitere Informationen.

Roboterhand

Abb.: Auf wen wird der Roboter zeigen?

Wen sollen das Auto und die Drohne töten?

Wen soll das autonome Auto töten? Darf es überhaupt töten? Wen soll die Drohne töten? Der Maschinenethiker Oliver Bendel befasst sich seit mehreren Jahren mit solchen Fragen. Bei watson.ch gibt es am 4. November alte und neue Antworten. Bendel spricht sich dafür aus, die Maschine nicht über Leben und Tod von Menschen entscheiden zu lassen. Dafür muss man das Roboterauto, wenn man es zulässt, in die Schranken weisen. Auf separaten Fahrspuren, zu bestimmten Uhrzeiten und mit reduzierter Geschwindigkeit entstehen weniger Unfälle und dadurch weniger Dilemmata. Zudem werden die Fahrzeuge für Skeptiker und Gegner berechenbarer, was ihrer Akzeptanz zuträglich ist. Überhaupt muss, so fordert Bendel, die Gesellschaft miteinbezogen werden. Am Rande wird auch auf Kampfroboter eingegangen. Der Maschinenethiker sagt dazu: „Ich habe zwar den Aufruf gegen Kampfroboter mitunterschrieben, aber ich muss zugeben, dass die Sache nicht ganz so schwarz-weiss ist, wie sie auf den ersten Blick scheint. Ein Kollege stellte schon vor einiger Zeit fest: Im Gegensatz zu Soldaten vergewaltigen Killerroboter nicht, sie brandschatzen nicht, sie plündern nicht. Sympathisch sind sie mir trotzdem nicht.“ (watson.ch, 4. November 2015) Der Beitrag kann über www.watson.ch/!106690026 aufgerufen werden.

fokker

Abb.: An diesem Jagdflugzeug war noch nichts autonom

Umweltfreundliche Roboterautos

An der Fachhochschule Nordwestschweiz FHNW untersucht ein Student seit Anfang Oktober 2015, ob Fahrerassistenzsysteme (FAS) und autonome Autos zur Verbesserung der Energieeffizienz, zur Ressourcenschonung und zum Umweltschutz beitragen können. FAS unterstützen den Lenker von Kraftfahrzeugen und übernehmen in bestimmten Fällen seine Aufgaben. Selbstständig fahrende oder autonome Autos bewegen sich als Prototypen durch die Städte und Landschaften, in den USA genauso wie in Europa und Asien. Im Projekt werden vorhandene umweltfreundliche Technologien betrachtet. Beispielsweise haben manche PKW eine Standby-Funktion, die sich vor Ampeln und in Staus aktivieren lässt. Es sollen aber auch neue Technologien für das Energiesparen, die Reduktion von Schadstoffemissionen, die Verkehrsoptimierung und -lenkung etc. vorgestellt und allenfalls vorgeschlagen werden. Auch LKW sollen einbezogen werden. Es wird bis Januar 2016 eine knappe Studie entstehen, die Möglichkeiten darstellt und diskutiert. In der Vertiefung Umwelt und Management im Studiengang Energie- und Umwelttechnik werden immer wieder hochaktuelle Fragestellungen definiert. Betreuer der Arbeit ist Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW.

beetle

Abb.: Können Roboterautos umweltfreundlich sein?

Auto und Ethik bei der IAA in Frankfurt

Das große Thema der IAA war im September 2015 das autonome Auto. Das zeigte sich auch im „IAA Spot – Das offizielle Magazin“. Darin wurden nicht zuletzt Bezüge zur Maschinenethik hergestellt. Der Artikel von Holger Holzer mit dem Titel „Das Autonomie-Dilemma“ beginnt mit den Sätzen: „Unsere Autos werden mit zunehmender Autonomie künftig auch über Leben und Tod von Menschen entscheiden müssen. Doch nach welchen Regeln soll das geschehen? Die Diskussion dazu hat gerade erst begonnen.“ Zu Wort kommen u.a. Daimler-Chef Dieter Zetsche und Maschinenethiker Oliver Bendel. Zetsche „forderte erst kürzlich eine ethische Debatte über Roboterautos und die branchenübergreifende Suche nach einem geeigneten Entscheidungs-Algorithmus“. Bendel ist skeptischer und schlägt vor, die Maschinen in komplexen Situationen, in denen das Weiterleben von Menschen auf dem Spiel steht, nicht selbstständig entscheiden zu lassen. Zudem will er die autonomen Autos in festgelegte Bereiche verbannen. Sven Hötitzsch, Experte für Roboterrecht, beantwortet die Schuldfrage im juristischen Sinne. Der Artikel kann hier abgerufen werden.

Train

Abb.: Immer wieder bemüht wird das Trolley-Problem

Wen soll das Roboterauto überfahren?

„Wen soll das autonome Auto lieber überfahren?“ Diesen Titel trägt ein Artikel, der am 14. September 2015 in der Online-Version der WELT erschienen ist; eine gedruckte Version folgte am 21. September. Interviewt wurden Eric Hilgendorf, Juraprofessor an der Universität Würzburg, und Oliver Bendel, Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik an der Hochschule für Wirtschaft FHNW. Auch Politiker werden zitiert: „In rund drei Jahren werden 80 Prozent aller Neuwagen in Deutschland miteinander vernetzt sein“, sage Verkehrsminister Alexander Dobrindt voraus. „Dann können die Autos erkennen, wo andere Fahrzeuge sind, wie weit weg, wie schnell. Sie können Informationen von diesen über den Straßenzustand, die Verkehrsdichte, die Witterungsverhältnisse bekommen.“ (WELT, 14. September 2015) Oliver Bendel konzipiert moralische Maschinen, ist aber skeptisch in Bezug auf komplexe moralische Maschinen, also auch in Bezug auf autonome Autos, die in offenen Welten eine Vielzahl von Entscheidungen – manche mit moralischen Implikationen – treffen müssen. Er ist der Meinung, dass sich gewisse Dilemmata nicht in befriedigender Weise lösen lassen.

Schienen_grau

Abb.: Was macht man, damit das Auto nicht vom rechten Weg abkommt?

Auch Maschinen brauchen Moral

Im Beitrag „Auch Maschinen brauchen Moral“ von Marlene Nowotny wird auf die Forschung von Matthias Scheutz, Professor für Cognitive and Computer Science und Direktor des Human-Robot Interaction Laboratory an der Tufts University in Massachusetts, eingegangen. „Je selbstständiger diese Maschinen in sozialen Kontexten agieren, desto besser müssen sie mit Konfliktsituationen umgehen können.“ (Website ORF, 1. September 2015) Scheutz arbeite „daran, Robotern genau diese Fähigkeit zu geben“. „Eine solche ethische Kontrollarchitektur für Roboter könnte auch bei selbstfahrenden Autos zum Einsatz kommen. Die entsprechende Robotertechnologie ist hier bereits vorhanden – die Fahrzeuge können u.a. einschätzen, ob der Fahrer vor ihnen risikoaffin ist oder nicht -[,] aber die selbstfahrenden Autos sind nicht in der Lage, in Krisensituationen Entscheidungen zu treffen.“ (Website ORF, 1. September 2015) Im Gegensatz zu Autos mit Notbremsassistenten – die Technik ist also teilweise verfügbar, an der Moral wird noch gefeilt. Interessant ist der Hinweis auf aktuelle Forschungsergebnisse von Scheutz: „In solchen Situationen ein Urteil zu bilden, ist kompliziert genug. Doch es kommt erschwerend hinzu, dass Menschen an Roboter höhere ethische Erwartungen haben als an ihre Mitmenschen.“ Der Beitrag ist am 1. September 2015 erschienen und kann über science.orf.at/stories/1762399/ abgerufen werden.

Asimov für Autos

In seinem Artikel „Asimowsche Regeln für den Asphaltdschungel: Autonome Fahrzeuge werfen grundlegende ethische Fragen auf“ lässt Hans-Arthur Marsiske verschiedene Experten zu Wort kommen. Der Maschinenethiker Oliver Bendel, Hochschule für Wirtschaft FHNW, schätzt moralische Maschinen, konzipiert sie auch selbst, ist aber der Meinung, dass sie bestimmte Entscheidungen nicht übernehmen sollten, etwa über Leben und Tod von Menschen im Straßenverkehr. Patrick Lin, Philosoph an der California Polytechnic State University, ist der Ansicht, „dass autonome Fahrzeuge bei einem unvermeidlichen Zusammenstoß in der Lage sein sollten, die Kollision zu optimieren, also so zu reagieren, dass der Schaden möglichst gering ausfällt“. Er bezieht Menschen ausdrücklich mit ein; die Maschine wird also darüber urteilen, wer überleben darf und wer sterben muss. Der Jurist Eric Hilgendorf befürchtet grundsätzlich, „dass autonome Fahrzeuge das deutsche Rechtsverständnis unter Druck setzen könnten, da es schwieriger zu programmieren sei als das angelsächsische“. Sowohl Lin als auch Bendel plädieren für eine breite gesellschaftliche Diskussion. Der Beitrag ist am 28. August 2015 im Onlinemagazin Telepolis erschienen und kann über www.heise.de/tp/artikel/45/45810/1.html abgerufen werden. Einen ähnlichen Artikel des selben Autors hat die Zeitung Neues Deutschland am Tag darauf abgedruckt: „Das moralische Auto: Lässt sich die Steuerung autonomer Fahrzeuge so programmieren, dass sie menschlichen Verhaltensregeln folgen?“, verfügbar über www.pressreader.com.

Bully

Abb.: Da war die Welt noch in Ordnung