Schlagworte: Einfache moralische Maschinen

Tödliche Entscheidungen

„Wie Roboter über Menschenleben entscheiden“ lautet der Titel eines Artikels von Katrin Haas, der am 25. November 2015 in der Rheinischen Post erschienen ist. Im Teaser wird gesagt: „Ob im Verkehr oder in der Pflege – überall könnten in Zukunft Roboter moralische, manchmal tödliche Entscheidungen treffen.“ „Ich rate von Maschinen ab, die über Leben und Tod entscheiden“, wird der Maschinenethiker Oliver Bendel (Hochschule für Wirtschaft FHNW) zitiert, und er „wirbt dafür, nur einfache moralische Maschinen zu entwickeln“. Seine Forschung konzentriert sich stark auf Begegnungen von Maschinen mit Tieren. Und in diesem Zusammenhang ist er dafür, möglichst viel Leben zu retten. Auch Catrin Misselhorn von der Universität Stuttgart wird zitiert. Auf die Frage, wie lange es noch dauert, „bis Roboter sich um Menschen kümmern“, antwortet sie: „Vor Kurzem hätte ich gesagt, bis das umgesetzt wird, dauert es noch. Aber jetzt im Moment erlebt die Branche einen großen Auftrieb durch die Diskussion um autonom fahrende Autos.“ Die Online-Version des Artikels kann über www.rp-online.de/wirtschaft/wie-roboter-ueber-menschenleben-entscheiden-aid-1.5584750 abgerufen werden.

Roboter mit Nasen

Beim Swiss ICT Symposium vom 10. bis 11. November 2015 gab es ein breites Spektrum von Vorträgen und Themen. Prof. Dr. Manfred Spitzer (Hirnforscher und Psychiater) und Sascha Lobo (SPON-Kolumnist) unterhielten als Keynoter das Publikum mit gewagten Thesen und anschaulichen Beispielen. Im gut besuchten Track „Internet der Dinge“ referierte Moritz Köhler (Director of Software Engineering, Sensirion AG). „IoT-Geräte und Mobiltelefone verschmelzen zusehends und ermöglichen völlig neue Anwendungen und Geschäftsmodelle.“ (www.swissict.ch) Was wird möglich, so fragte er sich, wenn Telefone immer mehr Kenntnis von ihrer Umwelt haben? Und lieferte „eine Einführung in die Sensorik in Mobiltelefonen und deren Bedeutung“. Smartphones, die Atem-, Stadt- und Raumluft analysieren können, lassen Behörden, Unternehmen und Privatleute aufhorchen. Auch Roboter mit Nasen werden für Staunen sorgen und nicht zuletzt bei der Tier-Maschine-Interaktion von Bedeutung sein. „Moralische Maschinen“ lautete der Titel des Vortrags von Prof. Dr. Oliver Bendel (Professor für Wirtschaftsinformatik und Ethik, Hochschule für Wirtschaft FHNW): „Autos bremsen rechtzeitig vor Menschen ab. Serviceroboter bringen Medikamente und sind nett zu uns. Manche Dinge, Roboter und (teil-)autonome Maschinen werden aber falsche oder interessengeleitete Entscheidungen treffen. Einfache moralische Maschinen könnten eine Lösung sein.“ (www.swissict.ch) Vielleicht entdeckt auch die Maschinenethik die Olfaktorik und lässt Roboter die Gerüche von Menschen analysieren und automatisch die dazu passenden Düfte ausströmen. Die Maschine wird insofern gut, als wir sie gut riechen können. Die Vortragsfolien stehen über www.swissict.ch zur Verfügung.

Tissues

Abb.: Brauchen Roboter bald Taschentücher?

Auto und Ethik bei der IAA in Frankfurt

Das große Thema der IAA war im September 2015 das autonome Auto. Das zeigte sich auch im „IAA Spot – Das offizielle Magazin“. Darin wurden nicht zuletzt Bezüge zur Maschinenethik hergestellt. Der Artikel von Holger Holzer mit dem Titel „Das Autonomie-Dilemma“ beginnt mit den Sätzen: „Unsere Autos werden mit zunehmender Autonomie künftig auch über Leben und Tod von Menschen entscheiden müssen. Doch nach welchen Regeln soll das geschehen? Die Diskussion dazu hat gerade erst begonnen.“ Zu Wort kommen u.a. Daimler-Chef Dieter Zetsche und Maschinenethiker Oliver Bendel. Zetsche „forderte erst kürzlich eine ethische Debatte über Roboterautos und die branchenübergreifende Suche nach einem geeigneten Entscheidungs-Algorithmus“. Bendel ist skeptischer und schlägt vor, die Maschinen in komplexen Situationen, in denen das Weiterleben von Menschen auf dem Spiel steht, nicht selbstständig entscheiden zu lassen. Zudem will er die autonomen Autos in festgelegte Bereiche verbannen. Sven Hötitzsch, Experte für Roboterrecht, beantwortet die Schuldfrage im juristischen Sinne. Der Artikel kann hier abgerufen werden.

Train

Abb.: Immer wieder bemüht wird das Trolley-Problem

Asimov für Autos

In seinem Artikel „Asimowsche Regeln für den Asphaltdschungel: Autonome Fahrzeuge werfen grundlegende ethische Fragen auf“ lässt Hans-Arthur Marsiske verschiedene Experten zu Wort kommen. Der Maschinenethiker Oliver Bendel, Hochschule für Wirtschaft FHNW, schätzt moralische Maschinen, konzipiert sie auch selbst, ist aber der Meinung, dass sie bestimmte Entscheidungen nicht übernehmen sollten, etwa über Leben und Tod von Menschen im Straßenverkehr. Patrick Lin, Philosoph an der California Polytechnic State University, ist der Ansicht, „dass autonome Fahrzeuge bei einem unvermeidlichen Zusammenstoß in der Lage sein sollten, die Kollision zu optimieren, also so zu reagieren, dass der Schaden möglichst gering ausfällt“. Er bezieht Menschen ausdrücklich mit ein; die Maschine wird also darüber urteilen, wer überleben darf und wer sterben muss. Der Jurist Eric Hilgendorf befürchtet grundsätzlich, „dass autonome Fahrzeuge das deutsche Rechtsverständnis unter Druck setzen könnten, da es schwieriger zu programmieren sei als das angelsächsische“. Sowohl Lin als auch Bendel plädieren für eine breite gesellschaftliche Diskussion. Der Beitrag ist am 28. August 2015 im Onlinemagazin Telepolis erschienen und kann über www.heise.de/tp/artikel/45/45810/1.html abgerufen werden. Einen ähnlichen Artikel des selben Autors hat die Zeitung Neues Deutschland am Tag darauf abgedruckt: „Das moralische Auto: Lässt sich die Steuerung autonomer Fahrzeuge so programmieren, dass sie menschlichen Verhaltensregeln folgen?“, verfügbar über www.pressreader.com.

Bully

Abb.: Da war die Welt noch in Ordnung

Tagung „Roboterethik“

Die Tagung „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“ findet am 24. November 2015 in Berlin statt. Veranstalter sind Daimler und Benz Stiftung sowie Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (ceres). Auf der Website heißt es: „Während der eintägigen Veranstaltung soll aus verschiedenen Blickwinkeln beleuchtet werden, wie autonome Systeme unser Leben und unsere Gesellschaft verändern und welche ethischen Spannungsfelder hierdurch in unterschiedlichen Lebensbereichen aufgeworfen werden bzw. zukünftig entstehen können. Neben Ausführungen zu Entwicklungsstand, Eigenschaften und Einsatzmöglichkeiten autonomer Systeme soll deren Einsatz in den Bereichen Gesundheit, Wirtschaft, Politik und Verkehrswesen insbesondere aus ethischer, philosophischer und sozialwissenschaftlicher Perspektive betrachtet werden.“ (Website ceres) Beiträge gibt es u.a. von Prof. Dr.-Ing. Alin Albu-Schäffer, Deutsches Zentrum für Luft- und Raumfahrt, Acting Head of the Institute of Robotics and Mechatronics, Prof. Dr. rer. nat. Jochen Steil, Universität Bielefeld, Managing Director Research Institute for Cognition and Robotics, und Prof. Dr. phil. Catrin Misselhorn, Universität Stuttgart, Direktorin des Instituts für Philosophie und Inhaberin des Lehrstuhls für Wissenschaftstheorie und Technikphilosophie. Prof. Dr. oec. Oliver Bendel, Maschinenethiker und Wirtschaftsinformatiker an der Hochschule für Wirtschaft FHNW, hält den Vortrag „Die Moral in der Maschine“. Weitere Informationen über ceres.uni-koeln.de.

Robotcar

Abb.: Ist das Roboterauto gut oder böse?

Brauchen Maschinen eine Moral?

Brauchen Maschinen eine Moral? Zu diesem Thema führte der Hessische Rundfunk am 23. April 2015 ein Interview mit dem Maschinenethiker und Wirtschaftsinformatiker Oliver Bendel. Gesprochen wurde im Studio in Zürich (SRF) bzw. Frankfurt über selbstständig fahrende Autos, aber auch über tierfreundliche Staubsauger. Moralisieren – so der Sprachgebrauch des Vertreters der relativ neuen Disziplin – kann man unterschiedliche Maschinen. Insbesondere einfache sind geeignet, und aus ihnen kann man einfache moralische Maschinen machen. Sie werden sozusagen etwas klüger und etwas besser auch im moralischen Sinne. Oliver Bendel ist in seiner Forschung bereits ganz konkret und praktisch geworden. Er hat annotierte Entscheidungsbäume entwickelt und stellt diese im Herbst 2015 auf einer Wirtschaftsinformatikkonferenz in Luzern vor. Der Beitrag im Hessischen Rundfunk wird voraussichtlich im September 2015 ausgestrahlt. Weitere Informationen folgen.

Entscheidungsbäume für moralische Maschinen

Immer mehr teilautonome und autonome Maschinen müssen Entscheidungen treffen, die moralische Implikationen haben. Die Maschinenethik, die als Pendant zur Menschenethik aufgefasst werden kann, untersucht Möglichkeiten und Grenzen moralischer Maschinen. Oliver Bendel hat seit 2014 diverse Designstudien erarbeitet und damit Vorschläge für Aussehen und Funktionen unterbreitet. Noch wenig benutzt werden Entscheidungsbäume zur Konzeption von moralischen Maschinen. Ein neuer Beitrag von Oliver Bendel konzentriert sich auf einfache moralische Maschinen, die tierfreundlich sein sollen, und es wird für jede ausgewählte Aufgabe ein annotierter Entscheidungsbaum modelliert. Beispielsweise wird dargestellt, welche Bremsungen ein Roboterauto für wen durchführen soll. Der Beitrag erscheint nach endgültiger Annahme durch den Arbeitskreis Wirtschaftsinformatik (AKWI) im Herbst dieses Jahres. Tagungs- und Erscheinungsort ist Luzern.

Baum

Abb.: Kein Entscheidungsbaum

Moral und Maschine

In einem Artikel in der Welt am Sonntag (Sonderausgabe Industrie 4.0) finden sich Aussagen von Oliver Bendel zu moralischen Maschinen. Vorausgegangen war ein intensiver Austausch mit dem Redakteur Jürgen Bröker. Die Industrie und manche Wissenschaftler wollen nach Meinung von Bendel möglichst viele Roboter und Maschinen bauen und verkaufen, möglichst viele teilautonome und autonome Systeme, die selbstständig handeln. In einigen Bereichen sei das tatsächlich sinnvoll, etwa wenn etwas für Menschen zu gefährlich, zu zeitraubend oder zu aufwändig und zugleich eine gewisse Urteilskraft vonnöten wäre. In der intelligenten Fabrik nehmen Roboter dem Menschen anstrengende Tätigkeiten ab und arbeiten mit ihm Hand in Hand. Das ist u.a. ein Thema der sozialen Robotik. Bedauerlicherweise werden die Roboter auch Menschen ersetzen. In der Industrie 4.0 braucht es kaum noch Arbeiter. Im Militär erträumt man sich Drohnen und Kampfroboter, die selbstständig technische und menschliche Ziele identifizieren und eliminieren. Die Drohnen müssen dabei sehr komplexe moralische Entscheidungen treffen. Bendel ist nicht in der militärischen Forschung tätig. Und er wehrt sich gegen eine massenhafte Ausbreitung der Maschinen. Wenn man eine gewisse Anzahl in übersichtliche Situationen entlässt und sie besser im doppelten Sinne macht, findet er das nicht schlecht. Er fordert einfache moralische Maschinen. Komplexe moralische Maschinen wie Roboterautos, die im Straßenverkehr selbstständig entscheiden, ob sie die Frau, den Mann oder die Gruppe spielender Kinder töten sollen, wenn die Bremsen versagen und keine Ausweichmöglichkeit mehr besteht, seien keine gute Idee. Manche Industrievertreter möchten aber genau das haben, hochgetunte Maschinen mit einer komplexen Moral. Der Forscher glaubt, dass die Gesellschaft das nicht akzeptieren wird. Der Artikel mit dem Titel „Moral und Maschine“ ist am 12. April 2015 erschienen. Zusätzlich zur Papierversion gibt es eine Online-Version mit dem Titel „Wie viel Moral muss eine Maschine haben?“.

 

Die Autos in die Schranken weisen

In seiner wenig bekannten Kurzgeschichte „Sally“ aus dem Jahre 1953 beschreibt der große Science-Fiction-Autor Isaac Asimov in visionärer Weise die Funktionen sowie die Chancen und Risiken selbstständig fahrender Autos. Heute nehmen Fahrerassistenzsysteme dem Lenker immer mehr Aktionen ab und unterstützen ihn in vielfältiger Weise. Das autonome Auto ist schon bald nicht mehr Prototyp, sondern Alltag. Es wird in Situationen geraten, in denen moralische Fähigkeiten von Vorteil sind. Die einen plädieren für komplexe Fähigkeiten, die anderen für einfache. In der Theorie ist alles denkbar. Für die Praxis spricht sich Oliver Bendel in seinem Artikel „Die Maschinenstürmer des Informationszeitalters“ für einfache moralische Maschinen in wenig komplexen Kontexten aus. Für PKW, die beschränkt sind und werden in ihren Möglichkeiten. Es wird nicht nur die Perspektive der Maschinenethik, sondern auch der Informationsethik eingenommen. Der Beitrag ist am 5. März 2015 in der Zeitschrift ICTkommunikation erschienen und kann über ictk.ch aufgerufen werden.

Entscheidungsbaum_neu

Abb.: Entscheidungsbaum für eine Bremsung bei autonomen Autos

Gute Drohne, böse Drohne

„Eine Drohne ist ein unbemanntes Luft- oder Unterwasserfahrzeug, das entweder von Menschen ferngesteuert oder von einem integrierten oder ausgelagerten Computer gesteuert und damit teil- oder vollautonom wird.“ Mit diesen Worten beginnt ein neuer Beitrag von Oliver Bendel, der sich dem Begriff und den Funktionen von Unmanned Aerial Vehicles (UAV) widmet. Am Ende wird die Perspektive der Ethik eingenommen: „Die Informationsethik interessiert, ob die informationelle Autonomie eingeschränkt oder erweitert wird und welche Konsequenzen eine feindliche Übernahme der Drohne hat. In der Technikethik wird diese als Gerät in den Vordergrund gerückt und nach dessen Omnipräsenz und der Abhängigkeit von diesem gefragt. Die Abhängigkeit ist wiederum ein Thema der Informationsethik, vor allem wenn das Gerät als Computer und die Datenanalyse und -nutzung im Mittelpunkt stehen. Insofern sich die Maschinenethik teil- oder vollautonomen, intelligenten Systemen widmet, sind ihre Erkenntnisse in Bezug auf Drohnen relevant, wenn diese selbst Entscheidungen verantworten und Handlungen vollziehen oder selbstständig Informationen filtern.“ Der Artikel findet sich seit 5. März 2015 im Wirtschaftslexikon von Gabler und Springer. Er kann über http://wirtschaftslexikon.gabler.de/Definition/drohne.html aufgerufen werden.