Schlagworte: Moralische Maschinen

Podcast zur Maschinenethik

„Perspektiven“ ist eine Gesprächsreihe zu Themen der Wirtschaftsinformatik, die Perspektiven auf Forschung und Entwicklung, Studium und Lehre und Einblicke in die Praxis behandelt. Unterstützt wird sie durch den Fachbereich Wirtschaftsinformatik der Gesellschaft für Informatik. „Wirtschaftsinformatik ist eine Wissenschaft, die Informationssysteme, ihre Gestaltung und Nutzung in organisatorischen Handlungssystemen untersucht … und damit vielschichtige Bezüge zu anderen Wissenschaften aufweist: Dabei ist nicht nur an die Informatik und Betriebswirtschaftslehre zu denken, sondern auch an die Ingenieurwissenschaften, die Soziologie und die Philosophie, insbesondere die Sprachphilosophie.“ (Website Perspektiven) In den Gesprächen dieser Reihe unterhält sich Stefan Strecker mit seinen Gästen „über ihre Perspektiven auf Themenfelder und Fragestellungen der Wirtschaftsinformatik und Bezüge zu angrenzenden Wissenschaften“ (Website Perspektiven). Am 12. Februar 2019 ist der Podcast mit Oliver Bendel zur Maschinenethik erschienen. Er kann über perspektivenpodcast.podigee.io/12-maschinenethik-gesprach-mit-oliver-bendel aufgerufen werden.

Abb.: Mikrofone warten auf die Aufnahme

Kriegsroboter und Maschinenethik

Im „Handbuch Maschinenethik“, seit 2016 von Prof. Dr. Oliver Bendel herausgegeben, ist der 17. Beitrag erschienen, mit dem Titel „Autonome Waffensysteme/Kriegsroboter“. Autorin ist Prof. Dr. Catrin Misselhorn. Aus dem Abstract: „Kriegsroboter sind der kontroverseste Anwendungsbereich der Maschinenethik. Viele namhafte Vertreter der KI-Forschung und prominente Wissenschaftler fordern sogar ein Verbot letaler autonomer Waffensysteme. Dieser Beitrag setzt sich mit dem Versuch auseinander, autonome Waffensysteme im Rahmen der Maschinenethik mit einem Ethikmodul auszustatten. Die moralischen Grundprinzipien leiten sich aus dem Völkerrecht ab, welches auf der traditionellen Theorie des gerechten Kriegs beruht. Argumente zugunsten von Kriegsrobotern mit einem Ethikmodul werden ebenso behandelt wie die Kritik daran. Die drei wichtigsten Gegenargumente betreffen das Entstehen einer Verantwortungslücke, den Wert der Möglichkeit, anders zu handeln, sowie die Annahme einer Pflicht zu töten, welche der Einsatz autonomer Waffensysteme voraussetzt. Zum Schluss wird kurz auf mögliche Parallelen zum autonomen Fahren eingegangen.“ Die nächsten fünf Beiträge, u.a. von Prof. Dr. Julian Nida-Rümelin, Prof. Dr. Dr. Eric Hilgendorf und Prof. Dr. Armin Grunwald, erscheinen in den nächsten Wochen. Dann kommt die gedruckte Ausgabe auf den Markt. Alle bisherigen Beiträge sind über link.springer.com/referencework/10.1007/978-3-658-17484-2 verfügbar.

Abb.: Eine fremdartige Waffe

Über moralische und unmoralische Maschinen

„Moralische Maschinen sind mehr oder weniger autonome Systeme, die über moralische Fähigkeiten verfügen. Entwickelt werden sie von der Maschinenethik, einer Gestaltungsdisziplin im spezifischen Sinne. ‚Maschinelle Moral‘ ist ein Terminus technicus wie ‚künstliche Intelligenz‘. Man spielt auf ein Setting an, das Menschen haben, und man will Komponenten davon imitieren bzw. simulieren. So kann man etwa moralische Regeln adaptieren. Moralische und unmoralische Maschinen sind nicht gut oder böse, sie haben keinen freien Willen und kein Bewusstsein, keine Intuition und keine Empathie.“ So beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Es werden mehrere Beispiele für moralische Maschinen genannt, etwa spezifische Pflegeroboter und spezifische Chatbots. Am Ende heißt es: „Gerade bei komplexen moralischen Maschinen, die über Leben und Tod befinden sollen, ist Vorsicht angezeigt. Das autonome Auto könnte Menschen quantifizieren und qualifizieren, aber es gibt gute Gründe gegen den Versuch, ihm dies beizubringen.“ Der Beitrag ist Ende Januar 2019 erschienen und kann über wirtschaftslexikon.gabler.de/definition/moralische-maschinen-119940 aufgerufen werden.

Abb.: Autos sollten nicht über Leben und Tod von Menschen entscheiden

Moralische Maschinen mit maschinellem Lernen

Michael und Susan Leigh Anderson stellen beim Berliner Kolloquium 2019 ihre neuesten Ergebnisse aus der Disziplin der Maschinenethik vor. Üblicherweise werden sogenannten moralischen Maschinen starre Regeln gegeben, an die sie sich sozusagen sklavisch halten. Dies hat einige Vorteile, aber auch ein paar Nachteile, denen man mit Hilfe von maschinellem Lernen entgegentreten kann. Genau diesen Ansatz haben die Andersons zusammen mit einem Forscher vom Max-Planck-Institut für Intelligente Systeme verfolgt, wobei die Altenpflege als Kontext diente: „Contrary to those who regard such a goal as unattainable, Michael and Susan Leigh Anderson … and Vincent Berenz … have succeeded in programming a SoftBank Nao robot with a set of values that determines its behavior while aiding a person in a simulated eldercare environment. This unprecedented accomplishment uses machine learning to enable the robot to discern how each of its actions would satisfy or violate its ethical duties in the current situation and decide the best action to take.“ (Machine Ethics) Die Ergebnisse werden 2019 in den Proceedings of the IEEE publiziert. Der wissenschaftliche Leiter des 23. Berliner Kolloquiums zu Pflegerobotern ist Oliver Bendel. Die Anmeldung erfolgt über die Website der Daimler und Benz Stiftung.

Abb.: Ein Nao-Roboter (Foto: SoftBank/Philippe Dureuil, CC-BY-SA-4.0)

Grundfragen der Maschinenethik

Grundfragen der Maschinenethik“ von Catrin Misselhorn ist ein weiteres Grundlagenwerk zu dieser Disziplin, die erst seit ca. zehn Jahren besteht und moralische Maschinen bzw. maschinelle Moral zum Gegenstand hat. Aus dem Klappentext: „Maschinen werden immer selbständiger und intelligenter. Dabei geraten sie in Situationen, die moralische Entscheidungen verlangen. Doch können Maschinen überhaupt moralisch handeln, dürfen oder sollen sie es sogar? Wie baut man eine moralische Maschine? Mit diesen und ähnlichen Fragen beschäftigt sich die Maschinenethik. Catrin Misselhorn erläutert die Grundlagen dieser neuen Disziplin an der Schnittstelle von Philosophie, Informatik und Robotik am Beispiel von autonomen Waffensystemen, Pflegerobotern und autonomem Fahren.“ (Klappentext) Die renommierte Stuttgarter Philosophin ist auch Autorin des „Handbuchs Maschinenethik“ – dieses wird von Oliver Bendel aus Zürich herausgegeben und erscheint bei Springer.

GOODBOT und LIEBOT im Handbuch

Anfang Juli 2018 sind zwei Beiträge im Handbuch zur Maschinenethik bei Springer erschienen. Sie stammen von Oliver Bendel, der auch der Herausgeber ist, und tragen den Titel „Das GOODBOT-Projekt“ und „Das LIEBOT-Projekt“. In den Beiträgen werden zwei Artefakte der Maschinenethik vorgestellt, die an der Hochschule für Wirtschaft FHNW 2013 bzw. 2016 entstanden sind. Der LÜGENBOT ist international bekannt geworden. Seit Ende 2016 sitzen renommierte Wissenschaftlerinnen und Wissenschaftler an ihren Kapiteln zum „Handbuch Maschinenethik“. Ende 2018 soll das gedruckte Werk erscheinen. Mit dabei sind etwa Luís Moniz Pereira aus Lissabon, einer der bekanntesten Maschinenethiker der Welt, und Roboterethikerin Janina Loh, die in Wien mit Mark Coeckelbergh zusammenarbeitet. Ein Beitrag von Dr. Stefan Ullrich, des Sprechers der GI-Fachgruppe „Informatik und Ethik“, kommt in wenigen Tagen heraus. Eine Übersicht über die Beiträge, die laufend elektronisch veröffentlicht werden, findet sich über link.springer.com/referencework/10.1007/978-3-658-17484-2

Abb.: Das LIEBOT-Projekt

Brauchen Roboter eigentlich Moral?

In der neuen Ausgabe der Zeitschrift cooperativ (2/18) widmet man sich der Frage, ob Roboter Moral brauchen. Oliver Bendel zeigt seit einigen Jahren, wie maschinelle Moral entsteht, aus der Maschinenethik heraus, in Zusammenarbeit mit Künstlicher Intelligenz und Robotik. Ob Roboter Moral brauchen, muss von Fall zu Fall entschieden werden. Es bieten sich Stellvertretermaschinen mit einer Stellvertretermoral an, die der Besitzer oder Benutzer mit Hilfe eines Moralmenüs erzeugen kann, mit einer gewissen Freiheit, die auf der einen Seite von Voreinstellungen, auf der anderen Seite von Verordnungen und Gesetzen eingeschränkt wird. Stellvertretermaschinen dieser Art können in geschlossenen oder halboffenen Umgebungen unterwegs sein, etwa als Staubsaugerroboter im Haushalt oder als Sicherheitsroboter auf dem Betriebsgelände. Oliver Bendel kommt in dem Beitrag von Hermann Fritzl ebenso zu Wort wie Matthias Scheutz von der Tufts University School of Engineering und Bertram F. Malle von der Brown University. Der Artikel mit dem Titel „Brauchen Roboter Moral?“ kann über issuu.com/cooperativ_oegv/docs/cooperativ_02_18_web aufgerufen werden. Zudem steht er hier als PDF zur Verfügung.

Abb.: Roboter in Aktion

Moralmenü (MOME) für LADYBIRD

LADYBIRD, der tierfreundliche Staubsaugerroboter, wurde 2014 erdacht und 2017 an der Stanford University (AAAI Spring Symposia) vorgestellt und dann an der School of Business FHNW als Prototyp umgesetzt. Im Kontext des Projekts wurde ein Menü vorgeschlagen, mit welchem der Benutzer die Moral des Staubsaugerroboters einstellen kann. Dieser verschont, wie der Name andeutet, Marienkäfer. Auch Spinnen sollte er am Leben lassen. Wer aber zum Beispiel partout bestimmte Insekten einsaugen lassen will, könnte dies über ein Menü festlegen. Wichtig ist, dass LADYBIRD insgesamt tierfreundlich bleibt. Über das Menü wird, so war die Idee, eine Stellvertretermoral im Detail entwickelt. Der Staubsaugerroboter als Stellvertretermaschine macht das, was der Besitzer auch machen würde. 2018 kam das Moralmenü (MOME) für LADYBIRD als Designstudie auf die Welt. Dieses kann man mit weiteren Ansätzen und Technologien koppeln. So könnte der Benutzer erfahren, wie andere entschieden haben, und wie die persönliche Moral, die er auf die Maschine übertragen hat, eingeschätzt wird. Auch könnte er gewarnt und aufgeklärt werden, wenn er nicht nur Ungeziefer, sondern auch Spinnen einsaugen lassen will.

Abb.: Moralmenü für LADYBIRD

Mikroorganismen und Moralmaschinen

Am 2. und 3. März 2018 fand die „3. KMG Jahrestagung“ im Ellington Hotel Berlin statt. In dem Gebäude aus den 30er-Jahren trafen sich Mediziner und Pfleger, um sich zu informieren und miteinander zu kommunizieren. Am zweiten Tag standen „Roboter in Medizin und Pflege“ auf dem Programm. Den Auftakt machte Prof. Dr. Dr. h.c. Viola Vogel (Departement Gesundheitswissenschaften und Technologie der ETH Zürich) mit ihrem Vortrag über bakterielle Nanoroboter. Zahlreiche Videos und Erklärungen zeigten, dass die Mikroorganismen hochkomplexe Systeme sind, die man nutzbar machen kann. Es folgte Prof. Dr. Oliver Bendel (Dozent und Forscher am Institut für Wirtschaftsinformatik, Hochschule für Wirtschaft, Fachhochschule Nordwestschweiz) mit „Pflegeroboter und Assistenzsysteme in der Pflege – aus Sicht der Ethik“. Er stellte Operations-, Therapie- und Pflegeroboter vor und nahm dann sowohl die Perspektive der Informations- als auch der Maschinenethik ein. Die KMG-Kliniken gehören nach eigenen Angaben zu den erfolgreichsten Gesundheitskonzernen im Nordosten Deutschlands. „Das 1991 gegründete Unternehmen baute auf der 100-jährigen Tradition des Kur- und Klinikbetriebes von Bad Wilsnack im Land Brandenburg auf und entwickelte sich seitdem dynamisch zu einem vielseitigen Dienstleister rund um die Gesundheit.“ (Website KMG)

Abb.: Mikroorganismen als Roboter

Gegen das Moralisieren

Über moralische und unmoralische Maschinen diskutierte Christoph Kucklick, Chefredakteur von GEO, mit Oliver Bendel, Maschinenethiker und Informationsethiker am 14. November 2017 im KörberForum in Hamburg. „Selbstfahrende Autos, Pflegeroboter, smarte Helfer: In unserem Alltag treffen wir auf immer klügere Maschinen. Über ein Bewusstsein oder eigenen Willen verfügen sie zwar nicht, dennoch nehmen sie uns immer mehr Entscheidungen ab. Das wirft auch moralische Fragen auf. Soll das Auto in einem Unfall eher die Insassen schonen oder die Fußgänger am Straßenrand? Darf ein Roboter lebenserhaltende Maschinen abschalten, wenn der Patient das wünscht?“ So die Ankündigung der Körber-Stiftung auf www.koerber-stiftung.de. Der Saal war voll besetzt, das Gespräch intensiv. Es dauerte zwei Stunden, und danach war Raum für zahlreiche Fragen aus dem Publikum. Oliver Bendel stellte klar, dass er als Ethiker kein Interesse am Moralisieren hat (nur am „Moralisieren“ von Maschinen), sondern an dem, was das Gute und das Böse ausmacht. Er entwickelt im Labor sowohl moralische als auch unmoralische Maschinen, sozusagen Artefakte der Maschinenethik, die er dann erforscht.