Kategorie: Roboterethik

Sollten wir Roboter köpfen?

Sollten wir Roboter köpfen oder anderweitig bestrafen? Im Moment sicherlich nicht. Im „Handbuch Maschinenethik“, seit 2016 von Prof. Dr. Oliver Bendel herausgegeben, ist der 18. Beitrag erschienen, mit dem Titel „Maschinenethik und strafrechtliche Verantwortlichkeit“. Autorin ist Dr. Monika Simmler. Aus dem Abstract: „Handlungen sind zunehmend das Resultat eines Zusammenwirkens von Mensch und (teil-)autonomer Maschine. Das Verhalten dieser Maschinen lässt sich weder dem Menschen noch der Technik selbst ohne Weiteres als Handlung zurechnen. Dieser Herausforderung für die strafrechtliche Verantwortungszuschreibung nimmt sich der vorliegende Beitrag an. Es wird festgestellt, dass Maschinen keine Strafrechtssubjekte darstellen, was allerdings nicht für alle Zeiten gelten muss. Insbesondere die Emergenz moralischer Handlungsfähigkeit von Technik könnte zu einem Wandel beitragen. Bis dahin steht jedoch die Verantwortlichkeit der Menschen im Zentrum. Sie sind gefordert, adäquate Sorgfalt walten zu lassen. Dabei kann gerade das Anliegen der Maschinenethik – die Moralimplementation – zur eigentlichen Sorgfaltspflicht werden. Die Disziplin entfaltet damit Relevanz für das Strafrecht, hängen doch maschinelle Moral, Handlungsträgerschaft und Verantwortung eng zusammen.“ Die letzten vier Beiträge erscheinen in den nächsten Wochen. Alle bisherigen sind über link.springer.com/referencework/10.1007/978-3-658-17484-2 verfügbar.

Abb.: Sollten wir Roboter köpfen?

Die programmierte Moral

Im Februar 2019 ist „Roboter in der Gesellschaft: Technische Möglichkeiten und menschliche Verantwortung“ bei Springer erschienen, herausgegeben von Christiane Woopen und Marc Jannes. Die Beiträge stammen von Alin Albu-Schäffer („Von drehmomentgeregelten Roboterarmen zum intrinsisch nachgiebigen humanoiden Roboter“), Jochen J. Steil („Roboterlernen ohne Grenzen? Lernende Roboter und ethische Fragen“), Oliver Bendel („Die programmierte Moral“), Catrin Misselhorn („Moralische Maschinen in der Pflege? Grundlagen und eine Roadmap für ein moralisch lernfähiges Altenpflegesystem“), Hartmut Hirsch-Kreinsen („Autonome Systeme in der industriellen Arbeitswelt“) und Johannes Weyer („Autonome Technik außer Kontrolle? Möglichkeiten und Grenzen der Steuerung komplexer Systeme in der Echtzeitgesellschaft“). Norbert Lammert schreibt zu „Roboterethik. Zur Rolle der Politik“. Das Buch geht zurück auf die Tagung „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“, veranstaltet von ceres und Daimler und Benz Stiftung am 24. November 2015 in Berlin. Weitere Informationen über www.springer.com/gp/book/9783662577646#.

Abb.: Maschinelle Moral gibt es seit Jahren

Über den Einsatz von Pflegerobotern

„Noch ist nicht ausgemacht, wohin, fest aber steht: Im Zuge der Digitalisierung verschieben sich Grenzen.“ So beginnt die Einführung von Andreas Vierecke in der neuen Ausgabe der Blätter der Wohlfahrtspflege (1/2019). „Was … zunächst einmal ansteht, ist die Notwendigkeit, uns in irgendeiner Weise zu den mit der Digitalisierung unabweisbar einhergehenden Herausforderungen zu verhalten und eine Strategie für die eigene Organisation zu entwickeln.“ (BdW 1/2019) Identifiziert werden müssen die konkreten Technologien, die konkreten Anwendungsfelder und die konkreten Herausforderungen. Das Spektrum ist breit, von einfachen Warnsystemen bis hin zu komplexen Robotern. „Über ethische Aspekte des Einsatzes von Pflegerobotern … hat sich Oliver Bendel Gedanken gemacht, von denen er in diesem Heft einige mit uns teilt.“ (BdW 1/2019) Weitere Informationen über www.nomos-elibrary.de/10.5771/0340-8574-2019-1/bdw-blaetter-der-wohlfahrtspflege-jahrgang-166-2019-heft-1.

Abb.: Eine menschliche Hand wird gereicht

Roboterphilosophie bei den Freidenkern

„Die Freidenker-Vereinigung der Schweiz setzt sich für die Anliegen der Konfessionsfreien ein. Sie tritt ein für die Trennung von Staat und Kirche und für eine weltlich-humanistische Ethik, in der die Menschenrechte eine zentrale Rolle einnehmen. Und sie vertritt ein wissenschaftlich plausibles Weltbild.“ (Website Freidenker Schweiz) Eingeladen haben die Freidenkenden Mittelland den Roboterphilosophen und Freidenker Oliver Bendel aus Zürich. Er spricht am 11. Februar 2019 im Jugendstilsaal des Atrium-Hotels Blume in Baden zum Thema „Der Roboter entdeckt die Philosophie“. Er wird die Zuhörer laut Programm auf eine Reise mitnehmen. „Bei einer Station geht er der Frage nach, ob Roboter Rechte haben oder haben werden.“ Einer solchen Frage widmet sich traditionell die Roboterethik. Bendel ist der Meinung, dass Roboter und KI-Systeme bis auf weiteres keine Rechte haben und haben sollten. Bei einer nächsten – nun geht es um Maschinenethik – „wird er darstellen, wie man Entwickler und ihre Geschöpfe für die Philosophie gewinnt und wie man Roboterautos, Serviceroboter und Chatbots zu moralischen und unmoralischen Maschinen machen kann“ (Programm). Der Flyer zur Veranstaltung kann hier heruntergeladen werden.

Abb.: Das Zeichen für Atheismus

Politik informiert sich über Pflegeroboter

Im Deutschen Bundestag widmet man sich am 20. Februar 2019 den Chancen und Risiken von Pflegerobotern. Robotikerin Dr. Birgit Graf spricht über „Potenziale und Grenzen der Robotik für die Pflege – Stand der Technik und Anwendung, Herausforderungen für Forschung und Entwicklung“, Pflegewissenschaftler Prof. Dr. Manfred Hülsken-Giesler nimmt eine „Einordnung und Bewertung aus Sicht der Pflegewissenschaft“ vor. „Ethisch-normative Herausforderungen der Pflegerobotik“ ist der Titel des Vortrags von Prof. Dr. Oliver Bendel, Informations- und Maschinenethiker. Daneben gibt es Kommentare aus der Perspektive der Technikfolgenabschätzung (Dr. Bettina-Johanna Krings, KIT/ITAS), der Forschungsförderung (Christine Weiß, VDI/VDE-IT), der Pflegeträger (Alexander Huhn, Caritas-Zentrum Garmisch-Partenkirchen) und der Pflegekräfte (Peter Tackenberg, Deutscher Berufsverband für Pflegeberufe (DBfK)). Die Einführung wird Dr. Christoph Kehl vom Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) halten. Das Programm kann hier heruntergeladen werden.

Abb.: Das Brandenburger Tor

Der rote Kaugummiautomat deutscher Dörfer

„Automaten gibt es seit tausenden Jahren, von den dampfbetriebenen Altären der Antike über die Androiden im Spätbarock (Musikerin, Schreiber und Zeichner) bis hin zu modernen Maschinen.“ So beginnt ein Beitrag von Oliver Bendel für das Gabler Wirtschaftslexikon. Es werden mehrere Beispiele gegeben: „Automaten verrichten selbstständig eine bestimmte Tätigkeit, etwa das Zubereiten und Ausgeben von Kaffee (Kaffeeautomat), das Auswerfen von Zigaretten (Zigarettenautomat) oder das Anzeigen der Zeit (Uhr). Manche sind rein mechanisch, wie der rote Kaugummiautomat deutscher Dörfer und Städte, andere elektronisch und vernetzt.“ Und Abgrenzungen – wie zu Robotern – vorgenommen. Am Ende kommt die Ethik zu Wort: „Wirtschafts-, Technik- und Informationsethik widmen sich den Herausforderungen, die sich durch Automaten und Automation ergeben, sei es in Bezug auf die Ersetzung von Mitarbeitenden, sei es in Bezug auf die Möglichkeit der Gefährdung, Verletzung und Überwachung. Die genannten Bereichsethiken betrachten ebenso den Beitrag von Automaten und Automation zu einem guten Leben, nicht zuletzt vor dem Hintergrund, dass Arbeit idealisiert und ideologisiert wird.“ Der Beitrag ist im Januar 2019 erschienen und kann über wirtschaftslexikon.gabler.de/definition/automat-119939 aufgerufen werden.

Abb.: Ein roter Kaugummiautomat

Diskussion über autonome Kampfroboter

Die Heinrich-Böll-Stiftung kündigt eine Veranstaltung zu autonomen Kampfrobotern an: „Künstliche Intelligenz (KI) ist das große Glücksversprechen des 21. Jahrhunderts und wird viele Lebensbereiche moderner Industriegesellschaften dramatisch verändern, von der Mobilität zur industriellen Fertigung oder der Krankenpflege. KI wird auch die Sicherheits- und Verteidigungspolitik verändern. Sie wird dazu führen, dass moderne Waffensysteme zunehmend autonom agieren und die menschlichen Eingriffsmöglichkeiten auf ein Minimum reduzieren.“ (Information HBS) Dies werfe, so die Stiftung, ethische Fragen auf, insbesondere dann, wenn zukünftig Kampfroboter ihre Ziele autonom auswählen und bekämpfen. „Doch wie realistisch ist dieses Szenario? Wieviel Autonomie steckt schon heute in modernen Waffensystemen und welche Entwicklungstendenzen zeichnen sich ab?“ (Information HBS) Diese Fragen will man mit Noel Sharkey, „einem führenden Experten für Ethik und Robotik“, einer Vertreterin des Auswärtigen Amtes und einem Mitglied des Bundestags diskutieren. Die Veranstaltung findet am 23. Januar 2019 von 19.00 bis 20.30 Uhr bei der Heinrich-Böll-Stiftung in Berlin statt.

Abb.: Der will nur spielen

Moral Competence for Social Robots

At the end of 2018, the article entitled „Learning How to Behave: Moral Competence for Social Robots“ by Bertram F. Malle and Matthias Scheutz was published in the „Handbuch Maschinenethik“ („Handbook Machine Ethics“) (ed.: Oliver Bendel). An excerpt from the abstract: „We describe a theoretical framework and recent research on one key aspect of robot ethics: the development and implementation of a robot’s moral competence.“ The authors propose „that moral competence consists of five elements, two constituents (moral norms and moral vocabulary) and three activities (moral judgment, moral action, and moral communication)“. „A robot’s computational representations of social and moral norms is a prerequisite for all three moral activities. However, merely programming in advance the vast network of human norms is impossible, so new computational learning algorithms are needed that allow robots to acquire and update the context-specific and graded norms relevant to their domain of deployment. Moral vocabulary is needed primarily for moral communication, which expresses moral judgments of others’ violations and explains one’s own moral violations – to justify them, apologize, or declare intentions to do better. Current robots have at best rudimentary moral competence, but with improved learning and reasoning they may begin to show the kinds of capacities that humans will expect of future social robots.“ (Abstract) An overview of the contributions that have been published electronically since 2017 can be found on link.springer.com/referencework/10.1007/978-3-658-17484-2.

Robots and Rights

Robots have no rights from a philosophical and ethical point of view and cannot currently get any rights. You only have such rights if you can feel or suffer, if you have a consciousness or a will to live. Accordingly, animals can have certain rights, stones cannot. Only human beings have human rights. Certain animals can be granted basic rights, such as chimpanzees or gorillas. But to grant these animals human rights makes no sense. They are not human beings. If one day robots can feel or suffer, if they have a consciousness or a will to live, they must be granted rights. However, Oliver Bendel does not see any way to get there at the moment. According to him, one could at best develop „reverse cyborgs“, i.e. let brain and nerve cells grow on technical structures (or in a robot). Such reverse or inverted cyborgs might at some point feel something. The newspaper Daily Star dealt with this topic on 28 December 2018. The article can be accessed via www.dailystar.co.uk/news/latest-news/748890/robots-ai-human-rights-legal-status-eu-proposal.

Fig.: A human brain could be part of a reverse cyborg

Roboethics as Topical Issue in Paladyn Journal

In 2018, Paladyn Journal of Behavioral Robotics published several articles on robot and machine ethics. In a message to the authors, the editors noted: „Our special attention in recent months has been paid to ethical and moral issues that seem to be of daily debate of researchers from different disciplines.“ The current issue „Roboethics“ includes the articles „Towards animal-friendly machines“ by Oliver Bendel, „Liability for autonomous and artificially intelligent robots“ by Woodrow Barfield, „Corporantia: Is moral consciousness above individual brains/robots?“ by Christopher Charles Santos-Lang, „The soldier’s tolerance for autonomous systems“ by Jai Galliott and „GenEth: a general ethical dilemma analyzer“ by Michael Anderson and Susan Leigh Anderson. The following articles will be published in December 2019: „Autonomy in surgical robots and its meaningful human control“ by Fanny Ficuciello, Guglielmo Tamburrini, Alberto Arezzo, Luigi Villani, and Bruno Siciliano, and „AI for the Common Good?! Pitfalls, challenges, and Ethics Pen-Testing“ by Bettina Berendt. More information via www.degruyter.com/page/1498.

Fig.: Machines can be friendly to beetles