Diskussion über autonome Kampfroboter

Die Heinrich-Böll-Stiftung kündigt eine Veranstaltung zu autonomen Kampfrobotern an: „Künstliche Intelligenz (KI) ist das große Glücksversprechen des 21. Jahrhunderts und wird viele Lebensbereiche moderner Industriegesellschaften dramatisch verändern, von der Mobilität zur industriellen Fertigung oder der Krankenpflege. KI wird auch die Sicherheits- und Verteidigungspolitik verändern. Sie wird dazu führen, dass moderne Waffensysteme zunehmend autonom agieren und die menschlichen Eingriffsmöglichkeiten auf ein Minimum reduzieren.“ (Information HBS) Dies werfe, so die Stiftung, ethische Fragen auf, insbesondere dann, wenn zukünftig Kampfroboter ihre Ziele autonom auswählen und bekämpfen. „Doch wie realistisch ist dieses Szenario? Wieviel Autonomie steckt schon heute in modernen Waffensystemen und welche Entwicklungstendenzen zeichnen sich ab?“ (Information HBS) Diese Fragen will man mit Noel Sharkey, „einem führenden Experten für Ethik und Robotik“, einer Vertreterin des Auswärtigen Amtes und einem Mitglied des Bundestags diskutieren. Die Veranstaltung findet am 23. Januar 2019 von 19.00 bis 20.30 Uhr bei der Heinrich-Böll-Stiftung in Berlin statt.

Abb.: Der will nur spielen

Beitrag „Algorithmen, Daten und Ethik“

Im „Handbuch Maschinenethik“, seit 2016 von Prof. Dr. Oliver Bendel herausgegeben, ist der 16. Beitrag erschienen, mit dem Titel „Algorithmen, Daten und Ethik: Ein Beitrag zur Papiermaschinenethik“ … Der Autor ist Dr. Stefan Ullrich, Forschungsgruppenleiter am Weizenbaum-Institut für die vernetzte Gesellschaft. Aus dem Abstract: „Die informationstechnischen Realisierungen von Algorithmen sind längst in alle Lebensbereiche des modernen Menschen vorgedrungen. Algorithmen werden als Allheilmittel angepriesen oder als Hauptschuldige der ‚Digitalen Unmündigkeit‘ gesehen. Zunächst werden wir Algorithmen ganz ohne Digitaltechnik betrachten, also auf bestimmte Arten von Texten eingehen, die auf den menschlichen Geist eine Art Zwang ausüben, die so genannten Paper Machine Codes. Die Betrachtungen zur Ethik der Algorithmen wird mit einer ethischen Betrachtung der (Eingabe-)Daten verbunden, besonderes Augenmerk liegt auf der Signatur einer Person. Es folgen dann Ausführungen zu Geistesmaschinen und nutzlosen Maschinen, um mit einem Ausblick auf die Bedingungen zur Möglichkeit der Mündigkeit im Zeitalter der Internet of Things zu schließen.“ Alle Beiträge sind über link.springer.com/referencework/10.1007/978-3-658-17484-2 verfügbar.

Abb.: Algorithmen, Daten und Ethik

Moral Competence for Social Robots

At the end of 2018, the article entitled „Learning How to Behave: Moral Competence for Social Robots“ by Bertram F. Malle and Matthias Scheutz was published in the „Handbuch Maschinenethik“ („Handbook Machine Ethics“) (ed.: Oliver Bendel). An excerpt from the abstract: „We describe a theoretical framework and recent research on one key aspect of robot ethics: the development and implementation of a robot’s moral competence.“ The authors propose „that moral competence consists of five elements, two constituents (moral norms and moral vocabulary) and three activities (moral judgment, moral action, and moral communication)“. „A robot’s computational representations of social and moral norms is a prerequisite for all three moral activities. However, merely programming in advance the vast network of human norms is impossible, so new computational learning algorithms are needed that allow robots to acquire and update the context-specific and graded norms relevant to their domain of deployment. Moral vocabulary is needed primarily for moral communication, which expresses moral judgments of others’ violations and explains one’s own moral violations – to justify them, apologize, or declare intentions to do better. Current robots have at best rudimentary moral competence, but with improved learning and reasoning they may begin to show the kinds of capacities that humans will expect of future social robots.“ (Abstract) An overview of the contributions that have been published electronically since 2017 can be found on link.springer.com/referencework/10.1007/978-3-658-17484-2.

Robots and Rights

Robots have no rights from a philosophical and ethical point of view and cannot currently get any rights. You only have such rights if you can feel or suffer, if you have a consciousness or a will to live. Accordingly, animals can have certain rights, stones cannot. Only human beings have human rights. Certain animals can be granted basic rights, such as chimpanzees or gorillas. But to grant these animals human rights makes no sense. They are not human beings. If one day robots can feel or suffer, if they have a consciousness or a will to live, they must be granted rights. However, Oliver Bendel does not see any way to get there at the moment. According to him, one could at best develop „reverse cyborgs“, i.e. let brain and nerve cells grow on technical structures (or in a robot). Such reverse or inverted cyborgs might at some point feel something. The newspaper Daily Star dealt with this topic on 28 December 2018. The article can be accessed via www.dailystar.co.uk/news/latest-news/748890/robots-ai-human-rights-legal-status-eu-proposal.

Fig.: A human brain could be part of a reverse cyborg

The Spy who Loved and Nursed Me

Robots in the health sector are important, valuable innovations and supplements. As therapy and nursing robots, they take care of us and come close to us. In addition, other service robots are widespread in nursing and retirement homes and hospitals. With the help of their sensors, all of them are able to recognize us, to examine and classify us, and to evaluate our behavior and appearance. Some of these robots will pass on our personal data to humans and machines. They invade our privacy and challenge the informational autonomy. This is a problem for the institutions and the people that needs to be solved. The article „The Spy who Loved and Nursed Me: Robots and AI Systems in Healthcare from the Perspective of Information Ethics“ by Oliver Bendel presents robot types in the health sector, along with their technical possibilities, including their sensors and their artificial intelligence capabilities. Against this background, moral problems are discussed, especially from the perspective of information ethics and with respect to privacy and informational autonomy. One of the results shows that such robots can improve the personal autonomy, but the informational autonomy is endangered in an area where privacy has a special importance. At the end, solutions are proposed from various disciplines and perspectives. The article was published in Telepolis on December 17, 2018 and can be accessed via www.heise.de/tp/features/The-Spy-who-Loved-and-Nursed-Me-4251919.html.

Fig.: What have I got to hide?

Chancen und Risiken von Pflegerobotern

Im Deutschen Bundestag widmet man sich am 20. Februar 2019 den Chancen und Risiken von Pflegerobotern. Robotikerin Dr. Birgit Graf spricht über „Potenziale und Grenzen der Robotik für die Pflege – Stand der Technik und Anwendung, Herausforderungen für Forschung und Entwicklung“, Pflegewissenschaftler Prof. Dr. Manfred Hülsken-Giesler nimmt eine „Einordnung und Bewertung aus Sicht der Pflegewissenschaft“ vor. „Ethisch-normative Herausforderungen der Pflegerobotik“ ist der Titel des Vortrags von Prof. Dr. Oliver Bendel, Informations- und Maschinenethiker. Daneben gibt es Kommentare aus der Perspektive der Technikfolgenabschätzung (Dr. Bettina-Johanna Krings, KIT/ITAS), der Forschungsförderung (Christine Weiß, VDI/VDE-IT), der Pflegeträger (Alexander Huhn, Caritas-Zentrum Garmisch-Partenkirchen) und der Pflegekräfte (Peter Tackenberg, Deutscher Berufsverband für Pflegeberufe (DBfK)). Die Einführung wird Dr. Christoph Kehl vom Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) halten. Das Programm kann hier heruntergeladen werden.

Ein Chatbot mit Gesichtserkennung

Der BESTBOT ist eine unmoralische Maschine in einer moralischen. Er ähnelt einer Matrjoschka, der Holzpuppe, in der weitere Holzpuppen stecken. Dies betonte Oliver Bendel in einem Gespräch mit dem Tages-Anzeiger. In die offene Welt würde er den Chatbot deshalb nicht entlassen. Dieser bleibt im Labor der Maschinenethik. Der BESTBOT wurde 2018 an der Hochschule für Wirtschaft FHNW entwickelt. Bereits im März 2018 stellte der Informations- und Maschinenethiker im Rahmen der AAAI Spring Symposia sein Paper „From GOODBOT to BESTBOT“ vor, das die Grundlage für das Projekt legte. David Studer programmierte den Chatbot in Java. Der BESTBOT ist ein vernetztes System, das Suchmaschinen und Lexika benutzt. Er analysiert die Texteingaben des Benutzers mit textbasierter Emotionserkennungssoftware. Zugleich wird Gesichtserkennung eingesetzt, wiederum mit Emotionserkennung. Wenn der Benutzer zum Beispiel angibt, dass es ihm gut geht, sein Gesicht aber anderes verrät, spricht der Chatbot diesen Widerspruch an. Dieser erkennt sowohl kleine als auch große Sorgen. Dies ist ohne Zweifel von hohem Nutzen, gerade wenn der Benutzer sich etwas antun will. Zugleich kann Gesichtserkennung, vor allem im Zusammenhang mit Emotionserkennung, hochproblematisch sein. Oliver Bendel rät davon ab, solche Systeme bei der automatisierten Kommunikation und im öffentlichen Raum einzusetzen. Der ganzseitige Artikel im Tages-Anzeiger zum BESTBOT ist am 12. Dezember 2018 erschienen und kann hier heruntergeladen werden.

Abb.: Was erkennt der Chatbot im Gesicht?

Zu Grundeinkommen und -eigentum

Die Studien zur Arbeitsmarktentwicklung ab 2020 gelangen zu unterschiedlichen Ergebnissen. Man kann aber auf jeden Fall sagen, dass bestimmte Arbeitsplätze wegfallen und viele Menschen ohne ihre vertraute Arbeit sein werden. Es ist auch anzunehmen, dass insgesamt weniger menschliche Arbeit im Auftrag (etwa für Arbeitgeber) verrichtet werden muss. Als Lösungen der wirtschaftlichen und sozialen Probleme werden oft bedingungsloses Grundeinkommen und Robotersteuer genannt. Der Beitrag „Are Robot Tax, Basic Income or Basic Property Solutions to the Social Problems of Automation?“ von Oliver Bendel diskutiert und kritisiert diese Ansätze im Kontext von Automatisierung und Digitalisierung. Zudem entwickelt er einen weitgehend unbekannten Vorschlag, das bedingungslose Grundeigentum, weiter und stellt dessen Potenziale ebenso dar wie dessen Risiken. Der Informations- und Maschinenethiker aus Zürich präsentiert seine Ergebnisse zwischen dem 25. und 27. März 2019 bei den AAAI Spring Symposia. Es ist sein sechster Vortrag an der Stanford University innerhalb von vier Jahren.

Abb.: Klein, aber mein

Der Roboter entdeckt die Philosophie

Die Ideen- und Entwicklungsgeschichte ist reich an künstlichen Kreaturen. Mythos und Fiktion bringen Pandora und Talos hervor, die Geschöpfe des Hephaistos, die Automatenmenschen des Daidalos, die Skulptur des Pygmalion, die eiserne Jungfrau des Nabis. Die Realität war zunächst verbunden mit der Illusion. Von ca. 1500 bis 1850 wurden tier- und menschenähnliche (Pseudo-)Automaten erdacht bzw. vorgeführt, die körnerschluckende Ente, die kunstvollen Androiden, der doppelbödige Schachtürke. Dann, nach weiteren 150 Jahren, streifte die Realität die Illusion mehr und mehr ab, wobei sie die Simulation in den meisten Fällen bei sich behielt. Es werden Systeme und Roboter erschaffen, die den Menschen nicht nur zum Verwechseln ähnlich sehen, sondern sogar, auch mit Hilfe künstlicher Intelligenz, selbst Optionen wählen und Aktionen ausführen, unter Umständen mit weitreichenden Folgen. Sie werden von sozialer Robotik und Maschinenethik gezähmt, dressiert, zivilisiert und moralisiert. Auch tierähnliche und dinghafte Artefakte scheinen plötzlich Eigenschaften zu haben, die man bisher Menschen zugeschrieben hat. Oliver Bendel wird in seinem Vortrag am 9. Januar 2019 im Haus Huth in Berlin erklären, was Roboterphilosophie und Roboterethik und was soziale Robotik und Maschinenethik sind. Er wird darstellen, wie man Entwickler und ihre Geschöpfe für die Philosophie gewinnt und wie man Roboterautos, Serviceroboter und Chatbots zu moralischen und unmoralischen Maschinen machen kann. Und wie man dabei in manchen Fällen die Büchse der Pandora öffnet. Weitere Informationen über die Website der Daimler und Benz Stiftung.

Abb.: Die Philosophie entdeckt den Roboter

Roboethics as Topical Issue in Paladyn Journal

In 2018, Paladyn Journal of Behavioral Robotics published several articles on robot and machine ethics. In a message to the authors, the editors noted: „Our special attention in recent months has been paid to ethical and moral issues that seem to be of daily debate of researchers from different disciplines.“ The current issue „Roboethics“ includes the articles „Towards animal-friendly machines“ by Oliver Bendel, „Liability for autonomous and artificially intelligent robots“ by Woodrow Barfield, „Corporantia: Is moral consciousness above individual brains/robots?“ by Christopher Charles Santos-Lang, „The soldier’s tolerance for autonomous systems“ by Jai Galliott and „GenEth: a general ethical dilemma analyzer“ by Michael Anderson and Susan Leigh Anderson. The following articles will be published in December 2019: „Autonomy in surgical robots and its meaningful human control“ by Fanny Ficuciello, Guglielmo Tamburrini, Alberto Arezzo, Luigi Villani, and Bruno Siciliano, and „AI for the Common Good?! Pitfalls, challenges, and Ethics Pen-Testing“ by Bettina Berendt. More information via www.degruyter.com/page/1498.

Fig.: Machines can be friendly to beetles