Kategorie: Maschinenethik

Beitrag „Algorithmen, Daten und Ethik“

Im „Handbuch Maschinenethik“, seit 2016 von Prof. Dr. Oliver Bendel herausgegeben, ist der 16. Beitrag erschienen, mit dem Titel „Algorithmen, Daten und Ethik: Ein Beitrag zur Papiermaschinenethik“ … Der Autor ist Dr. Stefan Ullrich, Forschungsgruppenleiter am Weizenbaum-Institut für die vernetzte Gesellschaft. Aus dem Abstract: „Die informationstechnischen Realisierungen von Algorithmen sind längst in alle Lebensbereiche des modernen Menschen vorgedrungen. Algorithmen werden als Allheilmittel angepriesen oder als Hauptschuldige der ‚Digitalen Unmündigkeit‘ gesehen. Zunächst werden wir Algorithmen ganz ohne Digitaltechnik betrachten, also auf bestimmte Arten von Texten eingehen, die auf den menschlichen Geist eine Art Zwang ausüben, die so genannten Paper Machine Codes. Die Betrachtungen zur Ethik der Algorithmen wird mit einer ethischen Betrachtung der (Eingabe-)Daten verbunden, besonderes Augenmerk liegt auf der Signatur einer Person. Es folgen dann Ausführungen zu Geistesmaschinen und nutzlosen Maschinen, um mit einem Ausblick auf die Bedingungen zur Möglichkeit der Mündigkeit im Zeitalter der Internet of Things zu schließen.“ Alle Beiträge sind über https://link.springer.com/referencework/10.1007/978-3-658-17484-2 verfügbar.

Abb.: Algorithmen, Daten und Ethik

Moral Competence for Social Robots

At the end of 2018, the article entitled „Learning How to Behave: Moral Competence for Social Robots“ by Bertram F. Malle and Matthias Scheutz was published in the „Handbuch Maschinenethik“ („Handbook Machine Ethics“) (ed.: Oliver Bendel). An excerpt from the abstract: „We describe a theoretical framework and recent research on one key aspect of robot ethics: the development and implementation of a robot’s moral competence.“ The authors propose „that moral competence consists of five elements, two constituents (moral norms and moral vocabulary) and three activities (moral judgment, moral action, and moral communication)“. „A robot’s computational representations of social and moral norms is a prerequisite for all three moral activities. However, merely programming in advance the vast network of human norms is impossible, so new computational learning algorithms are needed that allow robots to acquire and update the context-specific and graded norms relevant to their domain of deployment. Moral vocabulary is needed primarily for moral communication, which expresses moral judgments of others’ violations and explains one’s own moral violations – to justify them, apologize, or declare intentions to do better. Current robots have at best rudimentary moral competence, but with improved learning and reasoning they may begin to show the kinds of capacities that humans will expect of future social robots.“ (Abstract) An overview of the contributions that have been published electronically since 2017 can be found on link.springer.com/referencework/10.1007/978-3-658-17484-2.

Ein Chatbot mit Gesichtserkennung

Der BESTBOT ist eine unmoralische Maschine in einer moralischen. Er ähnelt einer Matrjoschka, der Holzpuppe, in der weitere Holzpuppen stecken. Dies betonte Oliver Bendel in einem Gespräch mit dem Tages-Anzeiger. In die offene Welt würde er den Chatbot deshalb nicht entlassen. Dieser bleibt im Labor der Maschinenethik. Der BESTBOT wurde 2018 an der Hochschule für Wirtschaft FHNW entwickelt. Bereits im März 2018 stellte der Informations- und Maschinenethiker im Rahmen der AAAI Spring Symposia sein Paper „From GOODBOT to BESTBOT“ vor, das die Grundlage für das Projekt legte. David Studer programmierte den Chatbot in Java. Der BESTBOT ist ein vernetztes System, das Suchmaschinen und Lexika benutzt. Er analysiert die Texteingaben des Benutzers mit textbasierter Emotionserkennungssoftware. Zugleich wird Gesichtserkennung eingesetzt, wiederum mit Emotionserkennung. Wenn der Benutzer zum Beispiel angibt, dass es ihm gut geht, sein Gesicht aber anderes verrät, spricht der Chatbot diesen Widerspruch an. Dieser erkennt sowohl kleine als auch große Sorgen. Dies ist ohne Zweifel von hohem Nutzen, gerade wenn der Benutzer sich etwas antun will. Zugleich kann Gesichtserkennung, vor allem im Zusammenhang mit Emotionserkennung, hochproblematisch sein. Oliver Bendel rät davon ab, solche Systeme bei der automatisierten Kommunikation und im öffentlichen Raum einzusetzen. Der ganzseitige Artikel im Tages-Anzeiger zum BESTBOT ist am 12. Dezember 2018 erschienen und kann hier heruntergeladen werden.

Abb.: Was erkennt der Chatbot im Gesicht?

Der Roboter entdeckt die Philosophie

Die Ideen- und Entwicklungsgeschichte ist reich an künstlichen Kreaturen. Mythos und Fiktion bringen Pandora und Talos hervor, die Geschöpfe des Hephaistos, die Automatenmenschen des Daidalos, die Skulptur des Pygmalion, die eiserne Jungfrau des Nabis. Die Realität war zunächst verbunden mit der Illusion. Von ca. 1500 bis 1850 wurden tier- und menschenähnliche (Pseudo-)Automaten erdacht bzw. vorgeführt, die körnerschluckende Ente, die kunstvollen Androiden, der doppelbödige Schachtürke. Dann, nach weiteren 150 Jahren, streifte die Realität die Illusion mehr und mehr ab, wobei sie die Simulation in den meisten Fällen bei sich behielt. Es werden Systeme und Roboter erschaffen, die den Menschen nicht nur zum Verwechseln ähnlich sehen, sondern sogar, auch mit Hilfe künstlicher Intelligenz, selbst Optionen wählen und Aktionen ausführen, unter Umständen mit weitreichenden Folgen. Sie werden von sozialer Robotik und Maschinenethik gezähmt, dressiert, zivilisiert und moralisiert. Auch tierähnliche und dinghafte Artefakte scheinen plötzlich Eigenschaften zu haben, die man bisher Menschen zugeschrieben hat. Oliver Bendel wird in seinem Vortrag am 9. Januar 2019 im Haus Huth in Berlin erklären, was Roboterphilosophie und Roboterethik und was soziale Robotik und Maschinenethik sind. Er wird darstellen, wie man Entwickler und ihre Geschöpfe für die Philosophie gewinnt und wie man Roboterautos, Serviceroboter und Chatbots zu moralischen und unmoralischen Maschinen machen kann. Und wie man dabei in manchen Fällen die Büchse der Pandora öffnet. Weitere Informationen über die Website der Daimler und Benz Stiftung.

Abb.: Die Philosophie entdeckt den Roboter

Roboethics as Topical Issue in Paladyn Journal

In 2018, Paladyn Journal of Behavioral Robotics published several articles on robot and machine ethics. In a message to the authors, the editors noted: „Our special attention in recent months has been paid to ethical and moral issues that seem to be of daily debate of researchers from different disciplines.“ The current issue „Roboethics“ includes the articles „Towards animal-friendly machines“ by Oliver Bendel, „Liability for autonomous and artificially intelligent robots“ by Woodrow Barfield, „Corporantia: Is moral consciousness above individual brains/robots?“ by Christopher Charles Santos-Lang, „The soldier’s tolerance for autonomous systems“ by Jai Galliott and „GenEth: a general ethical dilemma analyzer“ by Michael Anderson and Susan Leigh Anderson. The following articles will be published in December 2019: „Autonomy in surgical robots and its meaningful human control“ by Fanny Ficuciello, Guglielmo Tamburrini, Alberto Arezzo, Luigi Villani, and Bruno Siciliano, and „AI for the Common Good?! Pitfalls, challenges, and Ethics Pen-Testing“ by Bettina Berendt. More information via www.degruyter.com/page/1498.

Fig.: Machines can be friendly to beetles

Moralische Maschinen mit maschinellem Lernen

Michael und Susan Leigh Anderson stellen beim Berliner Kolloquium 2019 ihre neuesten Ergebnisse aus der Disziplin der Maschinenethik vor. Üblicherweise werden sogenannten moralischen Maschinen starre Regeln gegeben, an die sie sich sozusagen sklavisch halten. Dies hat einige Vorteile, aber auch ein paar Nachteile, denen man mit Hilfe von maschinellem Lernen entgegentreten kann. Genau diesen Ansatz haben die Andersons zusammen mit einem Forscher vom Max-Planck-Institut für Intelligente Systeme verfolgt, wobei die Altenpflege als Kontext diente: „Contrary to those who regard such a goal as unattainable, Michael and Susan Leigh Anderson … and Vincent Berenz … have succeeded in programming a SoftBank Nao robot with a set of values that determines its behavior while aiding a person in a simulated eldercare environment. This unprecedented accomplishment uses machine learning to enable the robot to discern how each of its actions would satisfy or violate its ethical duties in the current situation and decide the best action to take.“ (Machine Ethics) Die Ergebnisse werden 2019 in den Proceedings of the IEEE publiziert. Der wissenschaftliche Leiter des 23. Berliner Kolloquiums zu Pflegerobotern ist Oliver Bendel. Die Anmeldung erfolgt über die Website der Daimler und Benz Stiftung.

Abb.: Ein Nao-Roboter (Foto: SoftBank/Philippe Dureuil, CC-BY-SA-4.0)

Mensch, Maschine und Verantwortung

Im Oktober 2018 ist ein neuer Beitrag im „Handbuch Maschinenethik“ erschienen. Er stammt von Julian Nida-Rümelin und Fiorella Battaglia und trägt den Titel „Mensch, Maschine und Verantwortung“. Im Abstract heißt es: „Verantwortung ist eine der größten Fragen, wenn nicht gar die Frage in der Ethik der Maschinen. In diesem Artikel werden wir für begriffliche Klärung sorgen. Damit wollen wir eine philosophische Auseinandersetzung mit der Frage nach der Verantwortung der Maschinen ermöglichen.“ Seit Ende 2016 sitzen renommierte Wissenschaftlerinnen und Wissenschaftler an ihren Kapiteln zum „Handbuch Maschinenethik“, das von Oliver Bendel herausgegeben wird. Anfang 2019 soll das gedruckte Werk auf den Markt kommen. Mit dabei sind etwa Luís Moniz Pereira aus Lissabon, einer der bekanntesten Maschinenethiker der Welt, und Roboterethikerin Janina Loh, die in Wien mit Mark Coeckelbergh zusammenarbeitet, zudem Catrin Misselhorn, die vor kurzem ihr Grundlagenwerk zur Maschinenethik bei Reclam veröffentlicht hat. Eine Übersicht über die Beiträge, die laufend elektronisch veröffentlicht werden, findet sich über link.springer.com/referencework/10.1007/978-3-658-17484-2

Abb.: Können Maschinen Verantwortung tragen?

 

Smart Machines and Save Animals

„With a few decades, autonomous and semi-autonomous machines will be found throughout Earth’s environments, from homes and gardens to parks and farms and so-called working landscapes – everywhere, really, that humans are found, and perhaps even places we’re not. And while much attention is given to how those machines will interact with people, far less is paid to their impacts on animals.“ (Anthropocene, October 10, 2018) „Machines can disturb, frighten, injure, and kill animals,“ says Oliver Bendel, an information systems professor at the University of Applied Sciences and Arts Northwestern Switzerland, according to the magazine. „Animal-friendly machines are needed.“ (Anthropocene, October 10, 2018) In the article „Will smart machines be kind to animals?“ the magazine Anthropocene deals with animal-friendly machines and introduces the work of the scientist. It is based on his paper „Towards animal-friendly machines“ (Paladyn) and an interview conducted by journalist Brandon Keim with Oliver Bendel. More via www.anthropocenemagazine.org/2018/10/animal-friendly-ai/.

Fig.: Also a cat can be safe, even on the street

Der fröhliche Roboter

„Können Roboter fröhlich sein?“ So lautet der Titel eines Beitrags im neuen Aufbruch, der im Herbst 2018 erschienen ist. Das Google-Magazin ist seit wenigen Jahren auf dem Markt und wird von einer Agentur der Süddeutschen Zeitung produziert. „Künstliche Intelligenz“ ist der Titel der aktuellen Ausgabe, die u.a. dem Spiegel beiliegt. Die Antwort auf die genannte und die eine oder andere Frage gibt der Informations- und Maschinenethiker Oliver Bendel. Er ist der Meinung, dass Roboter bzw. KI-Systeme keine Gefühle haben und haben können. Der Forschung dazu will er sich dennoch nicht verschließen. So plant er, das Symposium „Towards Conscious AI Systems“ im Rahmen der AAAI 2019 Spring Symposium Series an der Stanford University zu besuchen. Wer oder was Bewusstsein hat, kann Gefühle entwickeln, so könnte man postulieren. Ein fröhlicher Roboter könnte ein Gewinn sein, ein trauriger ein Problem. Selbst wenn solche Maschinen nie erschaffen werden können – wir werden im Rahmen der Forschung viel über die Gefühle von Menschen erfahren. Das Interview kann hier heruntergeladen werden.

Abb.: Ein fröhlicher Mensch

Haben Maschinen Bewusstsein?

VRODO hat ein Interview mit dem Roboterphilosophen, Informations- und Maschinenethiker Oliver Bendel geführt. Es ging um moralische Maschinen und am Rande auch um die Frage, ob Maschinen eines Tages Bewusstsein oder Selbstbewusstsein haben können. Für Oliver Bendel gehört zum Bewusstsein, dass eine innere Stimme ausruft: Ah, das ist ja die Welt! Diese innere Stimme kann seiner Meinung auch ein Tier haben. Jeder Igel, jede Kröte hat Bewusstsein. Zum Selbstbewusstsein gehört, dass die innere Stimme ausruft: Ah, das bin ja ich! Ein Affe hat Selbstbewusstsein. Der Roboterphilosoph denkt nicht, dass man ein echtes Bewusstsein von Maschinen wird schaffen können. Auf jeden Fall werde der Roboter nie mit seiner inneren Stimme ausrufen: Ah, das bin ja ich, der Roboter! „I, Robot“ – das sei Science-Fiction. Die Forschung über maschinelles Bewusstsein hält Oliver Bendel dennoch für wichtig. Bei einem der Symposien der AAAI Spring Symposia an der Stanford University wird es um dieses Thema gehen. Das Interview wurde von Maximilan Schreiner geführt und kann über vrodo.de/was-ein-roboterphilosoph-ueber-maschinenmoral-denkt/ nachgelesen werden.

Abb.: Menschen haben Bewusstsein