Maschinenethik in den Schweizer Alpen

Am 8. und 9. Oktober 2020 finden in Engelberg, einer Alpenstadt in der Zentralschweiz, die Engelberger Dialoge statt. In den Fokus nehmen diese, so die Ankündigung im Programmheft, „die komplexe Robotik“. „Robotik wird in nahezu allen Branchen eingesetzt. Treiber für die Entwicklung sind unter anderem die wissenschaftliche und technische Entwicklung, der Wettbewerbsdruck zur Steigerung der Produktivität von Arbeit und Kapital, der Personalmangel für gewisse Tätigkeiten sowie steigende Erwartungen an die Qualität von Produkten und Sicherheit. Experten verschiedener Fachdisziplinen werden … faszinierende Möglichkeiten wie Blitzlichter aufleuchten lassen. Ethische Aspekte in der Interaktion Robotik und Mensch werden ebenfalls angesprochen. Und die Rundtischdiskussion mit Vertretern verschiedener Branchen verspricht zweifellos lebhafte Voten zu Pro und Con der Robotik.“ (Programmheft Engelberger Dialoge) Ganz konkret geht es in einem der Beiträge – von Prof. Dr. Oliver Bendel – um Roboter- und Maschinenethik. Beim Forum am 9. Oktober tragen u.a. Prof. Dr. Roland Siegwart, Institut für Robotik der ETH Zürich, Dr. Mathias Buerki, Wyss Translational Center der ETH Zürich, Prof. Dr. Marco Hutter, Depart. Mech. & Process Engineering der ETH Zürich und eben Prof. Dr. Oliver Bendel, Institut für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW vor. Der Flyer für das Forum ist hier verfügbar.

Abb.: Ein alter Schweizer Postbus

Houston, I have a problem!

Social robots are robots that come close to animals and humans, interact and communicate with them. They reproduce characteristics of animals and humans in their behavior and appearance. They can be implemented both as hardware robots and as software robots. The SPACE THEA project should have already started in March 2020. Because of COVID-19 it had to be postponed. Now Prof. Dr. Oliver Bendel (School of Business FHNW) starts with the preparatory work. In winter 2020/2021 and spring 2021 the programming of the voicebot is then carried out. SPACE THEA is designed to accompany astronauts to Mars and to show them empathy and emotions. In the best case, she should also be able to provide psychological counseling, for example, based on cases from the literature. The project will use findings from social robotics, but also from machine ethics. The results will be available by summer 2021.

Fig.: SPACE THEA

Pflegeroboter in Alten- und Pflegeheimen

Roboter in der Pflege und speziell Pflegeroboter sind ein Thema, das in den letzten Jahren enorm an Aufmerksamkeit gewonnen hat. Um Chancen und Risiken bewerten und ethische Überlegungen anstellen zu können, müssen die existierenden Systeme im Detail gekannt werden. Darüber hinaus ist es wichtig, den Kontext zu verstehen. Im Moment werden Pflegeroboter in Alten- und Pflegeheimen getestet, etwa in der Schweiz, in Deutschland und in Skandinavien. Pflegebedürftige und -kräfte sollen unterstützt werden. Es gibt kein Projekt und kein Szenario, in dem die Pflegeroboter die Pflegekräfte verdrängen sollen. Die Pflegebedürftigen können – darauf deuten die ersten Erfahrungen hin – persönliche Autonomie gewinnen und zugleich informationelle Autonomie verlieren. Es gilt demnach, Pflegeroboter zu bauen, die Intim- und Privatsphäre wahren. Michael Früh, CFO der Firma F&P Robotics, und Prof. Dr. Oliver Bendel, Informations- und Maschinenethiker, haben mit dem Chefredakteur von medAmbiente, Matthias Erler, gesprochen. Herausgekommen ist ein mehrseitiges Interview mit Fotos und Abbildungen. Das ganz Heft kann hier heruntergeladen werden.

Abb.: Mehr persönliche Autonomie

ROBOPHILOSOPHY 2020 und 2022

Eine der weltweit wichtigsten Konferenzen für Roboterphilosophie und soziale Robotik, die ROBOPHILOSOPHY, fand vom 18. bis 21. August 2020 statt, nicht in Aarhus (Dänemark), wie ursprünglich geplant, sondern – wegen der COVID-19-Pandemie – in virtueller Form. Organisatoren und Moderatoren waren Marco Nørskov und Johanna Seibt. Ein beträchtlicher Teil der Vorträge war der Maschinenethik verpflichtet, etwa „Moral Machines“ (Aleksandra Kornienko), „Permissibility-Under-a-Description Reasoning for Deontological Robots“ (Felix Lindner) und „The Morality Menu Project“ (Oliver Bendel). Die Keynotes stammten von Selma Šabanović (Indiana University Bloomington), Robert Sparrow (Monash University), Shannon Vallor (The University of Edinburgh), Alan Winfield (University of the West of England), Aimee van Wynsberghe (Delft University of Technology) und John Danaher (National University of Ireland). Winfield zeigte sich in seinem herausragenden Referat skeptisch gegenüber moralischen Maschinen, woraufhin Bendel in der Diskussion deutlich machte, dass sie in manchen Bereichen nützlich, in anderen gefährlich sind, und die Bedeutung der Maschinenethik für die Erforschung der maschinellen und menschlichen Moral hervorhob, womit sich Winfield wiederum einverstanden zeigte. Die letzte Konferenz wurde 2018 in Wien durchgeführt. Keynoter waren damals u.a. Hiroshi Ishiguro, Joanna Bryson und Oliver Bendel. Die nächste ROBOPHILOSOPHY wird, wie die Veranstalter am Ende der Veranstaltung, bekanntgaben, 2022 an der Universität Helsinki stattfinden.

Abb.: Vorgestellt wurde auch das Moralmenü

Towards HUGGIE

In the first part of the HUGGIE project initiated by Oliver Bendel, two students of the School of Business FHNW conducted an online survey with almost 300 participants. In the management summary of their bachelor thesis Ümmühan Korucu and Leonie Stocker (formerly Leonie Brogle) write: „The results of the survey indicated that people have a positive attitude towards robots in general as robots are perceived as interesting and useful rather than unnecessary and disturbing. However, only a minority of the participants stated that they would accept a hug from a robot. A possible reason for this could be that for the majority of participants, a hug is an act of intimacy with a deeper meaning attached to it which is only being shared with selected persons. For a robot to be perceived as an attractive hugging partner, a human-like design including a face, eyes, a friendly look as well as the ability to communicate verbally and non-verbally is desired. However, an appearance being too realistic has a deterrent effect. Furthermore, an in-depth analysis of the data in relation to age and gender of the participants resulted in the discovery of interesting facts and differences. Overall, the findings contribute to a clearer picture about the appearance and the features Huggie should have in order to be accepted as a hugging counterpart.“ The bachelor thesis will be publicly available in autumn 2020. There will also be a paper with the results next year.

Fig.: A part of a hug

A New Markup Language

In many cases it is important that an autonomous system acts and reacts adequately from a moral point of view. There are some artifacts of machine ethics, e.g., GOODBOT or LADYBIRD by Oliver Bendel or Nao as a care robot by Susan Leigh and Michael Anderson. But there is no standardization in the field of moral machines yet. The MOML project, initiated by Oliver Bendel, is trying to work in this direction. In the management summary of his bachelor thesis Simon Giller writes: „We present a literature review in the areas of machine ethics and markup languages which shaped the proposed morality markup language (MOML). To overcome the most substantial problem of varying moral concepts, MOML uses the idea of the morality menu. The menu lets humans define moral rules and transfer them to an autonomous system to create a proxy morality. Analysing MOML excerpts allowed us to develop an XML schema which we then tested in a test scenario. The outcome is an XML based morality markup language for autonomous agents. Future projects can use this language or extend it. Using the schema, anyone can write MOML documents and validate them. Finally, we discuss new opportunities, applications and concerns related to the use of MOML. Future work could develop a controlled vocabulary or an ontology defining terms and commands for MOML.“ The bachelor thesis will be publicly available in autumn 2020. It was supervised by Dr. Elzbieta Pustulka. There will also be a paper with the results next year.

Fig.: Skeleton of the top elements (Illustration: Simon Giller)

Soziale Roboter in der Hochschullehre

An der Hochschule für Wirtschaft FHNW wird ab Herbstsemester 2021 das Wahlmodul „Soziale Roboter“ angeboten. Es steht WirtschaftsinformatikerInnen und BetriebsökonomInnen offen. Dozent ist Prof. Dr. Oliver Bendel. Das Wahlmodul „Soziale Roboter“ klärt Grundbegriffe und -konzepte, stellt den Zusammenhang zwischen der sozialen Robotik und anderen Disziplinen (Künstliche Intelligenz, Maschinenethik, Künstliches Bewusstsein) her, nennt Beispiele sozialer Roboter und geht auf Anwendungsgebiete sozialer Roboter ein. Die Studierenden lernen ausgewählte soziale Roboter kennen, nach Möglichkeit auch im direkten Kontakt. Sie entwickeln Szenarien, die folgende Komponenten umfassen: Beschreibung eines fiktiven sozialen Roboters (Zeichnung, Produktbeschreibung), Skizze einer Organisation oder Situation, in der der Roboter eingesetzt wird (Organigramm, Firmenbeschreibung), Darstellung der Interaktion und Kommunikation sowie der Datenflüsse (Modellierung), Diskussion technischer, ethischer und rechtlicher Fragen. Die Ergebnisse werden in Gruppen im Plenum präsentiert.

Abb.: Auch der Zusammenhang mit der Maschinenethik wird aufgezeigt

Keine Angst vor der KI

„Wer hat Angst vor der KI?“ Dieser Frage geht Carmen Gräf am 16. Juli 2020 von 22 bis 23 Uhr bei RBB Kultur nach. „Erst lernten die Computer rechnen, dann organisieren, analysieren, sprechen und schließlich – denken. Dank Künstlicher Intelligenz. Nun ist die Forschung dabei, den Computern auch das Fühlen beizubringen. Eine neue Stufe Künstlicher Intelligenz entsteht. Das sorgt für jede Menge Hoffnung und Euphorie, aber auch für Angst und Unbehagen. Wird die Maschine den Menschen überholen oder kann der Mensch die digitalen Potentiale sinnvoll nutzen? Ein Einblick in aktuelle Diskussionen, Forschungen und Anwendungen.“ (RBB Kultur) Erwähnt werden auch die Entwicklungen des Informations- und Maschinenethikers Oliver Bendel, konkret der LIEBOT, der systematisch die Unwahrheit sagt, und HAPPY HEDGEHOG, der igelfreundliche Rasenmähroboter. Die Sendung ist ein Jahr lang in der ARD-Mediathek abrufbar.

Abb.: Wer hat Angst vor der KI?

Interviews zu künstlicher Intelligenz und Moral

Kinofenster ist ein Projekt der Bundeszentrale für politische Bildung (bpb). Es wurde 1996 als Printmagazin initiiert. Im Jahre 2000 erfolgte die Umstellung zu einem Onlineangebot. Der aktuelle Schwerpunkt im Juli 2020 widmet sich, ausgehend von dem Film „Hi, AI“, künstlicher Intelligenz und moralischen Maschinen. „Humanoide Roboter sind nicht mehr nur Science Fiction. Im Dokumentarfilm Hi, AI beobachtet Regisseurin Isa Willlinger den Einzug solcher menschenähnlicher Maschinen in unseren Alltag. Begleitend zum Film stellt eine Sequenzanalyse drei Visionen von künstlerischer Intelligenz und ein Hintergrundtext das Motiv des Androiden-Roboters im Kino vor. Zudem sprechen wir mit Kate Darling und Oliver Bendel über Chancen und Gefahren künstlicher Intelligenz.“ (Website Kinofenster) Der Informations- und Maschinenethiker geht insbesondere auf künstliche oder maschinelle Moral ein. Die Interviews und die Materialien sind über www.kinofenster.de abrufbar.

Abb.: Nao wurde im Kontext der Maschinenethik moralisiert

The Morality Menu Project

„Once we place so-called ’social robots‘ into the social practices of our everyday lives and lifeworlds, we create complex, and possibly irreversible, interventions in the physical and semantic spaces of human culture and sociality. The long-term socio-cultural consequences of these interventions is currently impossible to gauge.“ (Website Robophilosophy Conference) With these words the next Robophilosophy conference was announced. It would have taken place in Aarhus, Denmark, from 18 to 21 August 2019, but due to the COVID 19 pandemic it is being conducted online. One lecture will be given by Oliver Bendel. The abstract of the paper „The Morality Menu Project“ states: „Machine ethics produces moral machines. The machine morality is usually fixed. Another approach is the morality menu (MOME). With this, owners or users transfer their own morality onto the machine, for example a social robot. The machine acts in the same way as they would act, in detail. A team at the School of Business FHNW implemented a MOME for the MOBO chatbot. In this article, the author introduces the idea of the MOME, presents the MOBO-MOME project and discusses advantages and disadvantages of such an approach. It turns out that a morality menu can be a valuable extension for certain moral machines.“ In 2018 Hiroshi Ishiguro, Guy Standing, Catelijne Muller, Joanna Bryson, and Oliver Bendel had been keynote speakers. In 2020, Catrin Misselhorn, Selma Sabanovic, and Shannon Vallor will be presenting. More information via conferences.au.dk/robo-philosophy/.

Fig.: The morality menu project

Bessere Menschen?

Im Sommer 2020 erscheint das Buch „Bessere Menschen?“ (Untertitel: „Technische und ethische Fragen in der transhumanistischen Zukunft“), mit Beiträgen u.a. von Karlheinz Steinmüller, Stefan Sorgner, Tanja Kubes, Melike Şahinol und Oliver Bendel. Aus der Verlagsinformation: „Das 21. turmdersinne-Symposium beschäftigte sich mit der laut Francis Fukuyama gefährlichsten Idee der Welt. Es wurden Chancen und Gefahren der technischen Erweiterbarkeit des Menschen diskutiert. Wie wird sich die Menschheit und der einzelne Mensch in Zukunft entwickeln – insbesondere angesichts der voranschreitenden Technologisierung unseres Alltags? Wie eng arbeiten wir zukünftig mit Robotern zusammen? Tritt der Mensch bald in einen Wettstreit mit intelligenten Maschinen? Und wie verändert sich die Natur des Menschen durch den Einsatz von Implantaten und durch gentechnische Verfahren – kann es sogar zu einer Verschmelzung von Mensch und Maschine kommen?“ (Information Springer) Herausgeber sind Michael Bauer und Laura Deinzer. Der Beitrag von Oliver Bendel trägt den Titel „Das Verschmelzen von menschlicher und maschineller Moral“. Weitere Informationen über www.springer.com/gp/book/9783662615690#aboutBook.

Abb.: Bessere Menschen?

Brave New World

Mathias Lindenau und Marcel Meier Kressig sind die Herausgeber des Buchs „Schöne neue Welt? Zwischen technischen Möglichkeiten und ethischen Herausforderungen“. Von der Website des Verlags: „Schon immer hat der Mensch die technischen Möglichkeiten zur Kompensation seiner lebensweltlichen Defizite genutzt. Zudem dienen sie ihm zur Optimierung seiner selbst und seiner Umwelt. Im Zuge dieses Strebens wird der Möglichkeitsraum menschlichen Handelns ins schier Unermessliche ausgeweitet. Doch ob aus der Möglichkeit des Könnens zwangsläufig immer auch ein Gebot des Sollens folgt, ist umstritten – gerade in der Zeit der digitalen Transformation. Die Beiträger*innen des Bandes befassen sich daher insbesondere mit dem Phänomen des Enhancement, ethischen Implikationen bei Servicerobotern, der Auswirkung von Künstlichkeit auf den Menschen sowie dem allgemeinen Diskurs um Digitalisierung.“ (Website transcript) Von Oliver Bendel, dem Informations- und Maschinenethiker aus Zürich, stammt der Beitrag „Serviceroboter aus Sicht der Ethik“. Dieser geht zurück auf seinen Vortrag bei den Vadian Lectures in St. Gallen, gehalten am 9. Mai 2019. Das Buch erscheint im Sommer 2020 und ist hier vorbestellbar.

Abb.: Schöne neue Welt?

Serviceroboter aus ethischer Sicht

Der Vortrag „Serviceroboter aus der Perspektive der Ethik“ von Prof. Dr. Oliver Bendel am 12. März 2020 an der ZHAW in Wädenswil war der erste Vortrag im Forum des Frühjahrssemesters – und wegen COVID-19 wohl auch der letzte. Roboter waren lange Zeit besondere Maschinen, die in Käfigen in Fabriken eingesperrt und als Werkzeuge für bestimmte Aufgaben verwendet wurden, sei es zur Bombenentschärfung oder zur Umfelderkundung, auf der Erde wie auf dem Mond. Nur wenige Menschen bekamen sie zu Gesicht. Seit der Jahrtausendwende ändert sich das drastisch. Zuerst waren es Saug-, Mäh- und Poolroboter, die uns unterstützt und an die wir uns gewöhnt haben. Sie helfen uns im Haushalt und im Außenbereich, sozusagen in „geschlossenen“ und „halboffenen“ Welten. Inzwischen sind immer mehr Serviceroboter in „offenen“ Welten anzutreffen. Sie sind an Orten unterwegs, die wir uns teilen bzw. die öffentlich sind. Dabei stellen sich – vor allem, aber nicht nur bei sozialen Robotern – diverse Herausforderungen. Diese thematisierte der Vortrag, in moralischer und sozialer Hinsicht, und er schlug Lösungen u.a. auf ethischer, technischer und organisationaler Ebene vor. Das Video des Vortrags kann hier aufgerufen werden.

Abb.: Service ist anstrengend

Die Freiheit des menschlichen Cyborgs

„Die Veränderung ist die Freiheit des menschlichen Cyborgs. Sein Körper gehört ihm. Allerdings könnte man ihm vorhalten, dass er zum Vorbild wird, selbst für diejenigen, die nicht mit dem Transhumanismus sympathisieren, der Ideologie des neuen Menschen, und für die das Stechen der Ohrlöcher oder das Setzen eines Piercings der bisher schwerste Eingriff war. Nun gehört zur Freiheit ebenso, gegen die allgemeine Vernunft und das eigene Wohl zu handeln. Problematisch wird es bei Kindern, die die Folgen nicht einschätzen können.“ So heißt es in einem Beitrag von Oliver Bendel für Bosch-Zünder, die legendäre Mitarbeiterzeitschrift, die es seit 1919 gibt. Erschienen ist er im März 2020 in zehn Sprachen, in deutscher, aber auch in englischer, chinesischer und japanischer. In einem Buchbeitrag, der noch 2020 publiziert wird, geht der Wirtschaftsinformatiker und Ethiker noch einen Schritt weiter und stellt die Verbindung zwischen Biohacking und Maschinenethik her. „Das Verschmelzen von menschlicher und maschineller Moral“ ist Teil des Buchs „Bessere Menschen? Technische und ethische Fragen in der transhumanistischen Zukunft“ (Springer, Berlin 2020).

Abb.: Die Freiheit des menschlichen Cyborgs

AI, ME und MC

Immer wieder hört man, oft von Theologen, manchmal von Philosophen, dass Maschinen nicht autonom seien, nicht intelligent, nicht moralisch etc. Sie übertragen den Begriff, den sie aus ihrem Bereich kennen, auf technische Wissenschaften wie Informatik, Künstliche Intelligenz (KI) und Maschinenethik (die technisch geprägt ist und eng mit KI und Robotik zusammenarbeitet). Sie anerkennen nicht, dass jede Disziplin ihre eigenen Begriffe haben kann (und in der Regel hat). Bei einer Tagung im Jahre 2015 beschimpfte Bundestagspräsident Prof. Dr. Norbert Lammert, ein zutiefst religiöser Mann, die Referenten mit den Worten, Maschinen seien nicht autonom, sie hätten sich nämlich nicht selbst ein Gesetz gegeben. Nun sprechen Informatik und Robotik aber nun einmal von autonomen Systemen und Maschinen, und selbstverständlich dürfen sie das, wenn sie darlegen, wie sie das meinen. Eine solche Begriffsklärung und -aneignung steht sogar am Anfang jeder wissenschaftlichen Betätigung, und dass die Begriffe gleich lauten wie die anderer Bereiche, heißt keineswegs, dass sie dasselbe bedeuten und bedeuten müssen. Eine neue Grafik von Prof. Dr. Oliver Bendel, die auf früheren Entwürfen aufbaut, stellt dar, was der Gegenstandsbereich der Disziplinen oder Arbeitsbereiche der KI, der Maschinenethik und des Maschinellen Bewusstseins ist, und macht für sie terminologische Vorschläge. Im Kern geht es diesen darum, etwas in bestimmten Aspekten ab- oder nachzubilden bzw. zu simulieren. So schafft es die Künstliche Intelligenz eben, künstliche Intelligenz hervorzubringen, etwa Dialogsysteme oder Maschinen, die bestimmte Probleme lösen. Ob diese „wirklich“ intelligent sind oder nicht, ist keine sinnvolle Frage, und der Terminus technicus benutzt nicht umsonst das Adjektiv „künstlich“ – hier wäre noch einfacher als im Falle von „autonom“ zu verstehen, dass es sich um eine „neue“ (immerhin seit über 50 Jahren erklärte) Bedeutung handelt.

Abb.: AI, ME und MC

Schwarzer Schwan

Bereits im Buch „300 Keywords Informationsethik“ (2016) von Oliver Bendel und dann im Nachfolgewerk „400 Keywords Informationsethik“ (2019) war erklärt worden, was schwarze Schwäne sind. Dabei war auch ein Bezug zur Maschinenethik und zu Technik- und Informationsethik hergestellt worden: „Moralische Maschinen können als schwarze Schwäne angesehen werden. Tauchten sie lange Zeit nur in Science-Fictions auf und hielten die meisten Menschen ihre Umsetzung für unmöglich, werden sie nun von der Maschinenethik konzipiert und implementiert. Technik- und Informationsethik berücksichtigen schwarze Schwäne in Technikgeschichte und Informationsgesellschaft.“ Eine grundlegende und ausführliche Definition des gleichen Autors findet sich nun im Gabler Wirtschaftslexikon. Der Begriff geht bekanntlich auf Publikationen von Nassim Nicholas Taleb zurück, nämlich auf „Fooled By Randomness“ (2001) und „The Black Swan“ (2007), das Bild auf Juvenal, der in den Satiren VI eine treue Ehefrau mit dem schwarzen Schwan vergleicht, der in der Antike in Europa unbekannt war. Aber was man mit ihm heute verbindet und ob COVID-19 damit zu tun hat, kann über wirtschaftslexikon.gabler.de/definition/covid-19-122147 nachgelesen werden.

Abb.: Ein schwarzer Schwan