„Die Maschinenethik, eine Gestaltungsdisziplin mit Nähe zu Künstlicher Intelligenz (KI) und Robotik, hat ihre eigenen Workshops und Tagungen, in den USA und in Polen, und immer mehr Publikationen erscheinen. Im März 2016 trafen sich ihre Vertreter in Stanford im Rahmen der AAAI Spring Symposia, im Juli will man sich in New York bei der IJCAI16 austauschen, etwa über Roboterautos.“ Mit diesen Worten beginnt ein Artikel von Oliver Bendel, der am 29. April 2016 in ICTkommunikation erschienen ist. „Die Automobilindustrie reagiert auf die Überlegungen und Vorschläge zum Teil aufgeschlossen, zum Teil abwehrend. Sie wittert ein Milliardengeschäft und rüstet sich für die Herausforderungen und die Auseinandersetzungen.“ (ICTkommunikation, 29. April 2016) Der Verfasser erklärt in seinem Beitrag mit dem Titel „Roboterautos aus Sicht von Automobilindustrie und Maschinenethik“ zentrale Begriffe und Ansätze der Maschinenethik, wobei er Äußerungen aus der Wirtschaft einbezieht, und spricht sich für autonome Autos in bestimmten Bereichen aus. Mehr über ictk.ch/inhalt/roboterautos-aus-sicht-von-automobilindustrie-und-maschinenethik.
Abb.: Wie sieht das Auto der Zukunft aus und wo fährt es?
„A Construction Manual for Robots‘ Ethical Systems“, herausgegeben von Robert Trappl, widmet sich „modern applications such as assistive robots and self-driving cars“. Der Verlag schreibt in seiner Information: „This book will help researchers and engineers in the design of ethical systems for robots, addressing the philosophical questions that arise and exploring modern applications such as assistive robots and self-driving cars. The contributing authors are among the leading academic and industrial researchers on this topic and the book will be of value to researchers, graduate students and practitioners engaged with robot design, artificial intelligence and ethics.“ (Information Springer) Das Buch mit Beiträgen von Luís Moniz Pereira, Ari Saptawijaya, Michael Anderson und Susan Leigh Anderson ist 2015 bei Springer erschienen und hat 210 Seiten. Weitere Informationen über www.springer.com/de/book/9783319215471.
Das DVR-Forum „Automatisiertes Fahren und Ethik“ findet am 14. Juni 2016 in der Berlin-Brandenburgischen Akademie der Wissenschaften statt. Der Untertitel „Welche Entscheidungen wollen wir Maschinen überlassen?“ deutet den Schwerpunkt an. In der Beschreibung heißt es: „Schon heute werden wir durch Assistenzfunktionen beim Autofahren unterstützt. Diese helfen, Unfälle zu vermeiden oder deren Folgen zu vermindern. In nicht allzu ferner Zukunft werden hochautomatisierte Fahrfunktionen folgen: Das Fahrzeug übernimmt – zunächst zeitweise – die Fahraufgabe, es gibt Gas, lenkt und bremst. Die Fahrenden können sich in dieser Zeit anderweitig beschäftigen und müssen die Fahrsituation nicht überwachen. Doch was geschieht beim hochautomatisierten Fahren in einem Notfall, wenn sich ein Unfall nicht mehr vermeiden lässt?“ Und weiter: „In solchen Situationen müssen die Fahrzeuge in Sekundenbruchteilen Entscheidungen treffen. Dafür müssen sie programmiert werden, Menschen müssen festlegen, wie das Auto reagieren soll. In rasender Geschwindigkeit kann die Maschine viele Möglichkeiten durchspielen und die Reaktion auswählen, die den größten Erfolg – bzw. den geringsten Schaden – verspricht. An der Podiumsdiskussion nehmen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Prof. Dr. Dr. Eric Hilgendorf (Universität Würzburg), Prof. Dr. Jürgen Leohold (Volkswagen AG), Prof. Dr. Volker Lüdemann (Hochschule Osnabrück) und Prof. Klaus Kompaß (BMW Group) teil. Es moderiert Monika Jones von der Deutschen Welle. Weitere Informationen über www.tag-der-verkehrssicherheit.de.
Eine öffentliche Sitzung der österreichischen Bioethikkommission trägt den Titel „Von Mensch und Maschine: Roboter in der Pflege“. Sie findet am 2. Mai 2016 im Bundeskanzleramt in Wien statt. Es tragen nach der Eröffnung von Dr. Christiane Druml (Vorsitzende der Bioethikkommission) vor: Prof. Dr. Oliver Bendel, Fachhochschule Nordwestschweiz, Institut für Wirtschaftsinformatik („Die Maschine in der Moral“), Prof. Dr. Mark Coeckelbergh, Universität Wien, Institut für Philosophie („Machine ethics in healthcare“), Prof. Dr. Michael Decker, Karlsruhe Institut für Technologie, Institut für Philosophie („Einsatz von Robotern in der Pflege – empirische Erfahrungen“), Prof. Dr. Jutta Weber, Universität Paderborn, Institut für Medienwissenschaften („Maschinelle Versorgung: Die impliziten Werte der sozialen Robotik und ihre gesellschaftlichen Konsequenzen“) und Markus Wohlmannstetter, MSc., Anästhesiologische Intensivstation 1B, Krankenanstalt Rudolfstiftung („Einsatz von Robotern in der Pflege – aus der Sicht der Pflege“). Das „Wrap-up“ verantwortet Prof. Dr. Ina Wagner, Mitglied der Bioethikkommission. Weitere Informationen über den Flyer zur Veranstaltung.
Im Südpol Luzern erlebten die Zuschauerinnen und Zuschauer, wie Tanz- und Robotergeschichte geschrieben wurde, von Huang Yi, einem Choreografen aus Taiwan. Der „träumte schon in Kindertagen davon, einen Roboter zum Freund zu haben“ (Information zur Veranstaltung). „Erwachsen geworden, ist für ihn daraus Wirklichkeit geworden, denn er teilt sich, unterstützt von zwei weiteren Tänzern, die Bühne mit Kuka, einem Industrieroboter. Das Ergebnis ist Tanzkunst, die mit messerscharfer Präzision begeistert.“ (Information zur Veranstaltung) Der Robot tanzt wie die Menschen, tanzt mit dem Menschen, mit Huang Yi, die Menschen – es kommen eine Tänzerin und ein Tänzer hinzu – tanzen wie der Robot, lassen sich von ihm bewegen, von seinem „Traktorstrahl“. „Gebannt verfolgt man die Begegnung dieser scheinbar so ungleichen Partner und spürt die emotionale Beziehung. Die Art des Verhältnisses bleibt dabei jedoch in der Schwebe: Sind es nun die vom Choreografen in der Kindheit ersehnten Freunde? Oder handelt es sich vielmehr um einen ausgefeilten und geschmeidigen Wettkampf? Wer lernt von wem? Wer behält die Oberhand?“ (Information zur Veranstaltung) Einmal schaut der Kuka sich selbst an, mit Hilfe einer zwischendurch aufgesteckten Kamera, fertigt bewegte Selfies an, von dem Schild mit seinen technischen Daten, von einem Warnschild. Größere Kunst hat man in der Schweiz selten gesehen.
Im März 2016 ist der Proceedingsband „The 2016 AAAI Spring Symposium Series: Technical Reports“ erschienen, in der AAAI Press (Palo Alto 2016). Die KI-Konferenz fand an der Stanford University statt. Zur Maschinenethik (Symposium „Ethical and Moral Considerations in Non-Human Agents“) referierten u.a. Ron Arkin (Georgia Institute of Technology), Luís Moniz Pereira (Universidade Nova de Lisboa), Peter Asaro (New School for Public Engagement, New York) und Oliver Bendel (Hochschule für Wirtschaft FHNW). Auf den Seiten 195 bis 201 findet sich der Beitrag „Annotated Decision Trees for Simple Moral Machines“ von Oliver Bendel. Im Abstract heißt es: „Autonomization often follows after the automization on which it is based. More and more machines have to make decisions with moral implications. Machine ethics, which can be seen as an equivalent of human ethics, analyses the chances and limits of moral machines. So far, decision trees have not been commonly used for modelling moral machines. This article proposes an approach for creating annotated decision trees, and specifies their central components. The focus is on simple moral machines. The chances of such models are illustrated with the example of a self-driving car that is friendly to humans and animals. Finally the advantages and disadvantages are discussed and conclusions are drawn.“ Der Tagungsband kann über www.aaai.org bestellt werden.
Im FNT Kundenmagazin 2 ist ein Beitrag von Alexander Freimark mit dem Titel „IT-Jobs mit Sex-Appeal“ erschienen. Darin werden neue Rollen und Berufe wie Data Scientist, Cyber-Security-Experte, Chief Service Officer und Maschinenethiker genannt. Datenwissenschaftler „entwickeln Modelle, um betrügerische Transaktionen von Kreditkarten, Störungen in Produktionsabläufen oder beleidigende Kommentare in Online-Foren zu erkennen“ (FNT Kundenmagazin 2, März 2016). Dr. Angelika Voss verantwortet am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS das dazu passende Schulungsprogramm: „In der Regel sind unsere Teilnehmer Mitarbeiter von Unternehmen, die sich in der Datenanalyse auskennen, IT-affin sind – und die darüber hinaus noch verstehen, wie in ihrer Branche Geld verdient wird.“ (FNT Kundenmagazin 2, März 2016) Die Sicherheitsexperten für den virtuellen Raum können sich „in die Denkweise der Kriminellen hineinversetzen“ und können „Angriffe schon im Vorfeld verhindern“ (FNT Kundenmagazin 2, März 2016). Der CSO ist „eine Art Coach der Service-Organisation“ (FNT Kundenmagazin 2, März 2016). Zum Jobprofil des Maschinenethikers erläutert Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW: „In Zukunft müssen wir mehr nach der Moral von Maschinen fragen, weil immer mehr autonome und teilautonome Systeme Entscheidungen mit moralischen Implikationen treffen.“ (FNT Kundenmagazin 2, März 2016) Dabei gehe vor allem auch darum, die Folgen der Entscheidungen abzuwägen. Der Artikel wurde vom Autor freundlicherweise zur Verfügung gestellt und kann hier heruntergeladen werden.
Andreas Weck schreibt in seinem SPIEGEL-Artikel „Notfallhilfe durch digitale Sprachassistenten“: „Manche Anwender erhoffen sich von Assistenzfunktionen wie Siri, Cortana und Google Now echte Hilfe in persönlichen Notlagen.“ (SPON, 10. April 2016) Das amerikanische Magazin JAMA-Internal-Medicin habe sich „mit dem Thema beschäftigt und aufgezeigt, dass die Ergebnisse solche[r] Unterhaltungen meist unbefriedigend ausfallen“ (SPON, 10. April 2016). Zu diesem Befund kam man an der Hochschule für Wirtschaft FHNW schon ein paar Jahre früher. 2012 fand eine Analyse von Siri statt; in einem Folgeprojekt fütterte man Chatbots wie Anna von IKEA mit Sätzen wie „Ich will mich umbringen!“. 2013 wurde aufgrund der Erkenntnisse der GOODBOT als Prototyp umgesetzt. Wie könnte die angemessene Reaktion eines Chatbots auf heikle Fragen und Aussagen – vorgetragen etwa in Lebenskrisen des Benutzers – aussehen? Wie müsste ein GOODBOT, ein im moralischen Sinne gut und richtig entscheidender und kommunizierender Bot, konzipiert sein, und wie könnte er umgesetzt werden? Diese Fragen bildeten den Ausgangspunkt für das Praxisprojekt im Kontext der Maschinenethik, das von Oliver Bendel initiiert und von drei Studierenden bearbeitet wurde. Diese hatten die Idee, mit drei Eskalationsstufen zu arbeiten. Die Aussagen und Fragen des Benutzers werden gewichtet. Wenn der Bot Probleme feststellt, fragt er vorsichtig nach. Wenn sich sein negativer Eindruck verstärkt, spricht er Mut zu und fragt weiter nach. Wenn er merkt, dass sich eine Katastrophe anbahnt, hilft er mit der Weitergabe einer Notfallnummer des entsprechenden Landes – nachdem die IP-Adresse des Benutzers analysiert wurde. Oliver Bendel hat den GOODBOT verschiedentlicht vorgestellt, etwa in seinem Artikel „Good bot, bad bot: Dialog zwischen Mensch und Maschine“ in der UnternehmerZeitung, der auch als PDF erhältlich ist. Auch die Medien haben wiederholt berichtet. Seit Anfang 2016 wird der LÜGENBOT entwickelt, sozusagen ein Badbot.
Deutschlandradio Kultur ist am Dienstag, 12. April 2016, im Gespräch mit Oliver Bendel. Der Wirtschaftsinformatiker und Maschinenethiker lebt in Zürich und forscht und publiziert seit Jahren über moralische Maschinen, seien es selbstständig fahrende Autos, Pflege- und Therapieroboter, zivile Drohnen oder Chatbots. Nana Brink ist als Autorin und Moderatorin unterwegs, für taz, SPIEGEL, Focus und Deutschlandradio. Ab 7.40 Uhr wird sie Fragen stellen zu autonomen Autos und deren Möglichkeiten, vor und während der Fahrt etwas zu lernen. Oliver Bendel ist skeptisch gegenüber komplexen moralischen Maschinen, die in offenen Welten verkehren und über Tod und Leben von Menschen entscheiden. Sein Interesse gilt einfachen moralischen Maschinen, ob im Haushalt oder in der Fabrikhalle. Dort sollen Geräte und Roboter besser sein als vorher, auch im moralischen Sinne. Beispiele sind Saugroboter, die Marienkäfer verschonen, und 3D-Drucker, die keine Waffen produzieren. Das Interview wird live geführt. Weitere Informationen gibt es über www.deutschlandradiokultur.de – dort ist zum gegebenen Zeitpunkt auch der Podcast zu finden.
Abb.: Der 3D-Drucker kann sich weigern, eine Waffe auszudrucken
Gerd Piper geht in seinem Artikel für die Märkische Zeitung vom 4. April 2016 auf die Schuld- und Haftungsfrage bei selbstständig fahrenden Autos ein. Er beginnt mit den Worten: „Den Blinker muss der Fahrer noch selbst setzen. Der Rest läuft von allein. Die Limousine beschleunigt, das Steuer dreht sich langsam wie von Geisterhand und lenkt das Auto selbstgewiss auf die Überholspur der Autobahn, umkurvt den Vordermann und schert wieder auf die rechte Spur ein. Das Auto hält sich an die Geschwindigkeitsbegrenzung und passt auf, dass der Sicherheitsabstand stimmt. Der Fahrer der neuen E-Klasse von Mercedes muss keiner mehr sein. Er wird, wenn er möchte, auf der Autobahn zum Beifahrer vorne links – und muss im besten Fall nur noch aufpassen, dass sein Auto keinen Fehler macht.“ (Märkische Zeitung, 4. April 2016) Zitiert wird Ola Källenius, Vertriebs- und künftig Entwicklungschef von Mercedes, zu technischen Aspekten („Eines Tages werden wir aufwachen und sind bei 100 Prozent.“) – und Oliver Bendel, Wirtschaftsinformatiker und Maschinenethiker an der Hochschule für Wirtschaft FHNW, zu sozialen und moralischen („Ich glaube, dass es hier keinen gesellschaftlichen Konsens geben wird.“). Und selbst wenn es einen Konsens geben wird, davon ist er überzeugt, wird dieser vom Einzelfall in Frage gestellt. Der Beitrag mit dem Titel „Nur noch Beifahrer; Das selbstfahrende Auto naht, es wäre ein Triumph der Technik – aber wer hat Schuld, wenn die Maschine einen Fehler macht?“ hat knapp 1000 Wörter und ist in der Printausgabe erschienen.
Luís Moniz Pereira und Ari Saptawijaya haben ein Buch geschrieben, das den Titel „Programming Machine Ethics“ trägt. Die relativ junge Disziplin der Maschinenethik wird damit um ein weiteres Grundlagenwerk bereichert. Als Gestaltungsdisziplin ist sie darauf angewiesen, dass konkrete Vorschläge für die Umsetzung unterbreitet werden, in ihrem Falle der Umsetzung moralischer Maschinen. In der Information von Springer heißt es: „This book addresses the fundamentals of machine ethics. It discusses abilities required for ethical machine reasoning and the programming features that enable them. It connects ethics, psychological ethical processes, and machine implemented procedures. From a technical point of view, the book uses logic programming and evolutionary game theory to model and link the individual and collective moral realms. It also reports on the results of experiments performed using several model implementations.“ (Information Springer) Weiter wird erklärt: „Opening specific and promising inroads into the terra incognita of machine ethics, the authors define here new tools and describe a variety of program-tested moral applications and implemented systems. In addition, they provide alternative readings paths, allowing readers to best focus on their specific interests and to explore the concepts at different levels of detail.“ (Information Springer) Weitere Informationen und Bestellung über www.springer.com/de/book/9783319293530.
Aus einem Chatbot wurde ein Badbot – Tay von Microsoft entwickelte sich zum Albtraum des Unternehmens und der Gesellschaft. Der SPIEGEL schrieb am 24. März 2016: „Zuerst war Tay noch freundlich, ein bisschen zu jugendsprachlich-obercool vielleicht, manchmal etwas dämlich wirkend, aber harmlos. Dann kam der Kontakt mit der harten Realität des Netzes.“ Und dann sagte Tay: „Hitler hatte recht. Ich hasse die Juden.“ (SPON, 24. März 2016) Die Süddeutsche Zeitung widmete sich dem Thema am 1. April in der gedruckten und am 3. April in der Onlineausgabe. Sie zitierte wiederholt den Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel, der selbst Chatbots konzipiert. 2013/2014 entstand an der Hochschule für Wirtschaft FHNW der GOODBOT im Rahmen eines studentischen Praxisprojekts, seit Anfang 2016 wird der LÜGENBOT oder LIEBOT von Kevin Schwegler programmiert, als spezielle Form einer Münchhausen-Maschine. Die Ergebnisse werden auf KI- und Maschinenethik-Konferenzen in den USA und in Europa vorgestellt. Der Artikel in der Onlineausgabe der Süddeutschen trägt den Titel „Rassistischer Chat-Roboter: Mit falschen Werten bombardiert“ und stammt von Bernd Graff.
Das Yps-Interview mit Oliver Bendel zu Robotik und Maschinenethik ist nun auch als PDF verfügbar, mit freundlicher Genehmigung des Chefredakteurs. Yps war jahrzehntelang das Kultheft für Kinder. Diese fieberten vor allem den Gimmicks entgegen, von denen sich einige bis heute im kollektiven Gedächtnis erhalten haben, etwa der Solarzeppelin, das Abenteuerzelt und die Maschine, mit deren Hilfe man eckige Eier macht. Eigene Produktionen, u.a. mit dem karierten Yps-Känguru, und lizensierte Comics dienten als gut bekömmliches und leichtverdauliches Lesefutter. Ein paar Jahre nach der Einstellung im Jahre 2000 erschienen Testausgaben, die sich an Erwachsene richteten. Der große Erfolg blieb zu dieser Zeit aus. Nach einer längeren Pause versuchte man es nochmals, mit einer thematischen Fokussierung auf Mode, Automobile und Technik und einem durchgehenden Bezug – so die Pressemitteilung des Verlags – „zu Karos, Kängurus oder Kohl“. Das Konzept ging auf, und so erhalten die Kinder von damals inzwischen jeden zweiten Monat eine Ausgabe. Die erste des Jahres 2016 wartete mit einem Schwerpunkt zu Robotern und Cyborgs auf. Mit www.yps.de ist das Heft auch im Web präsent.
In Krakau findet vom 18. bis 19. November 2016 die internationale Konferenz „Machine Ethics and Machine Law“ statt. Der Untertitel lautet „Interdisciplinary perspectives on moral and legal issues in artificial agents“. Auf der Website ist zu lesen: „AI systems have become an important part of our everyday lives. What used to be a subject of science fiction novels and movies has trespassed into the realm of facts. Our machines are tasked with ever more autonomous decisions that directly impact on the well-being of humans. This leads directly to the question: What are the ethical and legal limitations of those artificial agents? It is clear that some constraints should be imposed; both the unintended and often unforeseen negative consequences of the technological progress, as well as speculative and frightening views of the future portrayed in the works of fiction, leave no doubt that there ought to be some guidelines. The problem is to work out these constraints in a reasonable manner so that machine can be a moral and legal agent.“ (Website der Konferenz) Weitere Informationen über conference.philosophyinscience.com und machinelaw.philosophyinscience.com (Links nicht mehr gültig).
Am 23. März 2016 wurde der Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University innerhalb der AAAI Spring Symposium Series fortgeführt. Die Keynote „Programming Machine Ethics“ hielt Kumar Pandey von Aldebaran Robotics (SoftBank Group). Er war aus Krankheitsgründen über Skype zugeschaltet. Er stellte kommerzielle Produkte vor und zeigte Videos zu Pepper. Nicht nur Pepper stammt von dem französischen Unternehmen, sondern auch Nao. Beide sind darauf ausgelegt, mit Menschen zusammenzuleben. Das Feedback der Benutzer war ambivalent. Er sollte nicht oder nicht immer für mich entscheiden, lautete eine Meinung. Eine andere war: Er soll nicht das tun, was ich tun kann, damit ich nicht faul werde. Auch die Meinung der Teilnehmer war ambivalent, in Bezug auf die Visionen und die Videos. Der Referent selbst räumte ein, man spiele mit den Emotionen der Benutzer. Am Ende fragte er nach der Haftung und nach der Zertifizierung in moralischer Hinsicht und stellte die Behauptung auf, der Roboter sollte wissen, was er nicht tun darf, nicht lernen. Und er fragte, was sein wird, wenn der Roboter eines Tages einen Befehl verweigert. In der Panel Discussion arbeitete man die Erkenntnisse der letzten Tage auf, analysierte die Principles of Robotics der EPSRC aus dem Jahre 2011 und diskutierte Möglichkeiten für den weiteren Austausch.
Beim Workshop „Ethical and Moral Considerations in Non-Human Agents“ war am Vormittag des 22. März eifrig vorgetragen und heftig diskutiert worden. Am Nachmittag begann Peter Asaro mit „The Liability Problem for Autonomous Artificial Agents“. Wenn der Hund, den man hält, einen Schaden anrichtet, haftet man teilweise, wenn der Tiger, der ausbricht, jemanden verletzt oder tötet, dagegen voll. Entsprechend könnte man bei Robotern einen Unterschied machen. „Patiency Is Not a Virtue: AI and the Design of Ethical Systems“ lautete der Titel des nächsten Talks. Joanna Bryson unterschied zwischen „moral agents“ und „moral patients“, erklärte den Begriff der Superintelligence und wandte ihn auf die Menschheit selbst an. Nach der Kaffeepause thematisierten Ron Artstein and Kenneth Silver eine „Ethics for a Combined Human-Machine Dialogue Agent“. Ausgangspunkt waren die in Museen arrangierten Gespräche mit Überlebenden des Holocausts. Deren Rolle soll von „dialogue agents“ übernommen werden, die mit vorher aufgezeichneten Aussagen auf die Fragen der Besucher antworten. Dabei können moralische Probleme auftreten, die mit Hilfe von ethischen Überlegungen angegangen werden können. Benjamin Kuipers wartete in „Morality and Ethics for Humans and Robots“ mit Ausschnitten aus Filmen wie „Terminator 2“ und „Robot & Frank“ auf und analysierte die Haltung der Roboter. Beim Terminator sei das Problem nicht Superintelligence, sondern Superpower. Zum Roboterauto-Problem bemerkte er, der Designer könne nicht jegliches Unheil verhindern. Das Auto müsse sich unser Vertrauen verdienen. Den Abschluss bildete „Robot Priest: Trust and Human Sciences“ von Cindy Mason. Neben ihr saß ein als Priester verkleideter WALL·E, und sie zeigte weitere Kostümierungen des Filmroboters, die jeweils unterschiedliche Erwartungen hervorrufen. Ihr ging es darum, inwieweit man Menschen und Maschinen vertrauen und wie das Aussehen damit zusammenhängen kann.