The LIEBOT Whitepaper

Machine ethics researches the morality of semi-autonomous and autonomous machines. In 2013 and 2014, the School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW implemented a prototype of the GOODBOT, which is a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. In a follow-up project in 2016 the LIEBOT (aka LÜGENBOT) was developed, as an example of a Munchausen machine. The student Kevin Schwegler, supervised by Prof. Dr. Oliver Bendel and Prof. Dr. Bradley Richards, used the Eclipse Scout framework. The whitepaper which was published on July 25, 2016 via liebot.org outlines the background and the development of the LIEBOT. It describes – after a short introduction to the history and theory of lying and automatic lying (including the term of Munchausen machines) – the principles and pre-defined standards the bad bot will be able to consider. Then it is discussed how Munchausen machines as immoral machines can contribute to constructing and optimizing moral machines. After all the LIEBOT project is a substantial contribution to machine ethics as well as a critical review of electronic language-based systems and services, in particular of virtual assistants and chatbots.

Pinocchio

Fig.: A role model for the LIEBOT

Film zum DVR-Forum

Beim DVR-Forum „Automatisiertes Fahren und Ethik“ wurde ein Film gedreht, der im Juli 2016 zur Verfügung gestellt wurde. Man kann ihn über www.youtube.com/watch?v=SH_9kr6fZK8 aufrufen. Zudem hat der Veranstalter Texte und Fotos über www.dvr.de/presse/informationen/welche-entscheidungen-wollen-wir-maschinen-ueberlassen_id-4479.htm veröffentlicht. Das DVR-Forum fand am 14. Juni 2016 in der Berlin-Brandenburgischen Akademie der Wissenschaften am Gendarmenmarkt in Berlin-Mitte statt. Der Untertitel „Welche Entscheidungen wollen wir Maschinen überlassen?“ deutete den Schwerpunkt an. An der Podiumsdiskussion nahmen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Prof. Dr. Dr. Eric Hilgendorf (Universität Würzburg), Prof. Dr. Jürgen Leohold (Volkswagen AG), Prof. Dr. Volker Lüdemann (Hochschule Osnabrück) und Prof. Klaus Kompaß (BMW Group) teil. Es moderierte Monika Jones von der Deutschen Welle. Weitere Informationen über www.tag-der-verkehrssicherheit.de.

Kein Sex mit dem Auto

SoftBank und Honda wollen ein sprechendes Auto bauen – das meldet Golem am 23. Juli 2016. „Mittels Sensoren, Mikrofonen und Kameras sollen anhand von Veränderungen in der Sprache, Gestik und Körpermerkmalen Emotionen des Fahrers gelesen und von der KI des Wagens ausgewertet werden. Bei stressigen Situationen soll die KI dann beispielsweise aufmunternde Worte spenden, oder bei langen Fahrten alleine als Gesprächspartner fungieren.“ (Golem, 23. Juli 2016) Oliver Bendel hat in seinem Artikel „Ein Auto mit Charakter“ vom 17. November 2015 geschrieben: „Es ist naheliegend, einem Auto, das mit Fahrerassistenzsystemen vollgestopft oder im Gesamten ein Roboter ist, einen Charakter angedeihen zu lassen, und diesen im Wesentlichen mit Hilfe auditiver Schnittstellen und Künstlicher Intelligenz (auf welchem Niveau auch immer) zu realisieren.“ (ICTkommunikation, 17. November 2015) An einer Stelle heißt es: „Wenn das Auto schon ein Charakter ist oder einen Charakter hat, kann man auch daran denken, es mit Moral auszustatten.“ (ICTkommunikation, 17. November 2015) Diese Idee wird von dem Maschinenethiker kritisch diskutiert. Auch die Idee, dem Auto einen Charakter zu geben, wird von ihm nur als Möglichkeit gesehen, die es zu untersuchen gilt. Man darf gespannt sein, was die Hersteller auf die Straße bringen. Die Plattform des geplanten Fahrzeugs steht bereits fest: Es ist Pepper von SoftBank und Aldebaran Robotics, der zuletzt in die Schlagzeilen kam, weil man mit ihm laut Benutzerhandbuch keinen Sex haben soll; selbst eine Manipulation seiner Stimme zur Erzielung einer erotisierenden Wirkung verbat man sich. Vermutlich wird die Bedienungsanleitung des sprechenden Autos ähnlich ab­tur­nend sein.

warning

Abb.: Sex mit dem Auto ist verboten

Maschinenrichter

„Der Algorithmus als Richter“ lautet der Titel eines Beitrags von Katharina Schuchmann für politik-digital.de vom 21. Juli 2016. „Automatisierte Justiz – ein Projekt aus den Niederlanden zeigt, wie es gehen kann und hat damit Erfolg. Der Robo-Richter ist wohl nur eine Frage der Zeit. Sind Justizirrtümer damit eine Sache der Vergangenheit?“ (politik-digital.de, 21. Juli 2016) Die Verfasserin geht auf ein Pilotprojekt in den Niederlanden ein, das System Rechtswijzer, nach ihren Worten ein automatisierter Streitschlichtungsservice. „Derzeit bietet das Portal Lösungen in Scheidungsangelegenheiten und bei Beschwerden zu Online-Käufen an.“ Zudem wirft sie einen Blick in die Zukunft, über Schlichtung und Scheidung hinaus. Es scheine nur eine Frage der Zeit zu sein, „bis lernende Algorithmen in der Lage sind, Urteile über weniger eindeutige Verhältnisse zu fällen“ (politik-digital.de, 21. Juli 2016). Vorstellbar sei, dass mittelfristig eine Umkehr der Verhältnisse stattfinde und der Algorithmus nicht mehr den Juristen unterstütze, sondern dieser den Algorithmus, ihn mit Meinungen und menschlichen Einschätzungen füttere und ansonsten walten (und schalten) lasse. Wie bei verschiedenen anderen Automatisierungsbestrebungen – etwa bei Banken und Versicherungen – wäre es freilich auch hier wichtig, dass der Mensch das letzte Wort behält. Zwar kann man Befangenheit und Gefühligkeit ein Stück weit durch maschinelle Verfahren ausgleichen; aber Empathie und Intuition sind meist essentielle Bestandteile rationaler Entscheidungsprozesse. Obwohl es nicht um moralische Urteile geht, sondern um rechtliche, kann die Maschinenethik zur Gestaltung von „Richtersystemen“ beitragen und durch die Konzeption und Implementierung auch die Grenzen der „Maschinenrichter“ aufzeigen.

Yellow_Robot

Abb.: Welches Urteil fällt die Maschine?

Autonom bei Amsterdam

Daimler hat bei Amsterdam (zwischen dem Flughafen Schipohl und der Stadt Haarlem) selbstfahrende Busse eingesetzt. Der Mannheimer Morgen hat am 18. Juli 2016 Oliver Bendel dazu befragt. Der Maschinenethiker hat schriftlich geantwortet: „Grundsätzlich rate ich davon ab, autonome Fahrzeuge in Städten und Ballungsgebieten einzusetzen. In diesen wimmelt es von Fahrzeugen, Verkehrsteilnehmern, Objekten wie Tauben, Luftballons und Seifenblasen, Lichtreflexen, Schatten und Signalen. Zugleich sehe ich wie Daimler durchaus Potenzial für den öffentlichen Nahverkehr. Man kann das Risiko minimieren, indem man die Geschwindigkeit stark senkt, spezielle Spuren nutzt und verschiedenartige Sensoren koppelt. In Sitten im Wallis verkehren die autonomen Shuttles der PostAuto AG sehr langsam, auf einer bekannten Rundstrecke. Das ist eine gute Lösung. Dennoch könnte eines Tages ein kleines Kind zu Schaden kommen. Die Geschwindigkeit der Daimler-Busse ist sehr hoch. Das mag dann funktionieren, wenn sich auf diesen Spuren ansonsten nichts und niemand befinden kann. Es handelt sich hier immerhin nicht um die Innenstadt von Amsterdam, sondern um eine übersichtliche Strecke zwischen Flughafen und Haarlem. Ich rate auf jeden Fall dazu, nicht allein die Kameras beobachten und entscheiden zu lassen. Sie täuschen sich schnell und sind leicht zu täuschen, auch durch böswillige Passanten mit Taschenspiegeln und Laserpointern. Es sollten unbedingt weitere Systeme die Situation prüfen, etwa Radar, Lidar und Ultrasound, und vor allem sollte eine Art Mehrheitsentscheidung vorhanden sein. Wenn drei Systeme erklären, dass die Luft rein ist, sollte sie rein sein.“ Mehrere Statements wurden in den Artikel „Stadtbus mit Autopilot“ eingearbeitet, der am selben Tag erschienen ist und über www.morgenweb.de/nachrichten/wirtschaft/regionale-wirtschaft/1.2881794 abgerufen werden kann.

Marijuana

Abb.: Auch das gibt es in und bei Amsterdam

Von Talos bis Pandora

„Einer meiner Lieblingsgötter ist Hephaistos, der Schöpfer von Talos und Pandora. Über die Frau mit der Büchse muss man kaum ein Wort verlieren. Talos ist weniger bekannt, obwohl er als Spielzeug bis in unsere Gegenwart überdauert hat. Er, der Wächter von Kreta, bewarf herannahende Boote mit Steinen, bis sie mitsamt den Feinden untergingen. Wenn diese doch das Ufer erreichten, drückte er sie an seinen metallenen Körper, der inzwischen glühte. Das erinnert an eine andere künstliche Figur, die eiserne Jungfrau des Nabis – doch bleiben wir bei Talos.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der am 16. Juli 2017 in der Beilage Sonntag – und damit in Zeitungen wie Hannoversche Allgemeine und Leipziger Volkszeitung – erschienen ist. Von den erdachten Maschinen und Robotern der Antike wird ein Bogen gespannt bis zu selbstfahrenden Autos. Und zur Maschinenethik, die die Möglichkeiten moralischer Maschinen erkundet. Diese sind ein Topos der Ideengeschichte der künstlichen Kreatur, und ganz gegensätzliche Geschöpfe wie Galatea und Golem treffen sich einerseits in ihrer Sprachlosigkeit und Tumbheit, andererseits auch in ihren Möglichkeiten moralischen oder unmoralischen Handelns. Während Galatea weitgehend Projektionsfläche und Gebärmaschine bleibt, wird der Golem in einer Version zur Zerstörungsmaschine, losgelassen auf Prag. Der Beitrag mit dem Titel „Maschine entmündigt Mensch“ (ursprünglich: „Von Talos bis Pandora“) kann etwa über http://www.haz.de/Sonntag/Gastkommentar/Maschine-entmuendigt-Mensch-Gastbeitrag-von-Oliver-Bendel aufgerufen werden; zudem steht über diese Plattform ein PDF zur Verfügung.

Nachrichten aus der neuen Fabrik

„Im Aargau kam der GOODBOT zur Welt. Programmiert wurde er in verschiedenen Kantonen, doch am Campus Brugg-Windisch der FHNW wurde er erdacht und ausprobiert. Wir hatten 2013 verschiedene Chatbots auf Websites mit Aussagen und Fragen gefüttert. Die Ergebnisse waren erschütternd. Maschinen dieser Art sind dazu da, die Benutzer über Produkte und Dienstleistungen zu informieren. Sie sind auch vorbereitet auf Fragen, die sie selbst und die Welt betreffen. Wenn die Sprache indes auf einen beabsichtigten Selbstmord oder Amoklauf kam, versagten die meisten von ihnen.“ Mit diesen Worten beginnt der Artikel „Nachrichten aus der neuen Fabrik“ von Oliver Bendel, der in der Aargauer Wirtschaft Nr. 7 (14. Juli 2016) erschienen ist. Und weiter: „Ich erfand den GOODBOT, der bei Problemen besser reagieren und im Extremfall eine nationale Notfallnummer herausgeben konnte. Drei Studenten implementierten ihn prototypisch. Die Gestaltungsdisziplinen, deren Methoden wir anwandten, waren soziale Robotik und Maschinenethik. Erstere bringt Roboter hervor, die zu sozialen Interaktionen fähig sind und Menschen nicht überfordern und nicht verletzen, letztere Maschinen, die moralisch angemessen entscheiden und handeln.“ (Aargauer Wirtschaft, 14. Juli 2016) Im Folgenden wird auf die Industrie 4.0 und die Smart Factory eingegangen, wo soziale Robotik und Maschinenethik ebenfalls eine Rolle spielen. Der ganze Artikel kann über diese Plattform heruntergeladen werden, das gesamte Heft (u.a. mit einem Beitrag von Crispino Bergamaschi) steht hier zum Download bereit.

Building

Abb.: Die Smart Factory ist mit der Umwelt vernetzt

Aufhalten lassen wir uns nicht

Die Journalistin Heike Henzmann hat im Rahmen der Serie „Walk and Talk“ für die Zeitschrift aktuelle technik (at) ein langes Gespräch mit dem Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel geführt. Der erste Teil des Interviews ist im Juni 2016 erschienen und in diesem Blog besprochen worden. Der zweite Teil mit dem Titel „Aufhalten lassen wir uns nicht.“ liegt seit dem 14. Juli vor und kann hier heruntergeladen werden. In dem Gespräch ging es, wie bereits ausgeführt, um Maschinenethik, Informationsethik und Technologiefolgenabschätzung sowie um Moral und Ethik im Allgemeinen. Zur Maschinenethik führt Oliver Bendel aus: „Die Maschinenethik begreife ich als Gestaltungsdisziplin, die Informationsethik als Reflexionsdisziplin. Die Maschinenethik ist die Disziplin, die die Moral der Maschine zum Thema hat. Die Moral des Menschen wird anders als in der Menschenethik nur nebenbei betrachtet, als Mittel zum Zweck. Eine menschliche Moral ist sehr viel besser als eine maschinelle Moral. Der maschinellen Moral fehlt einiges. Die Maschine kann aber mindestens eine so gute Moral haben wie der menschliche Fundamentalist.“ (at, 7/2016) Diese These wird im Folgenden näher beleuchtet und begründet. Neben dem Text finden sich in beiden Beiträgen viele Fotos, aufgenommen bei miesestem Regenwetter und bester Diskutierlaune.

FundamentalistAbb.: Ein Fundamentalist bei seiner Lieblingsbeschäftigung

Autonome Autos in der Sendung „Kontrovers“

In der Sendung „Kontrovers“ (Bayerisches Fernsehen) vom 13. Juli 2016 ging es um selbstfahrende Autos. Zu Wort kamen neben Bürgerinnen und Bürgern u.a. Alexander Dobrindt, Bundesverkehrsminister von Deutschland, und Prof. Dr. Oliver Bendel, Wirtschaftsinformatiker, Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Im Ankündigungstext wurde unter dem Titel „Auch eine Frage der Moral“ der Inhalt des Films skizziert und auf Dilemmata eingegangen: „Es gibt viele offene Fragen: Wie verhält sich ein autonomes Fahrzeug in einer Gefahrensituation? Was macht das Auto, wenn plötzlich ein kleines Mädchen vor ihm auf die Straße läuft? Was, wenn der Fahrer das Kind nur verschonen kann, indem er ausweicht, aber dadurch zum Beispiel einen Senioren gefährdet? Ist ein junges Leben mehr wert als ein älteres?“ (Website BR) Oliver Bendel ist nicht gegen hoch- und vollautomatisiertes Fahren oder autonome Autos. Diese gehören nur nach seiner Meinung auf die Autobahn, nicht in die Stadt. Selbst die Autobahn ist noch schwierig zu bewältigen; die Stadt zu bewältigen, ist kaum möglich. Ein Problem sind Kameras, die sich schnell täuschen respektive leicht täuschen lassen. Sie müssen auf jeden Fall mit weiteren Sensoren gekoppelt werden. Das Gespräch mit Oliver Bendel führte Patrick Lerch. Weitere Informationen über www.br.de/br-fernsehen/sendungen/kontrovers/autonomes-fahren-selbstfahrende-autos-ethik-100.html.

Schild_Muenchen

Abb.: Das Interview mit Oliver Bendel fand in München statt

K5 übersieht Kind

Der Sicherheits- und Überwachungsroboter von Knightscope im Stanford Shopping Center hat ein Kind leicht verletzt. Dies meldete GIZMODO am 12. Juli 2016: „A 300-pound security robot … knocked down and ran over a 16-month-old boy. The parents of the injured boy are understandably pissed, claiming the autonomous machine is dangerous.“ (GIZMODO, 12. Juli 2016) Oliver Bendel hatte im Frühjahr über den K5 berichtet, dem er selbst vor Ort begegnet war. Dabei hatte er ihn mit einem Modell aus China, dem AnBot, verglichen und Überlegungen aus Sicht der Ethik angestellt: „Ich war verwundert, dass man dem K5 in Stanford so nahe kommen konnte. Vielleicht gibt es auch einen Knopf bei ihm, den man drücken kann. In diesem Fall müsste er eine gewisse Nähe erlauben. Aber was ist, wenn er ein Kind oder ein Tier überfährt? Wenn sein enormes Gewicht auf einem kleinen Körper liegen bleibt?“ Zum Vorgang schreibt GIZMODO: „When the Knightscope K5 senses trouble, it alerts local authorities – though it didn’t seem particularly concerned when it plowed into the toddler earlier this week. Little is known about the incident, but the robot’s sensors didn’t seem to detect Harwin – and that’s obviously a problem.“ (GIZMODO, 12. Juli 2016) Der Beitrag von Oliver Bendel ist am 19. Mai in der Zeitschrift inside-it.ch erschienen und kann über www.inside-it.ch/articles/43886 aufgerufen werden.