Die VDI-Konferenz „Humanoide Roboter“ beschäftigt sich, so die Website, „mit dem Menschen nachempfundenen Robotern“. „Das Themenspektrum reicht dabei von Design und Gestaltung über die kognitive Planung bis hin zu Anwendungsbeispielen.“ Leiter der Konferenz ist Prof. Dr. Frank Kirchner vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Auf der Website heißt es weiter: „Was für viele wie Science Fiction klingt, könnte bald schon Realität sein. Menschenähnliche Roboter, die in Umgebungen agieren, die für den Menschen geschaffen sind und für den Menschen entworfene Werkzeuge benutzen. Damit würden sich die Einsatzmöglichkeiten für Roboter enorm erweitern. Zudem versprechen sich viele Experten durch humanoide Roboter auch eine verbesserte Interaktion zwischen Mensch und Roboter.“ Prof. Dr. Karsten Berns von der TU Kaiserslautern trägt zusammen mit Steffen Schütz über dynamisches zweibeiniges Laufen nach menschlichem Vorbild vor, Dr. Robert Haschke von der Universität Bielefeld über Taktilsensorik für anthropomorphe Roboterhände, um nur zwei Beispiele zu nennen. „Der LÜGENBOT als Umsetzung einer Münchhausen-Maschine“ lautet der Titel des Vortrags von Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. Er hat zusammen mit Kevin Schwegler im Kontext der Maschinenethik einen Chatbot entwickelt, der unter Verwendung interner Strategien und externer Dienste und Quellen lügt, dass sich die Balken biegen. Der LÜGENBOT aka LIEBOT hat eine eigene Website, nämlich www.luegenbot.ch bzw. www.liebot.org (Links nicht mehr gültig). Er ist als Vertreter der einfachen unmoralischen Maschinen nicht nur an sich interessant, sondern hilft auch dabei, einfache moralische Maschinen zu entwickeln, nämlich solche, die in ihren Aussagen verlässlich und vertrauenswürdig sind. Die Fachtagung findet vom 13. bis 14. Dezember 2016 in Aschheim bei München statt. Das Programm kann hier heruntergeladen werden.
Ein kleiner Junge namens Nicholas hat, wie Nerdcore meldet, das Trolley-Problem gelöst. In einem Video wird gezeigt, wie er mit Spielzeugbahn und -figuren an das Gedankenexperiment herangeführt wird. Er überlegt nicht lange, nimmt die eine Person von dem einen Gleis und legt sie auf das andere zu den fünf Personen, die bereits dort sind. Dann lässt er den Trolley bzw. die Bahn über die vergrößerte Gruppe rollen. Bisher hat man immer entweder die Weiche umgelegt oder eben nicht und sich für den Tod der einen Person oder den Tod der fünf Personen entschieden. Nerdcore schreibt dazu: „Zwar sieht das Gesetz für beide Standardlösungen des Trolley-Problems Möglichkeiten vor, die in Straflosigkeit münden. Aber bis dahin hat der junge Nicholas jede Menge Ärger am Hals und die Medien hacken auf ihm rum, tausend Shitstorms[,] weil er irgendwelche Leute umgebracht/nicht umgebracht hat und so weiter. Es ist daher völlig verständlich und nachvollziehbar, wenn sich Nicholas ganz einfach aller Zeugen entledigt, [sie] auf einen Haufen wirft und mit dem Zug über sie drüberrollert, bis sie Hackfleisch sind. Nicholas wird bestimmt mal 1a[-]Gangster.“ Ein Roboterauto könnte das Verhalten des Jungen nachahmen, wenn es Greifarme hätte, die nicht nur für das Verschieben von Personen, sondern auch zum Entgegennehmen einer Pizza oder eines Sofas sinnvoll wären. Artikel und Video über www.nerdcore.de/2016/09/01/2jaehriger-loest-trolley-problem/ (Link nicht mehr gültig).
Abb.: Ein kleiner Junge hat das Trolley-Problem gelöst
Vor mehreren Jahren wurde der GOODBOT im Kontext der Maschinenethik erdacht. In einem Projekt am Institut für Wirtschaftsinformatik (IWI) der Hochschule für Wirtschaft FHNW wurde er umgesetzt. Die UnternehmerZeitung Nr. 7/8 (2013) und andere Medien berichteten über die einfache moralische Maschine, den sich vorbildlich verhaltenden Chatbot, der Probleme von Benutzern erkennt und im Extremfall eine Notrufnummer herausgibt. In einem Folgeprojekt wurde von März bis August 2016 der LÜGENBOT (auch LIEBOT genannt) entwickelt. Assistenzsysteme wie Siri und Cortana und Chatbots auf Websites scheinen meistens die Wahrheit zu sagen, nicht aus moralischen, sondern aus pragmatischen Gründen. Es handelt sich um Programme und Dienste, die den Menschen unterhalten, unterstützen und informieren sollen. Wäre keinerlei Vertrauenswürdigkeit vorhanden, würden sie keine Akzeptanz finden. Eine Münchhausen-Maschine ist ein Gegenentwurf. Sie konstruiert in Kenntnis der Wahrheit die Unwahrheit, als Wetterbericht, Nachrichtendienst oder Dialogsystem. Der LÜGENBOT ist eine Münchhausen-Maschine, die als Chatbot realisiert ist. Vielleicht steckt mehr von ihm in Siri und Cortana, als wir glauben. In der UnternehmerZeitung Nr. 9 (2016) widmet sich Oliver Bendel in seinem Artikel „Die Stunde der Wahrheit“ seinem Geschöpf (das von Kevin Schwegler im Rahmen seiner Bachelorarbeit im Detail ausgeformt und in der Praxis umgesetzt wurde). Er geht darauf ein, wie man von ihm lernen kann, zugunsten einer verlässlichen virtuellen Welt, in der man Diskussionen führt und Transaktionen durchführt, ohne Angst vor Schwindel und Betrug. Der Artikel kann hier heruntergeladen werden.
Abb.: Der LÜGENBOT bei seiner Lieblingsbeschäftigung
„Maschine und Moral, Roboter und Recht“ ist der Titel eines Beitrags von Hansjörg Schmid und Virginie Jaquet, der im August 2016 in der APUNTO (3/2016) erschienen ist, der Zeitschrift für die Angestellten in der Schweiz. Im Teaser heißt es: „Maschinen und Roboter durchdringen unser Leben immer mehr. Das Zusammenwirken von Mensch und Maschine ist aber, gerade in der Schweiz, noch erstaunlich wenig geregelt, wie Rechtsexperten und Ethiker feststellen.“ (APUNTO, August 2016) Zu Wort kommen Prof. Dr. Isabelle Wildhaber, Professorin für Privat- und Wirtschaftsrecht unter besonderer Berücksichtigung des Arbeitsrechts an der Universität St. Gallen und Expertin für Roboterrecht, Nicolas Capt, Rechtsanwalt bei Barreaux de Genève & Paris und Spezialist für neue Technologien, und Prof. Dr. Oliver Bendel, Wirtschaftsinformatiker, Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Der Artikel liegt in der selben Ausgabe in französischer Sprache vor, unter dem Titel „Machines et morale, robots et droit“. Der Teaser lautet dort: „Les robots envahissent toujours plus notre vie. Pourtant, la cohabitation entre l’homme et la machine est très peu réglée en Suisse, comme le constatent des experts en droit et un éthicien.“ Das gesamte Heft kann über angestellte.ch/assets/Apunto/apunto-3-16-GzD-low.pdf heruntergeladen werden.
Abb.: Ist dieses Robotermädchen schon moralisiert?
Die Maschinenethik ist eine junge, dynamische Disziplin. Insbesondere in den USA werden Konferenzen durchgeführt, Fachbücher veröffentlicht und Plattformen aufgebaut. Auch in Holland, England, Polen und in der Schweiz ist man aktiv. „Welcome to the Moral Machine!“ heißt es auf einer Website des MIT. „A platform for gathering a human perspective on moral decisions made by machine intelligence, such as self-driving cars.“ (Website MIT) Und weiter: „We show you moral dilemmas, where a driverless car must choose the lesser of two evils, such as killing two passengers or five pedestrians. As an outside observer, you judge which outcome you think is more acceptable. You can then see how your responses compare with those of other people.“ Es geht also um moralische Entscheidungen autonomer Systeme, denen wiederum moralische Urteile von Menschen folgen sollen. Damit verweist man auf eine lange Tradition von Gedankenexperimenten, die bereits in der Antike beliebt waren und mit dem Trolley-Problem und dem Fetter-Mann-Problem mit Blick auf Fahrzeuge und Menschen einschlägig wurden. Nun gibt es inzwischen einige Plattformen, die Dilemmata visuell aufbereiten, und auch das SRF hat sich Verdienste in diesem Bereich erworben. Besonders ist freilich folgende Option: „If you’re feeling creative, you can also design your own scenarios, for you and other users to browse, share, and discuss.“ Weitere Informationen über http://moralmachine.mit.edu/.
An der Hochschule für Wirtschaft FHNW wurde von Frühjahr bis Spätsommer 2016 im Rahmen der Abschlussarbeit von Kevin Schwegler der LÜGENBOT (LIEBOT) als einfache unmoralische Maschine und Ausprägung einer Münchhausen-Maschine entwickelt. Professor Dr. Oliver Bendel, der Auftraggeber und einer der Betreuer, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert. Darin wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man kann also Lügenmaschinen bauen, Wetterberichte, die die falsche Temperatur angeben, Chatbots, die Tatsachen verdrehen – und uns verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student hat den LIEBOT in Java programmiert, mit dem Eclipse Scout Neon Framework. Dabei stand ihm ein weiterer Betreuer, Prof. Dr. Bradley Richards, zur Seite. Kevin Schwegler ist ein wertvoller Beitrag zur Forschung gelungen, u.a. durch genuine maschinelle Strategien des Lügens, die etwa auf einer Ontologie der Princeton University und einer Funktion von Yahoo beruhen. So wird aus dem Satz „Ein Hase hat lange Ohren“ durch ein Hinauf- und Hinabwandern in der Ontologie die Lüge „Ein Igel hat lange Ohren“ – das Hyponym „Hase“ wird ersetzt durch das Kohyponym „Igel“. Der LÜGENBOT kann ab Ende August 2016 über luegenbot.ch und liebot.org getestet werden (Links nicht mehr gültig).
Abb.: Hat der Igel lange Ohren oder der LIEBOT eine lange Nase?
Prior to the hearing in the Parliament of the Federal Republic of Germany on 22 June 2016 from 4 – 6 pm, the contracted experts had sent their written comments on ethical and legal issues with respect to the use of robots and artificial intelligence. The video for the hearing can be accessed via www.bundestag.de/dokumente/textarchiv/2016/kw25-pa-digitale-agenda/427996. The documents of Oliver Bendel (School of Business FHNW), Eric Hilgendorf (University of Würzburg), Norbert Elkman (Fraunhofer IPK) and Ryan Calo (University of Washington) were published in July on the website of the German Bundestag. Answering the question „Apart from legal questions, for example concerning responsibility and liability, where will ethical questions, in particular, also arise with regard to the use of artificial intelligence or as a result of the aggregation of information and algorithms?“ the US scientist explained: „Robots and artificial intelligence raise just as many ethical questions as legal ones. We might ask, for instance, what sorts of activities we can ethically outsource to machines. Does Germany want to be a society that relegates the use of force, the education of children, or eldercare to robots? There are also serious challenges around the use of artificial intelligence to make material decisions about citizens in terms of minimizing bias and providing for transparency and accountability – issues already recognized to an extent by the EU Data Directive.“ (Website German Bundestag) All documents (most of them in German) are available via www.bundestag.de/bundestag/ausschuesse18/a23/anhoerungen/fachgespraech/428268.
Die zentrale Botschaft der Verkehrspyramide ist, dass die „natürliche Umgebung“ für das vollautomatisierte Fahren und das autonome Auto die Autobahn ist. Dort gibt es nur wenige Einflüsse und Faktoren, die zu berücksichtigen sind, und die Unfallzahlen können drastisch gesenkt werden. Das Fahren in der (Innen-)Stadt hingegen ist hochkomplex, und die zahlreichen Teilnehmer und Objekte führen zu einer Informationsflut, die das Auto bewältigen muss. Zwar kann es das als rollender Computer im Prinzip gut, aber anders als ein Mensch kann es z.B. nur schlecht priorisieren: Der erfahrene Autofahrer ignoriert unwichtige Details, die das System erst einmal zu erkennen und zu verarbeiten hat. Im Stadtverkehr bietet sich ein teilautomatisierter Verkehr an, und manuelle Eingriffe müssen die Regel sein. Generell gilt, dass automatisiertes Fahren von Beschränkungen in Raum und Zeit profitiert. Die Höchstgeschwindigkeiten müssen angepasst, spezielle Spuren eingerichtet werden. Wichtig ist generell eine Zunahme und Kopplung von Sensoren, nicht nur von Kameras, Ultraschall und Radar, sondern auch von Lidar und Infrarot. Wärmebildkameras sind ein wichtiger Bestandteil des Moralmoduls und helfen dabei, Lebewesen in der Nacht zu erkennen. Menschenleben sollen geschützt, aber weder qualifiziert noch quantifiziert werden, allenfalls bei großen Menschenansammlungen; Tiere dagegen können qualifiziert und quantifiziert werden, und die Maschine vermeidet Tierleid und rettet Tierleben – vor allem auf Landstraßen – durch selbstständige Eingriffe, eine passende Verkehrslage vorausgesetzt.
Abb.: Die Verkehrspyramide für automatisiertes Fahren
Anfang Juni 2016 führte Hansjörg Schmid von der Zeitschrift Apunto, die sich an die Angestellten in der Schweiz richtet, ein Interview mit dem Maschinenethiker und Wirtschaftsinformatiker Oliver Bendel. Dieses ist Anfang August unter dem Titel „Von moralischen und unmoralischen Maschinen“ online erschienen. Oliver Bendel skizziert die Aufgaben der Maschinenethik als Gestaltungsdisziplin. Dazu gehören nicht nur Konzepte und Prototypen moralischer, sondern auch unmoralischer Maschinen. Es geht nicht nur darum, Technik zu zähmen, zu dressieren und zu bändigen, nicht nur darum, sie das Gute wählen zu lassen, sondern auch darum, sie zu entfesseln, sie das Böse tun zu lassen, um dieses – als Resultat der Maschine – besser zu verstehen. Denn was bedeutet es, wenn ein neuartiges Subjekt der Moral, ein alleingelassenes, auf sich selbst gestelltes Artefakt, etwas tun kann, das wir als unmoralisch oder moralisch bezeichnen? Was bedeutet es, wenn zwar kein guter oder böser Willen im engeren Sinne vorhanden ist, aber eine Willenssimulation, eine Zielorientiertheit und Absichtserklärung, verbunden etwa mit einer hohen Wahrscheinlichkeit in Bezug auf das Gute oder Böse? Der LÜGENBOT, der im Gespräch erwähnt wird, verfügt nicht nur über ausgefeilte Strategien, die Unwahrheit zu sagen, sondern verbindet diese auch mit stochastischen Verfahren; man kann ihm beibringen, bestimmte Lügen jeweils mit einer mittleren oder einer hohen Wahrscheinlichkeit zu produzieren. Das Interview kann über apunto-online.ch/gesellschaft/showData/von-moralischen-und-unmoralischen-maschinen nachgelesen werden.
Maschinen als Subjekte der Moral werden seit einigen Jahren erforscht, in der Disziplin der Maschinenethik, Maschinen als Objekte der Moral seit mehreren Jahrzehnten, in einem Teilgebiet der Roboterethik und in der Künstlichen Intelligenz. Es geht vor allem um intelligente bzw. teilautonome und autonome Maschinen. Wichtige Grundlagenwerke der Maschinenethik sind „Moral Machines“ (2009) und „Machine Ethics“ (2011); auch Spezialisierungen wie „Machine Medical Ethics“ (2015) und Konkretisierungen wie „Programming Machine Ethics“ (2016) sind auf dem Markt. Aus der Medienethik kamen bisher kaum Beiträge zur Thematik, obwohl auch bestimmte neue Medien und neuere Informations- und Kommunikationstechnologien zum Gegenstand der Maschinenethik gehören können, etwa Münchhausen-Maschinen. Diese Lücke der Disziplin versucht eine Konferenz an der PH Ludwigsburg im Dezember 2016 zu schließen, Auf der Website ist zu lesen, es handle sich um eine Kooperation der Forschungsgruppe Medienethik der PHL und der Professur „Kommunikations- und Medienwissenschaft mit dem Schwerpunkt soziale Kommunikation und Mediatisierungsforschung“ am ZeMKI der Universität Bremen. Thema der Tagung seien „die ethischen Konsequenzen aus einer zunehmenden Kommunikation und Steuerung durch autonome Systeme vor dem Hintergrund der Mediatisierungskonzeption“ (Website PHL). Der Call for Papers kann über die Website der Hochschule heruntergeladen werden.
Abb.: Die Medienethik ist eine altehrwürdige Disziplin
Im ARD-Mittagsmagazin vom 27. Juli 2016 stand Oliver Bendel als Technikphilosoph und Maschinenethiker der Moderatorin Hannelore Fischer Rede und Antwort. Zuvor war ein Film zum automatisierten Fahren gebracht worden. Der Bundesverkehrsminister Alexander Dobrindt ist sozusagen auf der Überholspur und lässt Bedenken, so ist es manchen der Stimmen zu entnehmen, die zu hören sind, weit hinter sich. Womöglich wird „wahrnehmungsbereit“, enthalten in der aktuellen Gesetzesvorlage, sogar Begriff des Jahres – der Interpretationsspielraum ist auf jeden Fall nicht weniger groß als die Bedenken. Der Fahrer soll wahrnehmungsbereit sein, wenn er sich auf das Autoauto verlässt, und weil er dieses voll nutzen will, wird er es nur eingeschränkt sein. In seinen Antworten versucht Oliver Bendel zu vermitteln. Er hat nichts gegen automatisiertes Fahren, ist aber der Meinung, dass es in erster Linie auf der Autobahn stattfinden soll, in der „natürlichen Umgebung“ des Automobils. Städte seien zu komplex; während die Maschine dort in zahlreiche Unfälle verwickelt sein und die eine oder andere falsche (u.U. auch in moralischer Hinsicht schlechte) Entscheidung durch sie getroffen wird, ergeht es ihr auf der Autobahn, wenn es sich nicht gerade um einen amerikanischen Highway mit Wendemöglichkeit handelt, ganz anders, ist sie in ihrem Element, und die seltenen Unfälle – viele kann das Auto vermeiden helfen – wird die Gesellschaft verschmerzen können. Er ist ebenso wie Alexander Dobrindt der Meinung, dass automatische und autonome Autos nicht Menschen qualifizieren sollen, hält aber auch das Quantifizieren für nur bedingt tauglich. Eine befriedigende Lösung, die von der Ethikkommission, die vom Bundesverkehrsminister eingesetzt wird, erarbeitet werden könnte, sieht er im Moment nicht. Weitere Informationen über www.daserste.de/information/politik-weltgeschehen/mittagsmagazin/index.html; dort kann auch einige Wochen lang der Podcast aufgerufen werden.
Machine ethics researches the morality of semi-autonomous and autonomous machines. In 2013 and 2014, the School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW implemented a prototype of the GOODBOT, which is a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. In a follow-up project in 2016 the LIEBOT (aka LÜGENBOT) was developed, as an example of a Munchausen machine. The student Kevin Schwegler, supervised by Prof. Dr. Oliver Bendel and Prof. Dr. Bradley Richards, used the Eclipse Scout framework. The whitepaper which was published on July 25, 2016 via liebot.org outlines the background and the development of the LIEBOT. It describes – after a short introduction to the history and theory of lying and automatic lying (including the term of Munchausen machines) – the principles and pre-defined standards the bad bot will be able to consider. Then it is discussed how Munchausen machines as immoral machines can contribute to constructing and optimizing moral machines. After all the LIEBOT project is a substantial contribution to machine ethics as well as a critical review of electronic language-based systems and services, in particular of virtual assistants and chatbots.
Beim DVR-Forum „Automatisiertes Fahren und Ethik“ wurde ein Film gedreht, der im Juli 2016 zur Verfügung gestellt wurde. Man kann ihn über www.youtube.com/watch?v=SH_9kr6fZK8 aufrufen. Zudem hat der Veranstalter Texte und Fotos über www.dvr.de veröffentlicht. Das DVR-Forum fand am 14. Juni 2016 in der Berlin-Brandenburgischen Akademie der Wissenschaften am Gendarmenmarkt in Berlin-Mitte statt. Der Untertitel „Welche Entscheidungen wollen wir Maschinen überlassen?“ deutete den Schwerpunkt an. An der Podiumsdiskussion nahmen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Prof. Dr. Dr. Eric Hilgendorf (Universität Würzburg), Prof. Dr. Jürgen Leohold (Volkswagen AG), Prof. Dr. Volker Lüdemann (Hochschule Osnabrück) und Prof. Klaus Kompaß (BMW Group) teil. Es moderierte Monika Jones von der Deutschen Welle. Weitere Informationen über www.tag-der-verkehrssicherheit.de.
SoftBank und Honda wollen ein sprechendes Auto bauen – das meldet Golem am 23. Juli 2016. „Mittels Sensoren, Mikrofonen und Kameras sollen anhand von Veränderungen in der Sprache, Gestik und Körpermerkmalen Emotionen des Fahrers gelesen und von der KI des Wagens ausgewertet werden. Bei stressigen Situationen soll die KI dann beispielsweise aufmunternde Worte spenden, oder bei langen Fahrten alleine als Gesprächspartner fungieren.“ (Golem, 23. Juli 2016) Oliver Bendel hat in seinem Artikel „Ein Auto mit Charakter“ vom 17. November 2015 geschrieben: „Es ist naheliegend, einem Auto, das mit Fahrerassistenzsystemen vollgestopft oder im Gesamten ein Roboter ist, einen Charakter angedeihen zu lassen, und diesen im Wesentlichen mit Hilfe auditiver Schnittstellen und Künstlicher Intelligenz (auf welchem Niveau auch immer) zu realisieren.“ (ICTkommunikation, 17. November 2015) An einer Stelle heißt es: „Wenn das Auto schon ein Charakter ist oder einen Charakter hat, kann man auch daran denken, es mit Moral auszustatten.“ (ICTkommunikation, 17. November 2015) Diese Idee wird von dem Maschinenethiker kritisch diskutiert. Auch die Idee, dem Auto einen Charakter zu geben, wird von ihm nur als Möglichkeit gesehen, die es zu untersuchen gilt. Man darf gespannt sein, was die Hersteller auf die Straße bringen. Die Plattform des geplanten Fahrzeugs steht bereits fest: Es ist Pepper von SoftBank und Aldebaran Robotics, der zuletzt in die Schlagzeilen kam, weil man mit ihm laut Benutzerhandbuch keinen Sex haben soll; selbst eine Manipulation seiner Stimme zur Erzielung einer erotisierenden Wirkung verbat man sich. Vermutlich wird die Bedienungsanleitung des sprechenden Autos ähnlich abturnend sein.
„Der Algorithmus als Richter“ lautet der Titel eines Beitrags von Katharina Schuchmann für politik-digital.de vom 21. Juli 2016. „Automatisierte Justiz – ein Projekt aus den Niederlanden zeigt, wie es gehen kann und hat damit Erfolg. Der Robo-Richter ist wohl nur eine Frage der Zeit. Sind Justizirrtümer damit eine Sache der Vergangenheit?“ (politik-digital.de, 21. Juli 2016) Die Verfasserin geht auf ein Pilotprojekt in den Niederlanden ein, das System Rechtwijzer, nach ihren Worten ein automatisierter Streitschlichtungsservice. „Derzeit bietet das Portal Lösungen in Scheidungsangelegenheiten und bei Beschwerden zu Online-Käufen an.“ Zudem wirft sie einen Blick in die Zukunft, über Schlichtung und Scheidung hinaus. Es scheine nur eine Frage der Zeit zu sein, „bis lernende Algorithmen in der Lage sind, Urteile über weniger eindeutige Verhältnisse zu fällen“ (politik-digital.de, 21. Juli 2016). Vorstellbar sei, dass mittelfristig eine Umkehr der Verhältnisse stattfinde und der Algorithmus nicht mehr den Juristen unterstütze, sondern dieser den Algorithmus, ihn mit Meinungen und menschlichen Einschätzungen füttere und ansonsten walten (und schalten) lasse. Wie bei verschiedenen anderen Automatisierungsbestrebungen – etwa bei Banken und Versicherungen – wäre es freilich auch hier wichtig, dass der Mensch das letzte Wort behält. Zwar kann man Befangenheit und Gefühligkeit ein Stück weit durch maschinelle Verfahren ausgleichen; aber Empathie und Intuition sind meist essentielle Bestandteile rationaler Entscheidungsprozesse. Obwohl es nicht um moralische Urteile geht, sondern um rechtliche, kann die Maschinenethik zur Gestaltung von „Richtersystemen“ beitragen und durch die Konzeption und Implementierung auch die Grenzen der „Maschinenrichter“ aufzeigen.
Daimler hat bei Amsterdam (zwischen dem Flughafen Schipohl und der Stadt Haarlem) selbstfahrende Busse eingesetzt. Der Mannheimer Morgen hat am 18. Juli 2016 Oliver Bendel dazu befragt. Der Maschinenethiker hat schriftlich geantwortet: „Grundsätzlich rate ich davon ab, autonome Fahrzeuge in Städten und Ballungsgebieten einzusetzen. In diesen wimmelt es von Fahrzeugen, Verkehrsteilnehmern, Objekten wie Tauben, Luftballons und Seifenblasen, Lichtreflexen, Schatten und Signalen. Zugleich sehe ich wie Daimler durchaus Potenzial für den öffentlichen Nahverkehr. Man kann das Risiko minimieren, indem man die Geschwindigkeit stark senkt, spezielle Spuren nutzt und verschiedenartige Sensoren koppelt. In Sitten im Wallis verkehren die autonomen Shuttles der PostAuto AG sehr langsam, auf einer bekannten Rundstrecke. Das ist eine gute Lösung. Dennoch könnte eines Tages ein kleines Kind zu Schaden kommen. Die Geschwindigkeit der Daimler-Busse ist sehr hoch. Das mag dann funktionieren, wenn sich auf diesen Spuren ansonsten nichts und niemand befinden kann. Es handelt sich hier immerhin nicht um die Innenstadt von Amsterdam, sondern um eine übersichtliche Strecke zwischen Flughafen und Haarlem. Ich rate auf jeden Fall dazu, nicht allein die Kameras beobachten und entscheiden zu lassen. Sie täuschen sich schnell und sind leicht zu täuschen, auch durch böswillige Passanten mit Taschenspiegeln und Laserpointern. Es sollten unbedingt weitere Systeme die Situation prüfen, etwa Radar, Lidar und Ultrasound, und vor allem sollte eine Art Mehrheitsentscheidung vorhanden sein. Wenn drei Systeme erklären, dass die Luft rein ist, sollte sie rein sein.“ Mehrere Statements wurden in den Artikel „Stadtbus mit Autopilot“ eingearbeitet, der am selben Tag erschienen ist und über www.morgenweb.de/nachrichten/wirtschaft/regionale-wirtschaft/1.2881794 abgerufen werden kann.