Qualifizierung des Faktors Mensch

Nach dem Wunsch von Alexander Dobrindt sollen „Autopilot und Fahrer rechtlich gleichgestellt“ werden, wie die Welt am 22. Mai berichtet. Der Verkehrsminister will zudem „ethische Fragen klären lassen“ (Die Welt, 22. Mai 2016). „Denn die Automatisierung kann zu moralisch kaum lösbaren Problemen führen. So sind Situationen vorstellbar, in denen ein Fahrzeug zwar einen Unfall nicht mehr verhindern, aber noch die Entscheidung treffen kann, ob es nach links ausweicht, wo eine Gruppe Schulkinder steht oder nach rechts wo ein älterer Fußgänger gerade die Straße überquert.“ (Die Welt, 22. Mai 2016) Dobrindt wolle deshalb „unter Beteiligung von Wissenschaft, Automobilindustrie und Digitalwirtschaft eine Kommission“ gründen, „die klare Leitlinien für Algorithmen entwickelt, welche die Fahrzeugreaktionen in Risikosituationen bestimmen“ (Die Welt, 22. Mai 2016). Allerdings will der Minister schon jetzt zwei Grundsätze für die Computersteuerungen vorgeben: 1. „Ein autonomes Auto müsse sich im Zweifel immer für den Sachschaden und gegen den Personenschaden entscheiden.“ Und 2: „Eine Qualifizierung des Faktors Mensch ist unzulässig“, wie es im entsprechenden Strategiepapier heißt. Ein Minister dürfe nur so wertvoll sein „wie alle anderen Menschen“ (Die Welt, 22. Mai 2016). Die Zeitung bemerkt dazu ganz richtig: „Doch gelöst ist das Problem mit dieser Festlegung natürlich noch nicht, denn nach irgendeinem Prinzip muss das Auto schließlich entscheiden, in welche Richtung es ausweicht, wenn ein Unfall unvermeidlich ist.“ Man darf gespannt sein, wer in die Kommission berufen wird und wie unabhängig diese ist. Die Welt hat in der Vergangenheit immer wieder über autonome Autos aus Sicht der Maschinenethik berichtet, etwa in diesem Artikel von Barbara Schneider und diesem Beitrag von Philipp Vetter.

 

Yellow_Car

Abb.: Ist es so freundlich, wie es scheint?

Blechpolizisten mit Elektroschockern

Im Silicon Valley sind Überwachungsroboter von Knightscope im Einsatz. Oliver Bendel – der Autor des Artikels „Blechpolizisten mit Elektroschockern“ – begegnete einem von ihnen im Shopping Center bei der Stanford University, an der er kurz zuvor einen Vortrag über Roboterautos gehalten hatte. Fast wäre er mit ihm zusammengestoßen, als er von Tür zu Tür, von Gebäude zu Gebäude unterwegs war. Es war ein milder Frühlingstag im März 2016, und vom ewigen Regen des Vormonats war nichts mehr zu sehen. „Überwachungsroboter dieser Art markieren physische Präsenz. Sie mischen sich unter die Menschen und rollen neben den Tieren.“ (inside-it.ch, 19. Mai 2016) Wenn es leer werde auf den Straßen und Wegen, seien ihre Silhouetten und Schatten zu sehen, und in den Räumen und Gebäuden seien sie diejenigen, die das Licht ausmachen. Neben dem K5 und dem kleinen Bruder, dem K3, ist seit kurzem ein weiteres Modell auf dem Markt. In China schaut der AnBot nach dem Rechten, und wenn er einen Verdächtigen entdeckt, kann er den Elektroschocker auf ihn richten. Während er im normalen Betrieb ein autonomer Roboter ist, wird er in einem solchen Fall zum Teleroboter: Die Waffe wird von einem Menschen ferngesteuert und im Ernstfall betätigt. Der Beitrag von Oliver Bendel, in dem auch ethische Aspekte angesprochen werden, ist am 19. Mai 2016 in der Zeitschrift inside-it.ch erschienen und kann über www.inside-it.ch/post/blechpolizisten-mit-elektroschockern-20160519 aufgerufen werden.

AnBot

Abb.: Ein Verwandter von AnBot und K5 bzw. K3

Maschinen in Entscheidungsnot

Der Beitrag „Wer ist verantwortlich, wenn die künstliche Intelligenz versagt?“ wird am 17. Mai 2016 auf Deutschlandradio Kultur wiederholt. Heiner Kiesel widmet sich erneut – wie am 12. Januar 2016 – „Maschinen in Entscheidungsnot“. Im Ankündigungstext auf der Website heißt es: „In den 30er-Jahren des letzten Jahrhunderts hat der Biochemiker und Science-Fiction-Autor Isaac Asimov drei einfache Gesetze für Roboter aufgestellt. Damit sollte die Gefährdung von Menschen durch autonome Systeme ausgeschlossen werden. In der Gegenwart nimmt die Selbstständigkeit von Robotern konkrete Züge an. Selbststeuernde Autos nehmen am Straßenverkehr teil, Pflegeroboter werden für den Einsatz in Pflegestationen getestet und das Militär forscht mit Hochdruck an Kampfrobotern, die ihre Aufträge effizient und autonom abarbeiten. Wir sind dabei, viele Entscheidungen an die dienstfertigen Maschinen zu übergeben. Es wird unser Leben verändern. Aber während die technische Entwicklung rasant voranschreitet, gibt es kaum eine Perspektive darauf, wie die Gesetze heute aussehen müssen, die die rechtlichen und gesellschaftlichen Folgen unter Kontrolle bringen.“ (Website Deutschlandradio Kultur) Der Beitrag mit Statements von Oliver Bendel und Eric Hilgendorf beginnt kurz nach 19:00 Uhr. Weitere Informationen über www.deutschlandradiokultur.de/.

calculator

Abb.: Was ist, wenn der Roboter sich verrechnet?

A Robot in the Robot

NeXus, the magazine of the student projects connectUS, Focus India, Insight China and exploreASEAN (University of Applied Sciences and Arts Northwestern Switzerland FHNW), interviewed the machine ethicist and business information systems engineer Prof. Dr. Oliver Bendel. The first question Stephen Randes asked was: „Cars are an integral part of US culture and identity. How will self-driving cars be accepted in that market?“ The answer: „Some Americans will surely miss the fun of driving. However, there is a new kind of driving enjoyment. As everyone knows who has ever tried out the autopilot of the Tesla model S. Whether the social approval will be given remains to be seen. There are certainly reasons to reject autonomous cars in particular areas.“ The next question: „What about safety concerns? What happens if an accident cannot be avoided?“ The scientist’s answer: „This is a subject that we explore in machine ethics: whom shall the autonomous car kill if it cannot brake in time? You can teach it rules or feed it with cases, and make it a complex moral machine that decides on people’s life and death. I, personally, argue in favor of simple moral machines. I am not against robot cars – I advise not to let them drive at any place and at any time. It is a question of avoiding accidents if possible.“ The last question related again to the market and the development of mobility: „Market analysts expect 10 million self-driving cars on the roads by 2020. How do you think this will change mobility (individual transport, public transport, workplace commutes)?“ Oliver Bendel declared: „I see opportunities for public transport. In the Valais, PostAuto is testing autonomous shuttles. Their speed is very low, so that there can be hardly any damage. Private autonomous cars are well suited for the traffic between cities. New forms of car sharing are possible as well. Maybe one day self-driving cars might even be sent to fetch a pizza, which, however, implies that there is a robot in the robot – except the pizza is simply thrown into the car.“ A part of the interview was published in the April issue, including further information on the person and the motivation.

Mobile_Robot

Fig.: This robot could take the pizza

The LIEBOT Project

The LIEBOT project is based on preparatory works by Prof. Dr. Oliver Bendel who already initiated the GOODBOT, a chatbot which can be considered a simple moral machine. Since 2013 he has published several articles on this subject and presented automatic strategies with a view to lying. A business informatics student of the School of Business FHNW, Kevin Schwegler, was contracted early in 2016 to implement the LIEBOT (aka LÜGENBOT) as a prototype in the scope of his graduation thesis under consideration and continuance of the preparatory works. The objective of the LIEBOT project is to give practical evidence of the potential of lies and risks of natural language systems. Online media and websites create or aggregate more and more texts automatically (robo-content) and robo-journalism is growing. Natural language dialog systems are becoming very popular. The chatbot to be programmed – the LIEBOT – shall be able to produce untruths and to respond in a morally inadequate manner. This makes it a reversion of the premise applied to the development of the GOODBOT and a continuance of the corresponding work under new auspices. A simple immoral machine is born. Further information as from autumn 2016 via luegenbot.ch and liebot.org (links no longer valid).

Fig.: From truth to lie

Der Roboter im Pflegeheim

„Robotik für den Pflegebereich boomt. In dem Arbeitsfeld fehlt Personal und es fällt oft schwere körperliche Arbeit an, für die Hilfe willkommen wäre.“ (derStandard.at, 7. Mai 2016) Dies schreibt Gudrun Springer im österreichischen Standard. Ausgangspunkt des Artikels ist die öffentliche Sitzung der Bioethikkommission in Wien vom 2. Mai, bei der Prof. Dr. Oliver Bendel, Prof. Dr. Mark Coeckelbergh, Prof. Dr. Michael Decker, Prof. Dr. Jutta Weber und Markus Wohlmannstetter zum Thema Pflegeroboter vorgetragen haben. Die Verfasserin geht auf das Tandem-Prinzip ein, das Oliver Bendel in seinem Referat erwähnt hat und seit einiger Zeit propagiert. Auch Mark Coeckelbergh ist laut ihrer Aussage diesem Prinzip zugetan. Es sei besser, „Roboter als assistierende Technologien … im Tandem“ (derStandard.at, 7. Mai 2016) zu benutzen. Weiter schreibt sie: „Oliver Bendel von der Hochschule für Wirtschaft in Basel, der sich mit Auswirkungen des Roboters auf Menschen beschäftigt, meint, dass mancher Handgriff vom Menschen ausgeführt einem Pflegebedürftigen unangenehmer sein kann als vom technischen Helfer – etwa in der Intimpflege.“ (derStandard.at, 7. Mai 2016) Auch zu informationsethischen und rechtlichen Herausforderungen äußert er sich: „Andere wichtige Fragen, die für Bendel durch die Roboter aufkommen, betreffen den Datenschutz.“ (derStandard.at, 7. Mai 2016) Der Artikel mit dem Titel „Der Roboter im Pflegeheim“ ist über derstandard.at/2000036444112/Der-Roboter-im-Pflegeheim abrufbar.

handmade_soap

Abb.: Seife braucht auch der Robot, wenn er jemanden waschen will

Maschinenethik im Kassensaal

Am 2. Mai 2016 fand in Wien eine öffentliche Sitzung der österreichischen Bioethikkommission zum Thema „Von Mensch und Maschine: Roboter in der Pflege“ statt. Wegen des großen Andrangs war sie in den Kassensaal, wo früher Geldgeschäfte getätigt wurden, verlegt worden, einen prächtigen Saal der Bundesregierung. Zunächst trafen sich die Referenten zu einem Hintergrundgespräch mit Pressevertretern im Bundeskanzleramt am Minoritenplatz. Nach einem Mittagessen im Café Landtmann ging man in den Kassensaal hinüber. Die Vorsitzende der Bioethikkommission, Christiane Druml, eröffnete die Veranstaltung. Oliver Bendel von der Hochschule für Wirtschaft FHNW referierte zu Maschinen- und Informationsethik und zu ethischen Fragen des Einsatzes von Pflegerobotern. Er ist der Meinung, dass diese die persönliche Autonomie von Patienten verbessern, aber auch deren informationelle Autonomie verletzen können. Mark Coeckelbergh, inzwischen an der Universität Wien tätig, fragte nach den Anforderungen in der Pflege und wie Pflegeroboter, auch aus Sicht der Maschinenethik, dazu passen, und Michael Decker vom KIT in Karlsruhe präsentierte ein aktuelles Projekt in diesem Bereich. Grundsätzliche Technologiekritik übte Jutta Weber von der Universität Paderborn. Markus Wohlmannstetter von der Krankenanstalt Rudolfstiftung nahm die Perspektive der Pflegerinnen und Pfleger ein. Ina Wagner, Mitglied der Bioethikkommission, fasste die Ergebnisse zusammen. Im Anschluss stellten Mitglieder der Kommission und der Öffentlichkeit eine Stunde lang ihre Fragen, wobei nicht nur teilautonome Pflege-, sondern auch autonome Kampfroboter thematisiert wurden, deren Einsatz ein älterer Österreicher forderte, während Oliver Bendel sich dagegen aussprach, obwohl sie, wie er erklärte, nicht plündern, brandschatzen oder vergewaltigen, also auch gewisse Vorteile hätten. Am Ende wurden die Referenten, die der Alpenrepublik ihre Erkenntnisse honorarfrei übermittelt hatten, mit einem kräftigen Applaus verabschiedet. Weitere Informationen und Fotos über www.ots.at/presseaussendung/OTS_20160503_OTS0014/bioethikkommission-diskutiert-den-einsatz-von-robotern-im-pflegebereich

 

Roboterautos aus Sicht von Automobilindustrie und Maschinenethik

„Die Maschinenethik, eine Gestaltungsdisziplin mit Nähe zu Künstlicher Intelligenz (KI) und Robotik, hat ihre eigenen Workshops und Tagungen, in den USA und in Polen, und immer mehr Publikationen erscheinen. Im März 2016 trafen sich ihre Vertreter in Stanford im Rahmen der AAAI Spring Symposia, im Juli will man sich in New York bei der IJCAI16 austauschen, etwa über Roboterautos.“ Mit diesen Worten beginnt ein Artikel von Oliver Bendel, der am 29. April 2016 in ICTkommunikation erschienen ist. „Die Automobilindustrie reagiert auf die Überlegungen und Vorschläge zum Teil aufgeschlossen, zum Teil abwehrend. Sie wittert ein Milliardengeschäft und rüstet sich für die Herausforderungen und die Auseinandersetzungen.“ (ICTkommunikation, 29. April 2016) Der Verfasser erklärt in seinem Beitrag mit dem Titel „Roboterautos aus Sicht von Automobilindustrie und Maschinenethik“ zentrale Begriffe und Ansätze der Maschinenethik, wobei er Äußerungen aus der Wirtschaft einbezieht, und spricht sich für autonome Autos in bestimmten Bereichen aus. Mehr über ictk.ch/inhalt/roboterautos-aus-sicht-von-automobilindustrie-und-maschinenethik.

Mercedes_Robocar

Abb.: Wie sieht das Auto der Zukunft aus und wo fährt es?

Robots‘ Ethical Systems

„A Construction Manual for Robots‘ Ethical Systems“, herausgegeben von Robert Trappl, widmet sich „modern applications such as assistive robots and self-driving cars“. Der Verlag schreibt in seiner Information: „This book will help researchers and engineers in the design of ethical systems for robots, addressing the philosophical questions that arise and exploring modern applications such as assistive robots and self-driving cars. The contributing authors are among the leading academic and industrial researchers on this topic and the book will be of value to researchers, graduate students and practitioners engaged with robot design, artificial intelligence and ethics.“ (Information Springer) Das Buch mit Beiträgen von Luís Moniz Pereira, Ari Saptawijaya, Michael Anderson und Susan Leigh Anderson ist 2015 bei Springer erschienen und hat 210 Seiten. Weitere Informationen über www.springer.com/de/book/9783319215471.

Automatisiertes Fahren und Ethik

Das DVR-Forum „Automatisiertes Fahren und Ethik“ findet am 14. Juni 2016 in der Berlin-Brandenburgischen Akademie der Wissenschaften statt. Der Untertitel „Welche Entscheidungen wollen wir Maschinen überlassen?“ deutet den Schwerpunkt an. In der Beschreibung heißt es: „Schon heute werden wir durch Assistenzfunktionen beim Autofahren unterstützt. Diese helfen, Unfälle zu vermeiden oder deren Folgen zu vermindern. In nicht allzu ferner Zukunft werden hochautomatisierte Fahrfunktionen folgen: Das Fahrzeug übernimmt – zunächst zeitweise – die Fahraufgabe, es gibt Gas, lenkt und bremst. Die Fahrenden können sich in dieser Zeit anderweitig beschäftigen und müssen die Fahrsituation nicht überwachen. Doch was geschieht beim hochautomatisierten Fahren in einem Notfall, wenn sich ein Unfall nicht mehr vermeiden lässt?“ Und weiter: „In solchen Situationen müssen die Fahrzeuge in Sekundenbruchteilen Entscheidungen treffen. Dafür müssen sie programmiert werden, Menschen müssen festlegen, wie das Auto reagieren soll. In rasender Geschwindigkeit kann die Maschine viele Möglichkeiten durchspielen und die Reaktion auswählen, die den größten Erfolg – bzw. den geringsten Schaden – verspricht. An der Podiumsdiskussion nehmen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Prof. Dr. Dr. Eric Hilgendorf (Universität Würzburg), Prof. Dr. Jürgen Leohold (Volkswagen AG), Prof. Dr. Volker Lüdemann (Hochschule Osnabrück) und Prof. Klaus Kompaß (BMW Group) teil. Es moderiert Monika Jones von der Deutschen Welle. Weitere Informationen über www.tag-der-verkehrssicherheit.de.

TagderVS

Abb.: Logo des Tags der Verkehrssicherheit

Der tanzende Robot

Im Südpol Luzern erlebten die Zuschauerinnen und Zuschauer, wie Tanz- und Robotergeschichte geschrieben wurde, von Huang Yi, einem Choreografen aus Taiwan. Der „träumte schon in Kindertagen davon, einen Roboter zum Freund zu haben“ (Information zur Veranstaltung). „Erwachsen geworden, ist für ihn daraus Wirklichkeit geworden, denn er teilt sich, unterstützt von zwei weiteren Tänzern, die Bühne mit Kuka, einem Industrieroboter. Das Ergebnis ist Tanzkunst, die mit messerscharfer Präzision begeistert.“ (Information zur Veranstaltung) Der Robot tanzt wie die Menschen, tanzt mit dem Menschen, mit Huang Yi, die Menschen – es kommen eine Tänzerin und ein Tänzer hinzu – tanzen wie der Robot, lassen sich von ihm bewegen, von seinem „Traktorstrahl“. „Gebannt verfolgt man die Begegnung dieser scheinbar so ungleichen Partner und spürt die emotionale Beziehung. Die Art des Verhältnisses bleibt dabei jedoch in der Schwebe: Sind es nun die vom Choreografen in der Kindheit ersehnten Freunde? Oder handelt es sich vielmehr um einen ausgefeilten und geschmeidigen Wettkampf? Wer lernt von wem? Wer behält die Oberhand?“ (Information zur Veranstaltung) Einmal schaut der Kuka sich selbst an, mit Hilfe einer zwischendurch aufgesteckten Kamera, fertigt bewegte Selfies an, von dem Schild mit seinen technischen Daten, von einem Warnschild. Größere Kunst hat man in der Schweiz selten gesehen.

Surname_Huang

Abb.: Chinesisches Schriftzeichen für „Huang“

Berufsziel Maschinenethiker

Im FNT Kundenmagazin 2 ist ein Beitrag von Alexander Freimark mit dem Titel „IT-Jobs mit Sex-Appeal“ erschienen. Darin werden neue Rollen und Berufe wie Data Scientist, Cyber-Security-Experte, Chief Service Officer und Maschinenethiker genannt. Datenwissenschaftler „entwickeln Modelle, um betrügerische Transaktionen von Kreditkarten, Störungen in Produktionsabläufen oder beleidigende Kommentare in Online-Foren zu erkennen“ (FNT Kundenmagazin 2, März 2016). Dr. Angelika Voss verantwortet am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS das dazu passende Schulungsprogramm: „In der Regel sind unsere Teilnehmer Mitarbeiter von Unternehmen, die sich in der Datenanalyse auskennen, IT-affin sind – und die darüber hinaus noch verstehen, wie in ihrer Branche Geld verdient wird.“ (FNT Kundenmagazin 2, März 2016) Die Sicherheitsexperten für den virtuellen Raum können sich „in die Denkweise der Kriminellen hineinversetzen“ und können „Angriffe schon im Vorfeld verhindern“ (FNT Kundenmagazin 2, März 2016). Der CSO ist „eine Art Coach der Service-Organisation“ (FNT Kundenmagazin 2, März 2016). Zum Jobprofil des Maschinenethikers erläutert Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW: „In Zukunft müssen wir mehr nach der Moral von Maschinen fragen, weil immer mehr autonome und teilautonome Systeme Entscheidungen mit moralischen Implikationen treffen.“ (FNT Kundenmagazin 2, März 2016) Dabei gehe vor allem auch darum, die Folgen der Entscheidungen abzuwägen. Der Artikel wurde vom Autor freundlicherweise zur Verfügung gestellt und kann hier heruntergeladen werden.

Astronaut

Abb.: Auch Astronaut wollen viele werden

Interview zu Roboterautos

Deutschlandradio Kultur ist am Dienstag, 12. April 2016, im Gespräch mit Oliver Bendel. Der Wirtschaftsinformatiker und Maschinenethiker lebt in Zürich und forscht und publiziert seit Jahren über moralische Maschinen, seien es selbstständig fahrende Autos, Pflege- und Therapieroboter, zivile Drohnen oder Chatbots. Nana Brink ist als Autorin und Moderatorin unterwegs, für taz, SPIEGEL, Focus und Deutschlandradio. Ab 7.40 Uhr wird sie Fragen stellen zu autonomen Autos und deren Möglichkeiten, vor und während der Fahrt etwas zu lernen. Oliver Bendel ist skeptisch gegenüber komplexen moralischen Maschinen, die in offenen Welten verkehren und über Tod und Leben von Menschen entscheiden. Sein Interesse gilt einfachen moralischen Maschinen, ob im Haushalt oder in der Fabrikhalle. Dort sollen Geräte und Roboter besser sein als vorher, auch im moralischen Sinne. Beispiele sind Saugroboter, die Marienkäfer verschonen, und 3D-Drucker, die keine Waffen produzieren. Das Interview wird live geführt. Weitere Informationen gibt es über www.deutschlandradiokultur.de – dort ist zum gegebenen Zeitpunkt auch der Podcast zu finden.

printer

Abb.: Der 3D-Drucker kann sich weigern, eine Waffe auszudrucken

Nur noch Beifahrer

Gerd Piper geht in seinem Artikel für die Märkische Zeitung vom 4. April 2016 auf die Schuld- und Haftungsfrage bei selbstständig fahrenden Autos ein. Er beginnt mit den Worten: „Den Blinker muss der Fahrer noch selbst setzen. Der Rest läuft von allein. Die Limousine beschleunigt, das Steuer dreht sich langsam wie von Geisterhand und lenkt das Auto selbstgewiss auf die Überholspur der Autobahn, umkurvt den Vordermann und schert wieder auf die rechte Spur ein. Das Auto hält sich an die Geschwindigkeitsbegrenzung und passt auf, dass der Sicherheitsabstand stimmt. Der Fahrer der neuen E-Klasse von Mercedes muss keiner mehr sein. Er wird, wenn er möchte, auf der Autobahn zum Beifahrer vorne links – und muss im besten Fall nur noch aufpassen, dass sein Auto keinen Fehler macht.“ (Märkische Zeitung, 4. April 2016) Zitiert wird Ola Källenius, Vertriebs- und künftig Entwicklungschef von Mercedes, zu technischen Aspekten („Eines Tages werden wir aufwachen und sind bei 100 Prozent.“) – und Oliver Bendel, Wirtschaftsinformatiker und Maschinenethiker an der Hochschule für Wirtschaft FHNW, zu sozialen und moralischen („Ich glaube, dass es hier keinen gesellschaftlichen Konsens geben wird.“). Und selbst wenn es einen Konsens geben wird, davon ist er überzeugt, wird dieser vom Einzelfall in Frage gestellt. Der Beitrag mit dem Titel „Nur noch Beifahrer; Das selbstfahrende Auto naht, es wäre ein Triumph der Technik – aber wer hat Schuld, wenn die Maschine einen Fehler macht?“ hat knapp 1000 Wörter und ist in der Printausgabe erschienen.

kaefer

Abb.: Es fährt und fährt und fährt

Buch „Programming Machine Ethics“

Luís Moniz Pereira und Ari Saptawijaya haben ein Buch geschrieben, das den Titel „Programming Machine Ethics“ trägt. Die relativ junge Disziplin der Maschinenethik wird damit um ein weiteres Grundlagenwerk bereichert. Als Gestaltungsdisziplin ist sie darauf angewiesen, dass konkrete Vorschläge für die Umsetzung unterbreitet werden, in ihrem Falle der Umsetzung moralischer Maschinen. In der Information von Springer heißt es: „This book addresses the fundamentals of machine ethics. It discusses abilities required for ethical machine reasoning and the programming features that enable them. It connects ethics, psychological ethical processes, and machine implemented procedures. From a technical point of view, the book uses logic programming and evolutionary game theory to model and link the individual and collective moral realms. It also reports on the results of experiments performed using several model implementations.“ (Information Springer) Weiter wird erklärt: „Opening specific and promising inroads into the terra incognita of machine ethics, the authors define here new tools and describe a variety of program-tested moral applications and implemented systems. In addition, they provide alternative readings paths, allowing readers to best focus on their specific interests and to explore the concepts at different levels of detail.“ (Information Springer) Weitere Informationen und Bestellung über www.springer.com/de/book/9783319293530.

grace_hopper

Abb.: Grace Hopper aka Grandma COBOL

Der rassistische Chatbot

Aus einem Chatbot wurde ein Badbot – Tay von Microsoft entwickelte sich zum Albtraum des Unternehmens und der Gesellschaft. Der SPIEGEL schrieb am 24. März 2016: „Zuerst war Tay noch freundlich, ein bisschen zu jugendsprachlich-obercool vielleicht, manchmal etwas dämlich wirkend, aber harmlos. Dann kam der Kontakt mit der harten Realität des Netzes.“ Und dann sagte Tay: „Hitler hatte recht. Ich hasse die Juden.“ (SPON, 24. März 2016) Die Süddeutsche Zeitung widmete sich dem Thema am 1. April in der gedruckten und am 3. April in der Onlineausgabe. Sie zitierte wiederholt den Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel, der selbst Chatbots konzipiert. 2013/2014 entstand an der Hochschule für Wirtschaft FHNW der GOODBOT im Rahmen eines studentischen Praxisprojekts, seit Anfang 2016 wird der LÜGENBOT oder LIEBOT von Kevin Schwegler programmiert, als spezielle Form einer Münchhausen-Maschine. Die Ergebnisse werden auf KI- und Maschinenethik-Konferenzen in den USA und in Europa vorgestellt. Der Artikel in der Onlineausgabe der Süddeutschen trägt den Titel „Rassistischer Chat-Roboter: Mit falschen Werten bombardiert“ und stammt von Bernd Graff.

womanbot

Abb.: Noch wirkt der Bot ganz harmlos