Schlagworte: LIEBOT

Chatbots als Artefakte der Maschinenethik

Ende August 2018 erscheint das Buch „Talk with the Bots: Gesprächsroboter und Social Bots im Diskurs“, herausgegeben von Theo Hug und Günther Pallaver, bei innsbruck university press. Autorinnen und Autoren sind u.a. Timo Kaerlein, Netaya Lotze, Andrea Knaut und Oliver Bendel. Sie alle trugen beim „Medientag 2017“ der Universität Innsbruck vor, der in dem Buch verarbeitet wird. Der Beitrag von Oliver Bendel trägt den Titel „Chatbots als Artefakte der Maschinenethik“. Die Zusammenfassung: „Chatbots stehen auf Websites und über Instant Messengers zur Verfügung. Sie dienen Beratung und Unterhaltung. Die Maschinenethik, eine junge, dynamische Disziplin, hat die Moral von Maschinen zum Gegenstand. Der Beitrag gibt einen Überblick über Chatbot-Projekte, die von 2013 bis 2018 im Kontext der Maschinenethik an der Hochschule für Wirtschaft FHNW entstanden sind und die den GOODBOT, den LIEBOT und den BESTBOT als einfache moralische Maschinen hervorgebracht haben. Es wird dargelegt, welche Potenziale und welche Vor- bzw. Nachteile die Umsetzung dieser Artefakte in der Maschinenethik und darüber hinaus hat. Am Rande wird die Disziplin der Informationsethik angesprochen.“ Weitere Informationen über www.uibk.ac.at/iup/buecher/9783903187290.html.

Abb.: Mit dem GOODBOT-Projekt fing alles an

GOODBOT und LIEBOT im Handbuch

Anfang Juli 2018 sind zwei Beiträge im Handbuch zur Maschinenethik bei Springer erschienen. Sie stammen von Oliver Bendel, der auch der Herausgeber ist, und tragen den Titel „Das GOODBOT-Projekt“ und „Das LIEBOT-Projekt“. In den Beiträgen werden zwei Artefakte der Maschinenethik vorgestellt, die an der Hochschule für Wirtschaft FHNW 2013 bzw. 2016 entstanden sind. Der LÜGENBOT ist international bekannt geworden. Seit Ende 2016 sitzen renommierte Wissenschaftlerinnen und Wissenschaftler an ihren Kapiteln zum „Handbuch Maschinenethik“. Ende 2018 soll das gedruckte Werk erscheinen. Mit dabei sind etwa Luís Moniz Pereira aus Lissabon, einer der bekanntesten Maschinenethiker der Welt, und Roboterethikerin Janina Loh, die in Wien mit Mark Coeckelbergh zusammenarbeitet. Ein Beitrag von Dr. Stefan Ullrich, des Sprechers der GI-Fachgruppe „Informatik und Ethik“, kommt in wenigen Tagen heraus. Eine Übersicht über die Beiträge, die laufend elektronisch veröffentlicht werden, findet sich über link.springer.com/referencework/10.1007/978-3-658-17484-2

Abb.: Das LIEBOT-Projekt

Der BESTBOT in der Netzwoche

An der Hochschule für Wirtschaft FHNW sind seit 2013 im Kontext der Maschinenethik mehrere Hardware- und Softwareroboter entstanden. 2018 widmet man sich dem BESTBOT, einem Chatbot, der Probleme des Benutzers auf unterschiedliche Weise registrieren kann. Auf diesen geht Oliver Bendel in seinem Beitrag für die Netzwoche 9/2018 ein. Das vierte Artefakt soll demonstrieren, dass man bestimmte Probleme mit einer moralischen Maschine wie dem BESTBOT lösen kann, bestimmte Probleme durch diese aber auch erst entstehen. Man kann im Extremfall das eine oder andere Leben retten, aber man hat bis dahin Menschen observiert und analysiert, und zwar mit Hilfe von Gesichtserkennung. Sicherheit oder Freiheit, das ist auch hier die Frage. Ein Anforderungskatalog wurde bereits erstellt. Im Moment wird der Quellcode von GOODBOT und LIEBOT ausgewertet. Beide Systeme sollen verschmelzen und mit Gesichtserkennung ergänzt werden. Die Konzeption wurde Ende März an der Stanford University vorgestellt. Im Spätsommer liegen die Ergebnisse vor. Der Beitrag kann hier abgerufen werden.

Abb.: Der BESTBOT

Ein neues Artefakt der Maschinenethik

Das BESTBOT-Projekt startete am 22. März 2018. Nach den Vorgaben von Oliver Bendel wird das vierte Artefakt der Maschinenethik an der Hochschule für Wirtschaft FHNW geschaffen. Anders als der GOODBOT wird der BESTBOT ein webbasiertes System sein. Wie der LIEBOT aka LÜGENBOT soll der BESTBOT in Java programmiert werden, unter Zuhilfenahme der AIML. Der BESTBOT soll auf alle möglichen Anfragen und Herausforderungen reagieren können, auch auf solche, die in der Person des Benutzers liegen. Deshalb wird er erstens stark vernetzt sein, wie der LIEBOT, mit Systemen wie Suchmaschinen, mit Thesauri und Ontologien. Der GOODBOT war ein geschlossenes System mit einer Wissensbasis – er konnte nur begrenzt auf Probleme des Benutzers eingehen. Zweitens soll der BESTBOT Gesichtserkennung benutzen, auch Emotionserkennung. Auf diese Weise soll er Erkenntnisse zu Aussagen des Benutzers ergänzen und diese gegebenenfalls relativieren können. Die dabei auftretenden Probleme sollen ebenfalls reflektiert werden, mit Begriffen und Methoden der Informationsethik. Oliver Bendel stellt das BESTBOT-Projekt am 27. März 2018 an der Stanford University vor, im Rahmen der AAAI Spring Symposia.

Abb.: Der BESTBOT in Aktion

The BESTBOT at Stanford University

Machine ethics researches the morality of semiautonomous and autonomous machines. The School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW realized a project for implementation of a prototype called GOODBOT, a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. It was a stand-alone solution, not linked with other systems and not internet- or web-based. In the LIEBOT project, the mentioned meta rule was reversed. This web-based chatbot, implemented in 2016, could lie systematically. It was an example of a simple immoral machine. A follow-up project in 2018 is going to develop the BESTBOT, considering the restrictions of the GOODBOT and the opportunities of the LIEBOT. The aim is to develop a machine that can detect problems of users of all kinds and can react in an adequate way. It should have textual, auditory and visual capabilities. The paper “From GOODBOT to BESTBOT” describes the preconditions and findings of the GOODBOT project and the results of the LIEBOT project and outlines the subsequent BESTBOT project. A reflection from the perspective of information ethics is included. Oliver Bendel will present his paper in March 2018 at Stanford University (“AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents”, AAAI 2018 Spring Symposium Series).

Fig.: What will the BESTBOT look like?

Towards the BESTBOT

Machine ethics researches the morality of semiautonomous and autonomous machines. In the year 2013, the School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW realized a project for implementation of a prototype called GOODBOT, a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. It was a stand-alone solution, not linked with other systems and not internet- or web-based. In the LIEBOT project, the mentioned meta rule was reversed. This web-based chatbot, implemented in 2016, could lie systematically. It was an example of a simple immoral machine. A follow-up project in 2018 is going to develop the BESTBOT, considering the restrictions of the GOODBOT and the opportunities of the LIEBOT. The aim is to develop a machine that can detect problems of users of all kinds and can react in an adequate way. It should have textual, auditory and visual capabilities.

Fig.: The GOODBOT

Das Gute und das Böse

Matthias Oppliger von der TagesWoche besuchte Oliver Bendel am 4. Mai 2017 auf dem Campus Brugg-Windisch und befragte ihn zu seinem Lügenbot und zu anderen Themen: „Sie sind Maschinenethiker und beschäftigen sich mit den moralischen Aspekten von Technologie. Warum bauen Sie eine unmoralische Maschine, die Lügen erzählt?“ Oliver Bendel antwortete: “Als Ethiker interessiere ich mich für das Gute und das Böse, als Maschinenethiker für moralische und unmoralische Maschinen. Ich will keine bösen Maschinen in die Welt entlassen, aber ich will sie erschaffen und erforschen. Wenn wir wissen, wie ein Lügenbot funktioniert, können wir eine solche Maschine auch entlarven und Strategien entwickeln, um gegen sie vorzugehen.“ Der Moralphilosoph untersucht, so hat es Oliver Bendel immer wieder dargestellt, das Gute und das Böse, in deskriptiver oder normativer Weise. Er nimmt das Moralische also zur Kenntnis, beschreibt es und ordnet es ein. Und er entwirft einen Rahmen, etwa deontologischer oder teleologischer Art, und vergleicht den einen mit dem anderen, womit er in der Metaethik angelangt ist. Das Moralisieren überlässt er dem Moraltheologen, der anders als er weder voraussetzungslos noch ergebnisoffen ist. Das ganze Interview ist am 5. Mai 2017 erschienen und kann über www.tageswoche.ch nachgelesen werden.

Abb.: Eine böse Fee

AI for Social Good VII

Den Session Chair für die Talk Session 5 („Miscellaneous“) beim AAAI Spring Symposium „AI for Social Good“ hatte Amulya Yadav inne. Er ging auf die Methoden und Strategien im Bereich „AI for Social Good“ ein, erwähnte den Belmont-Report und wertete ihn für den gegebenen Kontext aus. „Optimal Thresholds for Intrusion Detection Systems“ wurde von Yevgeniy Vorobeychik vorgetragen (Paper zusammen mit Aron Laszka, Waseem Abbas u.a.). Die Methoden wurden auf „Water Distribution Networks“ angewandt. Das Referat von Evan Patterson trug den Titel „Machine representation of Data Analyses“ (Paper mit Ioana Baldini, Aleksandra Mojsilovic und Kush Varshney). Er ging aus von einer Case Study namens „Accelerated Cure Project“ und fragte nach neuen Arten von „data science platforms“. Oliver Bendel ging in „Towards Kant Machines“ (Paper zusammen mit Kevin Schwegler und Bradley Richards) auf das abgeschlossene LÜGENBOT-Projekt ein. Der LIEBOT ist in der Lage, systematisch zu lügen. Die Ergebnisse können dazu verwendet werden, solche natürlichsprachlichen Systeme zu entwickeln, die niemals oder selten lügen. Danach präsentierte er sein Paper „LADYBIRD: the Animal-Friendly Robot Vacuum Cleaner“. LADYBIRD erkennt Marienkäfer und stellt, wenn ihm diese zu nahe kommen, seine Arbeit ein. Der Prototyp wird zurzeit an der Hochschule für Wirtschaft FHNW entwickelt. Erisa Karafili offerierte eine „Argumentation-based Security for Social Good“ (Co-Autoren sind Antonis C. Kakas, Nikolaos I. Spanoudakis und Emil C. Lupu), Mahendra Prasad reiste „Back to the Future“, mit „A Framework for Modelling Altruistic Intelligence Explosions“ im Gepäck. Um 17.30 Uhr – nach einer angeregten Plenumsdiskussion – war das Symposium vorbei. Für den Abend und den Morgen des darauffolgenden Tages waren weitere allgemeine Veranstaltungen innerhalb der AAAI 2017 Spring Symposia geplant.

System erkennt Lügen von Menschen

Jeden Monat überprüft der Harvard Business Manager nach eigener Aussage die Thesen von Wissenschaftlern. „Diesmal geht es um die Annahme: Textalgorithmen können Lügen in E-Mails enttarnen.“ (SPON, 28. September 2016) Spiegel Online meldet am 28. September 2016: „Daran forschen Stephan Ludwig, Associate Professor an der University of Surrey (zum Zeitpunkt des Interviews noch Junior Professor für Marketing an der University of Westminster), und Tom Van Laer, Junior Professor für Marketing an der Cass Business School der City University London. Das Ergebnis ihrer Analyse: Wer lügt oder die Wahrheit stark verbiegt, hält sich beim Schreiben unbewusst an bestimmte Regeln.“ (SPON, 28. September 2016) Sie haben vor diesem Hintergrund einen Algorithmus entwickelt, der Lügen von Menschen erkennt. Mit dem LÜGENBOT, der 2016 an der Hochschule für Wirtschaft FHNW implementiert wurde, hätten die Wissenschaftler einen idealen Trainingspartner. Dieser spezielle Chatbot sagt meistens die Unwahrheit, aber nicht immer. Dabei benutzt er verschiedene Lügenstrategien, die er teils kombiniert. Ob das System der Briten auch die maschinellen Lügen des LIEBOT zu erkennen vermag, ist eine spannende Frage, die vielleicht in den nächsten Monaten beantwortet werden kann, wenn die Wissenschaftler zusammenfinden.

directory

Abb.: Hier geht’s zur Lüge

Die Stunde der Wahrheit

Vor mehreren Jahren wurde der GOODBOT im Kontext der Maschinenethik erdacht. In einem Projekt am Institut für Wirtschaftsinformatik (IWI) der Hochschule für Wirtschaft FHNW wurde er umgesetzt. Die UnternehmerZeitung Nr. 7/8 (2013) und andere Medien berichteten über die einfache moralische Maschine, den sich vorbildlich verhaltenden Chatbot, der Probleme von Benutzern erkennt und im Extremfall eine Notrufnummer herausgibt. In einem Folgeprojekt wurde von März bis August 2016 der LÜGENBOT (auch LIEBOT genannt) entwickelt. Assistenzsysteme wie Siri und Cortana und Chatbots auf Websites scheinen meistens die Wahrheit zu sagen, nicht aus moralischen, sondern aus pragmatischen Gründen. Es handelt sich um Programme und Dienste, die den Menschen unterhalten, unterstützen und informieren sollen. Wäre keinerlei Vertrauenswürdigkeit vorhanden, würden sie keine Akzeptanz finden. Eine Münchhausen-Maschine ist ein Gegenentwurf. Sie konstruiert in Kenntnis der Wahrheit die Unwahrheit, als Wetterbericht, Nachrichtendienst oder Dialogsystem. Der LÜGENBOT ist eine Münchhausen-Maschine, die als Chatbot realisiert ist. Vielleicht steckt mehr von ihm in Siri und Cortana, als wir glauben. In der UnternehmerZeitung Nr. 9 (2016) widmet sich Oliver Bendel in seinem Artikel „Die Stunde der Wahrheit“ seinem Geschöpf (das von Kevin Schwegler im Rahmen seiner Bachelorarbeit im Detail ausgeformt und in der Praxis umgesetzt wurde). Er geht darauf ein, wie man von ihm lernen kann, zugunsten einer verlässlichen virtuellen Welt, in der man Diskussionen führt und Transaktionen durchführt, ohne Angst vor Schwindel und Betrug. Der Artikel kann über die Website des Autors heruntergeladen werden.

nase_waechst

Abb.: Der LÜGENBOT bei seiner Lieblingsbeschäftigung