Schlagworte: LIEBOT

Towards the BESTBOT

Machine ethics researches the morality of semiautonomous and autonomous machines. In the year 2013, the School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW realized a project for implementation of a prototype called GOODBOT, a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. It was a stand-alone solution, not linked with other systems and not internet- or web-based. In the LIEBOT project, the mentioned meta rule was reversed. This web-based chatbot, implemented in 2016, could lie systematically. It was an example of a simple immoral machine. A follow-up project in 2018 is going to develop the BESTBOT, considering the restrictions of the GOODBOT and the opportunities of the LIEBOT. The aim is to develop a machine that can detect problems of users of all kinds and can react in an adequate way. It should have textual, auditory and visual capabilities.

Fig.: The BESTBOT will be better than the GOODBOT

Das Gute und das Böse

Matthias Oppliger von der TagesWoche besuchte Oliver Bendel am 4. Mai 2017 auf dem Campus Brugg-Windisch und befragte ihn zu seinem Lügenbot und zu anderen Themen: „Sie sind Maschinenethiker und beschäftigen sich mit den moralischen Aspekten von Technologie. Warum bauen Sie eine unmoralische Maschine, die Lügen erzählt?“ Oliver Bendel antwortete: “Als Ethiker interessiere ich mich für das Gute und das Böse, als Maschinenethiker für moralische und unmoralische Maschinen. Ich will keine bösen Maschinen in die Welt entlassen, aber ich will sie erschaffen und erforschen. Wenn wir wissen, wie ein Lügenbot funktioniert, können wir eine solche Maschine auch entlarven und Strategien entwickeln, um gegen sie vorzugehen.“ Der Moralphilosoph untersucht, so hat es Oliver Bendel immer wieder dargestellt, das Gute und das Böse, in deskriptiver oder normativer Weise. Er nimmt das Moralische also zur Kenntnis, beschreibt es und ordnet es ein. Und er entwirft einen Rahmen, etwa deontologischer oder teleologischer Art, und vergleicht den einen mit dem anderen, womit er in der Metaethik angelangt ist. Das Moralisieren überlässt er dem Moraltheologen, der anders als er weder voraussetzungslos noch ergebnisoffen ist. Das ganze Interview ist am 5. Mai 2017 erschienen und kann über www.tageswoche.ch nachgelesen werden.

Abb.: Eine böse Fee

AI for Social Good VII

Den Session Chair für die Talk Session 5 („Miscellaneous“) beim AAAI Spring Symposium „AI for Social Good“ hatte Amulya Yadav inne. Er ging auf die Methoden und Strategien im Bereich „AI for Social Good“ ein, erwähnte den Belmont-Report und wertete ihn für den gegebenen Kontext aus. „Optimal Thresholds for Intrusion Detection Systems“ wurde von Yevgeniy Vorobeychik vorgetragen (Paper zusammen mit Aron Laszka, Waseem Abbas u.a.). Die Methoden wurden auf „Water Distribution Networks“ angewandt. Das Referat von Evan Patterson trug den Titel „Machine representation of Data Analyses“ (Paper mit Ioana Baldini, Aleksandra Mojsilovic und Kush Varshney). Er ging aus von einer Case Study namens „Accelerated Cure Project“ und fragte nach neuen Arten von „data science platforms“. Oliver Bendel ging in „Towards Kant Machines“ (Paper zusammen mit Kevin Schwegler und Bradley Richards) auf das abgeschlossene LÜGENBOT-Projekt ein. Der LIEBOT ist in der Lage, systematisch zu lügen. Die Ergebnisse können dazu verwendet werden, solche natürlichsprachlichen Systeme zu entwickeln, die niemals oder selten lügen. Danach präsentierte er sein Paper „LADYBIRD: the Animal-Friendly Robot Vacuum Cleaner“. LADYBIRD erkennt Marienkäfer und stellt, wenn ihm diese zu nahe kommen, seine Arbeit ein. Der Prototyp wird zurzeit an der Hochschule für Wirtschaft FHNW entwickelt. Erisa Karafili offerierte eine „Argumentation-based Security for Social Good“ (Co-Autoren sind Antonis C. Kakas, Nikolaos I. Spanoudakis und Emil C. Lupu), Mahendra Prasad reiste „Back to the Future“, mit „A Framework for Modelling Altruistic Intelligence Explosions“ im Gepäck. Um 17.30 Uhr – nach einer angeregten Plenumsdiskussion – war das Symposium vorbei. Für den Abend und den Morgen des darauffolgenden Tages waren weitere allgemeine Veranstaltungen innerhalb der AAAI 2017 Spring Symposia geplant.

System erkennt Lügen von Menschen

Jeden Monat überprüft der Harvard Business Manager nach eigener Aussage die Thesen von Wissenschaftlern. „Diesmal geht es um die Annahme: Textalgorithmen können Lügen in E-Mails enttarnen.“ (SPON, 28. September 2016) Spiegel Online meldet am 28. September 2016: „Daran forschen Stephan Ludwig, Associate Professor an der University of Surrey (zum Zeitpunkt des Interviews noch Junior Professor für Marketing an der University of Westminster), und Tom Van Laer, Junior Professor für Marketing an der Cass Business School der City University London. Das Ergebnis ihrer Analyse: Wer lügt oder die Wahrheit stark verbiegt, hält sich beim Schreiben unbewusst an bestimmte Regeln.“ (SPON, 28. September 2016) Sie haben vor diesem Hintergrund einen Algorithmus entwickelt, der Lügen von Menschen erkennt. Mit dem LÜGENBOT, der 2016 an der Hochschule für Wirtschaft FHNW implementiert wurde, hätten die Wissenschaftler einen idealen Trainingspartner. Dieser spezielle Chatbot sagt meistens die Unwahrheit, aber nicht immer. Dabei benutzt er verschiedene Lügenstrategien, die er teils kombiniert. Ob das System der Briten auch die maschinellen Lügen des LIEBOT zu erkennen vermag, ist eine spannende Frage, die vielleicht in den nächsten Monaten beantwortet werden kann, wenn die Wissenschaftler zusammenfinden.

directory

Abb.: Hier geht’s zur Lüge

Die Stunde der Wahrheit

Vor mehreren Jahren wurde der GOODBOT im Kontext der Maschinenethik erdacht. In einem Projekt am Institut für Wirtschaftsinformatik (IWI) der Hochschule für Wirtschaft FHNW wurde er umgesetzt. Die UnternehmerZeitung Nr. 7/8 (2013) und andere Medien berichteten über die einfache moralische Maschine, den sich vorbildlich verhaltenden Chatbot, der Probleme von Benutzern erkennt und im Extremfall eine Notrufnummer herausgibt. In einem Folgeprojekt wurde von März bis August 2016 der LÜGENBOT (auch LIEBOT genannt) entwickelt. Assistenzsysteme wie Siri und Cortana und Chatbots auf Websites scheinen meistens die Wahrheit zu sagen, nicht aus moralischen, sondern aus pragmatischen Gründen. Es handelt sich um Programme und Dienste, die den Menschen unterhalten, unterstützen und informieren sollen. Wäre keinerlei Vertrauenswürdigkeit vorhanden, würden sie keine Akzeptanz finden. Eine Münchhausen-Maschine ist ein Gegenentwurf. Sie konstruiert in Kenntnis der Wahrheit die Unwahrheit, als Wetterbericht, Nachrichtendienst oder Dialogsystem. Der LÜGENBOT ist eine Münchhausen-Maschine, die als Chatbot realisiert ist. Vielleicht steckt mehr von ihm in Siri und Cortana, als wir glauben. In der UnternehmerZeitung Nr. 9 (2016) widmet sich Oliver Bendel in seinem Artikel „Die Stunde der Wahrheit“ seinem Geschöpf (das von Kevin Schwegler im Rahmen seiner Bachelorarbeit im Detail ausgeformt und in der Praxis umgesetzt wurde). Er geht darauf ein, wie man von ihm lernen kann, zugunsten einer verlässlichen virtuellen Welt, in der man Diskussionen führt und Transaktionen durchführt, ohne Angst vor Schwindel und Betrug. Der Artikel kann über die Website des Autors heruntergeladen werden.

nase_waechst

Abb.: Der LÜGENBOT bei seiner Lieblingsbeschäftigung

Haben Igel lange Ohren?

An der Hochschule für Wirtschaft FHNW wurde von Frühjahr bis Spätsommer 2016 im Rahmen der Abschlussarbeit von Kevin Schwegler der LÜGENBOT (LIEBOT) als einfache unmoralische Maschine und Ausprägung einer Münchhausen-Maschine entwickelt. Professor Dr. Oliver Bendel, der Auftraggeber und einer der Betreuer, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert. Darin wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man kann also Lügenmaschinen bauen, Wetterberichte, die die falsche Temperatur angeben, Chatbots, die Tatsachen verdrehen – und uns verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student hat den LIEBOT in Java programmiert, mit dem Eclipse Scout Neon Framework. Dabei stand ihm ein weiterer Betreuer, Prof. Dr. Bradley Richards, zur Seite. Kevin Schwegler ist ein wertvoller Beitrag zur Forschung gelungen, u.a. durch genuine maschinelle Strategien des Lügens, die etwa auf einer Ontologie der Princeton University und einer Funktion von Yahoo beruhen. So wird aus dem Satz „Ein Hase hat lange Ohren“ durch ein Hinauf- und Hinabwandern in der Ontologie die Lüge „Ein Igel hat lange Ohren“ – das Hyponym „Hase“ wird ersetzt durch das Kohyponym „Igel“. Die LÜGENBOT kann ab Ende August 2016 über luegenbot.ch und liebot.org getestet werden. Die Logindaten sind bei Oliver Bendel erhältlich.

Hedgehog

Abb.: Hat der Igel lange Ohren oder der LIEBOT eine lange Nase?

Ethik und Stochastik

Anfang Juni 2016 führte Hansjörg Schmid von der Zeitschrift Apunto, die sich an die Angestellten in der Schweiz richtet, ein Interview mit dem Maschinenethiker und Wirtschaftsinformatiker Oliver Bendel. Dieses ist Anfang August unter dem Titel „Von moralischen und unmoralischen Maschinen“ online erschienen. Oliver Bendel skizziert die Aufgaben der Maschinenethik als Gestaltungsdisziplin. Dazu gehören nicht nur Konzepte und Prototypen moralischer, sondern auch unmoralischer Maschinen. Es geht nicht nur darum, Technik zu zähmen, zu dressieren und zu bändigen, nicht nur darum, sie das Gute wählen zu lassen, sondern auch darum, sie zu entfesseln, sie das Böse tun zu lassen, um dieses – als Resultat der Maschine – besser zu verstehen. Denn was bedeutet es, wenn ein neuartiges Subjekt der Moral, ein alleingelassenes, auf sich selbst gestelltes Artefakt, etwas tun kann, das wir als unmoralisch oder moralisch bezeichnen? Was bedeutet es, wenn zwar kein guter oder böser Willen im engeren Sinne vorhanden ist, aber eine Willenssimulation, eine Zielorientiertheit und Absichtserklärung, verbunden etwa mit einer hohen Wahrscheinlichkeit in Bezug auf das Gute oder Böse? Der LÜGENBOT, der im Gespräch erwähnt wird, verfügt nicht nur über ausgefeilte Strategien, die Unwahrheit zu sagen, sondern verbindet diese auch mit stochastischen Verfahren; man kann ihm beibringen, bestimmte Lügen jeweils mit einer mittleren oder einer hohen Wahrscheinlichkeit zu produzieren. Das Interview kann über apunto-online.ch/gesellschaft/showData/von-moralischen-und-unmoralischen-maschinen nachgelesen werden.

The LIEBOT Whitepaper

Machine ethics researches the morality of semi-autonomous and autonomous machines. In 2013 and 2014, the School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW implemented a prototype of the GOODBOT, which is a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. In a follow-up project in 2016 the LIEBOT (aka LÜGENBOT) was developed, as an example of a Munchausen machine. The student Kevin Schwegler, supervised by Prof. Dr. Oliver Bendel and Prof. Dr. Bradley Richards, used the Eclipse Scout framework. The whitepaper which was published on July 25, 2016 via liebot.org outlines the background and the development of the LIEBOT. It describes – after a short introduction to the history and theory of lying and automatic lying (including the term of Munchausen machines) – the principles and pre-defined standards the bad bot will be able to consider. Then it is discussed how Munchausen machines as immoral machines can contribute to constructing and optimizing moral machines. After all the LIEBOT project is a substantial contribution to machine ethics as well as a critical review of electronic language-based systems and services, in particular of virtual assistants and chatbots.

Pinocchio

Fig.: A role model for the LIEBOT

Der Roboter der Schmerzen

„Darf ein Roboter einen Menschen nach eigenem Gutdünken verletzen? Ein US-Robotiker hat einen Roboter gebaut, der selbst entscheidet, ob er einem Menschen in den Finger sticht. Die Aktion soll eine Diskussion über Roboter anregen.“ (Golem, 13. Juni 2016) Mit diesen Worten beginnt ein Artikel in Golem, der die Arbeit von Alexander Reben, Bereichsleiter beim kalifornischen Inkubator Stochastic Labs, vorstellt. Der Roboter ist nichts anderes als ein Arm, an dessen Ende eine Nadel angebracht ist. „Er steht auf einer kleinen Plattform. Darauf gibt es eine Markierung, die anzeigt, wo der Finger platziert wird.“ (Golem, 13. Juni 2016) Der Wissenschaftler gibt an, den ersten Roboter gebaut zu haben, der „autonom und absichtlich“ das erste Robotergesetz von Isaac Asimov bricht. Auch die Forschung des Pentagon zu autonomen Kampfrobotern weist in diese Richtung. Derzeit sind die Drohnen noch ferngesteuert, aber das wird sich zu Lande und in der Luft bald ändern. Der Roboter von Alexander Reben kann als unmoralische Maschine („immoral machine“) bezeichnet werden, insofern er absichtlich und systematisch gegen das Wohl des Menschen verstößt, ohne dass der Zweck die Mittel heiligen würde.

Schmerz

Abb.: Auch eine solche Nadel kann Schmerzen verursachen

The GOODBOT Project

„The GOODBOT project was realized in 2013/14 in the context of machine ethics. First the tutoring person (the author of this contribution) laid out some general considerations. Then a student practice project was tendered within the school. Three future business informatics scientists applied for the practice-related work, developed the prototype over several months in cooperation with the professor, and presented it early in 2014. The successor project LIEBOT started in 2016.“ These are the initial words of a new contribution in Germany’s oldest online magazine, Telepolis. The author, Oliver Bendel, presents the GOODBOT project which is a part of his research on machine ethics. „The GOODBOT responds more or less appropriately to morally charged statements, thereby it differs from the majority of chatbots. It recognizes problems as the designers anticipated certain emotive words users might enter. It rates precarious statements or questions and escalates on multiple levels. Provided the chat runs according to standard, it is just a standard chatbot, but under extreme conditions it turns into a simple moral machine.“ The article „The GOODBOT Project: A Chatbot as a Moral Machine“ was published on May 17, 2016 and can be opened via http://www.heise.de/tp/artikel/48/48260/1.html.