Schlagworte: Lügenbot

The LIEBOT Whitepaper

Machine ethics researches the morality of semi-autonomous and autonomous machines. In 2013 and 2014, the School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW implemented a prototype of the GOODBOT, which is a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. In a follow-up project in 2016 the LIEBOT (aka LÜGENBOT) was developed, as an example of a Munchausen machine. The student Kevin Schwegler, supervised by Prof. Dr. Oliver Bendel and Prof. Dr. Bradley Richards, used the Eclipse Scout framework. The whitepaper which was published on July 25, 2016 via liebot.org outlines the background and the development of the LIEBOT. It describes – after a short introduction to the history and theory of lying and automatic lying (including the term of Munchausen machines) – the principles and pre-defined standards the bad bot will be able to consider. Then it is discussed how Munchausen machines as immoral machines can contribute to constructing and optimizing moral machines. After all the LIEBOT project is a substantial contribution to machine ethics as well as a critical review of electronic language-based systems and services, in particular of virtual assistants and chatbots.

Pinocchio

Fig.: A role model for the LIEBOT

The LIEBOT Project

The LIEBOT project is based on preparatory works by Prof. Dr. Oliver Bendel who already initiated the GOODBOT, a chatbot which can be considered a simple moral machine. Since 2013 he has published several articles on this subject and presented automatic strategies with a view to lying. A business informatics student of the School of Business FHNW, Kevin Schwegler, was contracted early in 2016 to implement the LIEBOT (aka LÜGENBOT) as a prototype in the scope of his graduation thesis under consideration and continuance of the preparatory works. The objective of the LIEBOT project is to give practical evidence of the potential of lies and risks of natural language systems. Online media and websites create or aggregate more and more texts automatically (robo-content) and robo-journalism is growing. Natural language dialog systems are becoming very popular. The chatbot to be programmed – the LIEBOT – shall be able to produce untruths and to respond in a morally inadequate manner. This makes it a reversion of the premise applied to the development of the GOODBOT and a continuance of the corresponding work under new auspices. A simple immoral machine is born. Further information as from autumn 2016 via luegenbot.ch and liebot.org.

lie

Fig.: From truth to lie

Der Lügenbot kommt auf die Welt

An der Hochschule für Wirtschaft FHNW wird ab Frühjahr 2016 im Rahmen einer Abschlussarbeit ein Lügenbot entwickelt. Der betreuende Professor, Dr. Oliver Bendel, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert, etwa „Wenn ein Chatbot zum Lügenbot wird“ (ICTkommunikation), „Können Maschinen lügen? Die Wahrheit über Münchhausen-Maschinen“ (Telepolis) und „Der Lügenbot und andere Münchhausen-Maschinen“ (MittelstandsWiki). In „Robots between the Devil and the Deep Blue Sea“ wurde zudem das sogenannte Lügenbot-Problem vorgestellt, als eines von vier Dilemmata. In den Beiträgen wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man könnte also Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student wird den Chatbot für zwei Szenarien realisieren, den Einsatz im Auftrag der Lebensmittel- und der Tourismusbranche. Bereits 2013 kam der GOODBOT als einfache moralische Maschine auf die Welt. Der Lügenbot könnte als einfache unmoralische Maschine bezeichnet werden, wobei Lügen natürlich nicht per se schlecht ist. Er ist interessant für die Maschinenethik als Gestaltungsdisziplin und für die Informationsethik als Reflexionsdisziplin. Über die Resultate des Projekts wird zur gegebenen Zeit auf maschinenethik.net informiert.

Maedchen_Chatbot

Abb.: Wagt er es, mich anzulügen, der Bot?

Wenn ein Chatbot zum Lügenbot wird

Anna von Ikea sagt die Wahrheit. Zumindest kann man das annehmen, und man darf vermuten, dass sie die Wahrheit nur verschweigt, wenn sie einen guten Grund dafür hat oder überfordert ist. Was aber, wenn ein Chatbot die Unwahrheit sagt? Wenn Nana, wie sie heißen soll, die Wahrheit verdreht, die Wahrheit von Anna, die Wahrheit an sich? Was ist, wenn Anna gehackt oder umgestaltet und zu Nana wird, oder wenn man glaubt, mit Anna zu plaudern, eigentlich aber Nana dahintersteckt? Das Missbrauchspotenzial bei gewissen Informations- und Kommunikationsdiensten im Internet ist groß. In einem Artikel von Oliver Bendel mit dem Titel „Wenn ein Chatbot zum Lügenbot wird“ (ICTkommunikation, 24. Juli 2015) wird systematisch untersucht, wie (der Entwickler von) Nana vorgehen könnte, und gezeigt, dass ein Lügenbot, bei allen Tücken, realisiert werden kann – und dass die Gefahr, einem zu begegnen, immerhin vorhanden ist. Fragen stellen sich für Informationsethik und Maschinenethik gleichermaßen.

Avatar

Abb.: So könnte Nana aussehen

Über Münchhausen-Maschinen

Hieronymus Carl Friedrich Freiherr von Münchhausen gilt als einer der Urväter der Lügengeschichten. Lange vor ihm hat Lukian von Samosata sein ebenso kreatives wie charmantes Unwesen getrieben. Zahlreiche weitere Autoren waren dieser Tradition verpflichtet. Das Flunkern und Fabulieren ist weit verbreitet, nicht nur in der Literatur. Es hat auch eine moralische Komponente. In Zeiten, in denen wir Maschinen-, Roboter- und Algorithmenethik treiben, liegt eine Frage nahe, die Münchhausen wohl nicht aufgeworfen hat: Können Maschinen lügen? In einem Artikel, der am 1. März 2015 in Telepolis erschienen ist, geht Oliver Bendel dieser Frage nach. Der Untertitel lautet: „Die Wahrheit über Münchhausen-Maschinen“. Lügenbots werden ebenso behandelt wie andere die Unwahrheit sagende Maschinen, Roboter aller Art, Antwortmaschinen im WWW. Im Teil zur Maschinenethik hat der GOODBOT seinen Auftritt, die moralische Maschine, die 2013 und 2014 an der Hochschule für Wirtschaft FHNW nach Ideen von Oliver Bendel entwickelt wurde. Der Artikel „Können Maschinen lügen?“ kann über www.heise.de/tp/artikel/44/44242/1.html aufgerufen werden.

Pinocchio

Abb.: Pinocchio als Lügenmaschine (Quelle: commons.wikimedia.org)

Der Lügenbot und andere Münchhausen-Maschinen

In seinem Artikel „Der Lügenbot und andere Münchhausen-Maschinen“ geht Oliver Bendel der Frage nach, ob Chatbots, Roboter und andere Maschinen lügen können. Dabei betont er die Sprachlichkeit des Lügens. Wer etwas sagen kann, so der Autor, der kann auch die Unwahrheit sagen. Den meisten Maschinen unterstellen wir, dass sie die Wahrheit sagen. Wir vertrauen den Aussagen einer Anna von Ikea, einer Siri von Apple und von Wolfram Alpha. Aber alle drei könnten ganz anders, wenn sie – oder ihre Entwickler – wollten. Man könnte Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich irritiert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Artikel ist am 11. September 2013 auf der Plattform CyberPress erschienen und direkt über http://cyberpress.de/wiki/Maschinenethik aufrufbar.