Schlagworte: Das Lügenbot-Problem

Der LÜGENBOT in der Bild am Sonntag

Die Bild am Sonntag (BamS) hat den LÜGENBOT getestet und ihm einige Perlen der Unwahrheit entlockt. Dies ist in einem Artikel von Florian Zerfaß vom 2. Oktober 2016 nachzulesen, mit dem Titel „Roboter lernen lügen für die Wahrheit“. Angela Merkel sei Bundeskanzlerin und die beste Rapperin der Welt, der FC Schalke 04 habe in der Bundesliga 134 Punkte. Besonders interessant ist das erste Beispiel. Der Satz fängt wahr an und endet falsch; der Benutzer wird in Sicherheit gewiegt und dann aufs Glatteis geführt. Der LÜGENBOT aka LIEBOT wurde 2013 von Oliver Bendel erfunden und 2016 von Kevin Schwegler umgesetzt. Er beherrscht verschiedene Lügenstrategien, von denen manche als genuin maschinell angesehen werden können – so lügt kein Mensch, nicht einmal ein Lügenbold. Der Chatbot lügt nicht immer, aber meistens. Es gibt vielfältige Anwendungsmöglichkeiten – so können Maschinen, die Fakes und Lügen entdecken sollen, mit ihm trainiert werden. Letztlich geht es darum, vertrauenswürdige und verlässliche Systeme zu entwickeln.

Roboter haben kurze Beine oder keine

Roboter haben kurze Beine. Zumindest manche von ihnen, etwa der LÜGENBOT. Genaugenommen hat dieser nicht einmal Beine, sondern nur ein Rad. Wolfgang Schmitz von VDI nachrichten war im September 2016 im Gespräch mit Oliver Bendel, Wirtschaftsinformatiker und Maschinenethiker. Eine Frage von ihm lautete, worin der Nutzen des LÜGENBOT bestehe. Die Antwort lautete: „Es gibt bereits Münchhausen-Maschinen. Wir wollen mit dem Lügenbot, der als Chatbot realisiert ist, zunächst auf ihre Existenz und ihre Strategien hinweisen. Kennt man diese, kann man ihnen effektiv begegnen. Entwickler können Wissensbasen schützen und externe Quellen kontrollieren. Mit moralisch verlässlichen Maschinen können Anbieter Vertrauen aufbauen. Die Benutzer werden wachsamer, indem sie etwa nach dem Anbieter fragen. Nicht zuletzt kann die Maschinenethik die Erkenntnisse für ihre Forschungen nutzen.“ Das Gespräch drehte sich weiter um Münchhausen-Maschinen, menschliche und maschinelle Lügenbolde und moralische und unmoralische Maschinen. Das LÜGENBOT-Projekt wurde seit 2013 von Oliver Bendel mit mehreren Artikeln vorbereitet. 2016 konnte der Chatbot dann realisiert werden. In dieser Form konzipiert und programmiert hat ihn Kevin Schwegler. Das ganze Interview mit dem Titel „Lügentechnik zerstört Vertrauen“ ist am 16. September 2016 in der gedruckten Ausgabe der VDI nachrichten erschienen und seit 15. September online über www.vdi-nachrichten.com/Schwerpunkt-Meinung/Luegentechnik-zerstoert-Vertrauen abrufbar.

rot_anlaufen

Abb.: Der LÜGENBOT wird rot

Haben Igel lange Ohren?

An der Hochschule für Wirtschaft FHNW wurde von Frühjahr bis Spätsommer 2016 im Rahmen der Abschlussarbeit von Kevin Schwegler der LÜGENBOT (LIEBOT) als einfache unmoralische Maschine und Ausprägung einer Münchhausen-Maschine entwickelt. Professor Dr. Oliver Bendel, der Auftraggeber und einer der Betreuer, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert. Darin wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man kann also Lügenmaschinen bauen, Wetterberichte, die die falsche Temperatur angeben, Chatbots, die Tatsachen verdrehen – und uns verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student hat den LIEBOT in Java programmiert, mit dem Eclipse Scout Neon Framework. Dabei stand ihm ein weiterer Betreuer, Prof. Dr. Bradley Richards, zur Seite. Kevin Schwegler ist ein wertvoller Beitrag zur Forschung gelungen, u.a. durch genuine maschinelle Strategien des Lügens, die etwa auf einer Ontologie der Princeton University und einer Funktion von Yahoo beruhen. So wird aus dem Satz „Ein Hase hat lange Ohren“ durch ein Hinauf- und Hinabwandern in der Ontologie die Lüge „Ein Igel hat lange Ohren“ – das Hyponym „Hase“ wird ersetzt durch das Kohyponym „Igel“. Die LÜGENBOT kann ab Ende August 2016 über luegenbot.ch und liebot.org getestet werden. Die Logindaten sind bei Oliver Bendel erhältlich.

Hedgehog

Abb.: Hat der Igel lange Ohren oder der LIEBOT eine lange Nase?

Der Lügenbot kommt auf die Welt

An der Hochschule für Wirtschaft FHNW wird ab Frühjahr 2016 im Rahmen einer Abschlussarbeit ein Lügenbot entwickelt. Der betreuende Professor, Dr. Oliver Bendel, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert, etwa „Wenn ein Chatbot zum Lügenbot wird“ (ICTkommunikation), „Können Maschinen lügen? Die Wahrheit über Münchhausen-Maschinen“ (Telepolis) und „Der Lügenbot und andere Münchhausen-Maschinen“ (MittelstandsWiki). In „Robots between the Devil and the Deep Blue Sea“ wurde zudem das sogenannte Lügenbot-Problem vorgestellt, als eines von vier Dilemmata. In den Beiträgen wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man könnte also Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student wird den Chatbot für zwei Szenarien realisieren, den Einsatz im Auftrag der Lebensmittel- und der Tourismusbranche. Bereits 2013 kam der GOODBOT als einfache moralische Maschine auf die Welt. Der Lügenbot könnte als einfache unmoralische Maschine bezeichnet werden, wobei Lügen natürlich nicht per se schlecht ist. Er ist interessant für die Maschinenethik als Gestaltungsdisziplin und für die Informationsethik als Reflexionsdisziplin. Über die Resultate des Projekts wird zur gegebenen Zeit auf maschinenethik.net informiert.

Maedchen_Chatbot

Abb.: Wagt er es, mich anzulügen, der Bot?

Robots between the Devil and the Deep Blue Sea

„Robots between the Devil and the Deep Blue Sea“ lautet der Titel des Beitrags, der am 1. Dezember 2015 in der brasilianischen Zeitschrift Liinc em Revista erschienen ist. Oliver Bendel stellt klassische Dilemmata vor und überträgt sie ins Informationszeitalter. Insbesondere interessiert der Einsatz von Chatbots, Robotern, Drohnen und selbstständig fahrenden Autos, der immer wieder problembehaftet ist. Bei den Lösungsansätzen wird u.a. die Perspektive der Maschinenethik eingenommen. Es stellt sich heraus, dass klassische Dilemmata für die Herausforderungen der Gegenwart nützlich sind und dabei helfen, die Entscheidungsmöglichkeiten teilautonomer und autonomer Systeme zu diskutieren sowie Robotik, Künstliche Intelligenz und Informatik in dieser Frage zu sensibilisieren und ihre Ergebnisse und Erzeugnisse zu optimieren. Skizziert werden das „Roboterauto-Problem“, die „Parkbucht des Karneades“, „Buridans Robot“ und das „Lügenbot-Problem“. Der Beitrag kann über die Website der Zeitschrift kostenlos heruntergeladen werden.

Teufel

Abb.: Roboter können in Dilemmata geraten