Schlagworte: GOODBOT

Der BESTBOT in der Netzwoche

An der Hochschule für Wirtschaft FHNW sind seit 2013 im Kontext der Maschinenethik mehrere Hardware- und Softwareroboter entstanden. 2018 widmet man sich dem BESTBOT, einem Chatbot, der Probleme des Benutzers auf unterschiedliche Weise registrieren kann. Auf diesen geht Oliver Bendel in seinem Beitrag für die Netzwoche 9/2018 ein. Das vierte Artefakt soll demonstrieren, dass man bestimmte Probleme mit einer moralischen Maschine wie dem BESTBOT lösen kann, bestimmte Probleme durch diese aber auch erst entstehen. Man kann im Extremfall das eine oder andere Leben retten, aber man hat bis dahin Menschen observiert und analysiert, und zwar mit Hilfe von Gesichtserkennung. Sicherheit oder Freiheit, das ist auch hier die Frage. Ein Anforderungskatalog wurde bereits erstellt. Im Moment wird der Quellcode von GOODBOT und LIEBOT ausgewertet. Beide Systeme sollen verschmelzen und mit Gesichtserkennung ergänzt werden. Die Konzeption wurde Ende März an der Stanford University vorgestellt. Im Spätsommer liegen die Ergebnisse vor. Der Beitrag kann hier abgerufen werden.

Abb.: Der BESTBOT

Ich bin nur eine Maschine

Die Anrufe von Google Duplex haben in den Medien ein enormes Echo ausgelöst. Immer wieder wird nun die Forderung erhoben, dass die Maschine beim Chat oder Gespräch sagt, dass sie nur eine Maschine ist. Google hat bereits beteuert, dass Google Assistant genau dies tun wird. Oliver Bendel entwickelte 2013 mit seinen Studierenden den GOODBOT, einen moralisch adäquat agierenden und reagierenden Chatbot. Vorbereitend hatte er sieben Metaregeln in der schweizerischen Unternehmerzeitung veröffentlicht. Die erste lautete, dass der Chatbot dem Benutzer klarmachen soll, dass er eine Maschine ist, eine andere, dass er nicht lügen soll. Das PDF kann hier heruntergeladen werden. Die Metaregeln wurden auf den GOODBOT dann tatsächlich angewandt. Der Prototyp war Thema auf mehreren Konferenzen und in mehreren Artikeln. Im Sommer 2018 wird ihm ein ausführlicher Beitrag gewidmet, im „Handbuch Maschinenethik“, das von Oliver Bendel für Springer herausgegeben wird und in gedruckter Form Ende des Jahres erscheint. Vor kurzem hat er auch die Idee des Moralmenüs auf Google Assistant übertragen und einen Regelkatalog für Chatbots und Sprachassistenten veröffentlicht.

Abb.: Ich bin nur eine Maschine

Moralmenü für Sprachassistenten

Im Kontext des LADYBIRD-Projekts (2014/2017) wurde ein Menü vorgeschlagen, mit welchem der Benutzer die Moral des Staubsaugerroboters einstellen kann. Dieser verschont, wie der Name andeutet, Marienkäfer. Auch Spinnen sollte er am Leben lassen. Wer aber zum Beispiel partout bestimmte Insekten einsaugen lassen will, könnte dies über ein Menü festlegen. Wichtig ist, dass LADYBIRD insgesamt tierfreundlich bleibt und sich nicht ins Gegenteil verkehrt (und Marienkäfer sind auf jeden Fall tabu). Über das Menü wird eine Stellvertretermoral entwickelt. Der Staubsaugerroboter macht das, was der Besitzer auch machen würde. Andere Maschinen wie Sprachassistenten bzw. virtuelle Assistenten haben in der Regel keine grundsätzliche moralische Ausrichtung, eignen sich aber ebenso für den Einsatz eines Moralmenüs. Google Assistant soll in Zukunft mit Hilfe der Audiofunktion alle möglichen Reservierungen vornehmen (das Projekt wird Duplex genannt). Damit automatisiert er Vorgänge, die privaten und sozialen Charakter haben. Viele Benutzer werden es schätzen, wenn der Telefonassistent die eigenen Wertvorstellungen vertritt, da er ja in ihrem Namen bzw. Auftrag spricht. Die Designstudie MOME stellt ein Moralmenü beispielhaft für virtuelle Assistenten dieser Art vor. Die erste Option lautet: „Ich sage, dass ich eine Maschine bin.“ Eine solche Funktion war schon beim GOODBOT von 2013, einem moralisch adäquat agierenden und reagierenden Chatbot, umgesetzt.

Abb.: Moralmenü für virtuelle Assistenten

Ein neues Artefakt der Maschinenethik

Das BESTBOT-Projekt startete am 22. März 2018. Nach den Vorgaben von Oliver Bendel wird das vierte Artefakt der Maschinenethik an der Hochschule für Wirtschaft FHNW geschaffen. Anders als der GOODBOT wird der BESTBOT ein webbasiertes System sein. Wie der LIEBOT aka LÜGENBOT soll der BESTBOT in Java programmiert werden, unter Zuhilfenahme der AIML. Der BESTBOT soll auf alle möglichen Anfragen und Herausforderungen reagieren können, auch auf solche, die in der Person des Benutzers liegen. Deshalb wird er erstens stark vernetzt sein, wie der LIEBOT, mit Systemen wie Suchmaschinen, mit Thesauri und Ontologien. Der GOODBOT war ein geschlossenes System mit einer Wissensbasis – er konnte nur begrenzt auf Probleme des Benutzers eingehen. Zweitens soll der BESTBOT Gesichtserkennung benutzen, auch Emotionserkennung. Auf diese Weise soll er Erkenntnisse zu Aussagen des Benutzers ergänzen und diese gegebenenfalls relativieren können. Die dabei auftretenden Probleme sollen ebenfalls reflektiert werden, mit Begriffen und Methoden der Informationsethik. Oliver Bendel stellt das BESTBOT-Projekt am 27. März 2018 an der Stanford University vor, im Rahmen der AAAI Spring Symposia.

Abb.: Der BESTBOT in Aktion

The BESTBOT at Stanford University

Machine ethics researches the morality of semiautonomous and autonomous machines. The School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW realized a project for implementation of a prototype called GOODBOT, a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. It was a stand-alone solution, not linked with other systems and not internet- or web-based. In the LIEBOT project, the mentioned meta rule was reversed. This web-based chatbot, implemented in 2016, could lie systematically. It was an example of a simple immoral machine. A follow-up project in 2018 is going to develop the BESTBOT, considering the restrictions of the GOODBOT and the opportunities of the LIEBOT. The aim is to develop a machine that can detect problems of users of all kinds and can react in an adequate way. It should have textual, auditory and visual capabilities. The paper “From GOODBOT to BESTBOT” describes the preconditions and findings of the GOODBOT project and the results of the LIEBOT project and outlines the subsequent BESTBOT project. A reflection from the perspective of information ethics is included. Oliver Bendel will present his paper in March 2018 at Stanford University (“AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents”, AAAI 2018 Spring Symposium Series).

Fig.: What will the BESTBOT look like?

Towards the BESTBOT

Machine ethics researches the morality of semiautonomous and autonomous machines. In the year 2013, the School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW realized a project for implementation of a prototype called GOODBOT, a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. It was a stand-alone solution, not linked with other systems and not internet- or web-based. In the LIEBOT project, the mentioned meta rule was reversed. This web-based chatbot, implemented in 2016, could lie systematically. It was an example of a simple immoral machine. A follow-up project in 2018 is going to develop the BESTBOT, considering the restrictions of the GOODBOT and the opportunities of the LIEBOT. The aim is to develop a machine that can detect problems of users of all kinds and can react in an adequate way. It should have textual, auditory and visual capabilities.

Fig.: The GOODBOT

Haben Igel lange Ohren?

An der Hochschule für Wirtschaft FHNW wurde von Frühjahr bis Spätsommer 2016 im Rahmen der Abschlussarbeit von Kevin Schwegler der LÜGENBOT (LIEBOT) als einfache unmoralische Maschine und Ausprägung einer Münchhausen-Maschine entwickelt. Professor Dr. Oliver Bendel, der Auftraggeber und einer der Betreuer, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert. Darin wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man kann also Lügenmaschinen bauen, Wetterberichte, die die falsche Temperatur angeben, Chatbots, die Tatsachen verdrehen – und uns verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student hat den LIEBOT in Java programmiert, mit dem Eclipse Scout Neon Framework. Dabei stand ihm ein weiterer Betreuer, Prof. Dr. Bradley Richards, zur Seite. Kevin Schwegler ist ein wertvoller Beitrag zur Forschung gelungen, u.a. durch genuine maschinelle Strategien des Lügens, die etwa auf einer Ontologie der Princeton University und einer Funktion von Yahoo beruhen. So wird aus dem Satz „Ein Hase hat lange Ohren“ durch ein Hinauf- und Hinabwandern in der Ontologie die Lüge „Ein Igel hat lange Ohren“ – das Hyponym „Hase“ wird ersetzt durch das Kohyponym „Igel“. Die LÜGENBOT kann ab Ende August 2016 über luegenbot.ch und liebot.org getestet werden. Die Logindaten sind bei Oliver Bendel erhältlich.

Hedgehog

Abb.: Hat der Igel lange Ohren oder der LIEBOT eine lange Nase?

The LIEBOT Whitepaper

Machine ethics researches the morality of semi-autonomous and autonomous machines. In 2013 and 2014, the School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW implemented a prototype of the GOODBOT, which is a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. In a follow-up project in 2016 the LIEBOT (aka LÜGENBOT) was developed, as an example of a Munchausen machine. The student Kevin Schwegler, supervised by Prof. Dr. Oliver Bendel and Prof. Dr. Bradley Richards, used the Eclipse Scout framework. The whitepaper which was published on July 25, 2016 via liebot.org outlines the background and the development of the LIEBOT. It describes – after a short introduction to the history and theory of lying and automatic lying (including the term of Munchausen machines) – the principles and pre-defined standards the bad bot will be able to consider. Then it is discussed how Munchausen machines as immoral machines can contribute to constructing and optimizing moral machines. After all the LIEBOT project is a substantial contribution to machine ethics as well as a critical review of electronic language-based systems and services, in particular of virtual assistants and chatbots.

Pinocchio

Fig.: A role model for the LIEBOT

Über die Moral der Maschinen

Ein vierteiliges Interview mit dem Maschinenethiker und Wirtschaftsinformatiker Oliver Bendel ist am 31. Mai 2016 in Telepolis erschienen. Es geht um autonome Autos, um neuartige Chatbots wie den GOODBOT und um tierfreundliche Saugroboter wie LADYBIRD. Es geht um die Forschung in der Schweiz und in den USA und das Zusammenleben mit den Maschinen. Zum Verkehr der Zukunft sagt Bendel: „Was also tun? Ich rate hartnäckig dazu, bestimmte Maschinen in offenen Welten nicht auf uns loszulassen. Es sind vermutlich tragfähige Kompromisse möglich. Man kann autonome Autos in den Städten verbieten und zwischen den Städten fahren lassen, auf bestimmten Spuren, wobei der Spurwechsel meist gut beherrscht wird, zu bestimmten Uhrzeiten, mit bestimmten Geschwindigkeiten. Eventuell auch im Entenmarsch, ein Auto fährt voran, die anderen bilden eine Kette wie die Küken hinter der Mutter. Projekte dieser Art hat es gegeben. Bei einer solchen Entflechtung des Verkehrs sind diejenigen beruhigt, die dem autonomen Auto misstrauen, und es werden kaum Unfälle mit konventionellen Fahrzeugen auftreten.“ (Telepolis, 31. Mai 2016) Der Beitrag mit dem Titel „Über die Moral der Maschinen und eine programmierte Ethik“ kann über www.heise.de/tp/artikel/48/48387/1.html abgerufen werden.

Duck

Abb.: Über den Entenmarsch staunt auch die Quietscheente

The GOODBOT Project

„The GOODBOT project was realized in 2013/14 in the context of machine ethics. First the tutoring person (the author of this contribution) laid out some general considerations. Then a student practice project was tendered within the school. Three future business informatics scientists applied for the practice-related work, developed the prototype over several months in cooperation with the professor, and presented it early in 2014. The successor project LIEBOT started in 2016.“ These are the initial words of a new contribution in Germany’s oldest online magazine, Telepolis. The author, Oliver Bendel, presents the GOODBOT project which is a part of his research on machine ethics. „The GOODBOT responds more or less appropriately to morally charged statements, thereby it differs from the majority of chatbots. It recognizes problems as the designers anticipated certain emotive words users might enter. It rates precarious statements or questions and escalates on multiple levels. Provided the chat runs according to standard, it is just a standard chatbot, but under extreme conditions it turns into a simple moral machine.“ The article „The GOODBOT Project: A Chatbot as a Moral Machine“ was published on May 17, 2016 and can be opened via http://www.heise.de/tp/artikel/48/48260/1.html.