22 Chatbots and Voice Assistants of a Special Kind

Since 2013, Oliver Bendel has developed 22 chatbots and voice assistants together with his students or colleagues. They can be divided into three categories. The first are moral and immoral chatbots (i.e., forms of moral machines) and empathic voice assistants. The second are chatbots (some with voice output) for dead, endangered, or extinct languages and idioms. The third are pedagogical chatbots and chatbots that give recommendations and advice. Some of the projects lasted between four and six months. Most of the GPTs were created in just a few hours. Exceptions are Miss Tammy and Animal Whisperer, which took several months to build with the help of prompt engineering and retrieval-augmented generation (RAG). Articles and book chapters have been published on many of the projects. The names of the developers can be found in these. A few chatbots made it into the media, such as GOODBOT (for which the preparatory work began in 2012), LÜGENBOT aka LIEBOT, and @llegra.

Fig.: 22 special chatbots and voice assistants

Vom GOODBOT bis zu @ve

Seit 2012 sind auf Initiative von Oliver Bendel 21 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik entstanden, die eine Idee veranschaulichen oder die Umsetzung verdeutlichen sollen. Darunter sind Conversational Agents wie GOODBOT, LIEBOT, BESTBOT und SPACE THEA, die auf Konferenzen, in Journals und in den Medien vorgestellt wurden, und tierfreundliche Maschinen wie LADYBIRD und HAPPY HEDGEHOG, die in Büchern wie „Die Grundfragen der Maschinenethik“ von Catrin Misselhorn und auf indischen, chinesischen und amerikanischen Plattformen behandelt wurden. Die letzten Entwicklungen waren ein Konzept von Ali Yürekkirmaz für ein System mit Gesichtserkennung zur Identifizierung von Bären, das von den Teilnehmern der ACI 2022 in Newcastle upon Tyne diskutiert wurde, und das CARE-MOME, präsentiert von Oliver Bendel und Marc Heimann auf der ICSR 2022 in Florenz. Beide Proceedings erscheinen Anfang 2023. In den nächsten Tagen wird das Projekt mit @ve beendet, einem auf GPT-3 basierenden Chatbot für Latein. Man kann mit ihr in dieser toten Sprache plaudern, die dann ganz lebendig erscheint, und ihr auf Deutsch verschiedene Fragen, etwa zur Grammatik, stellen. Der Entwickler Karim N’diaye stellt das Projekt am 19. Januar 2023 an der Hochschule für Wirtschaft FHNW in kleiner Runde vor. In weiteren Projekten will man sich ausgestorbenen und gefährdeten Sprachen widmen. Eine aktualisierte Übersicht zu allen Artefakten ist auf informationsethik.net und maschinenethik.net zu finden.

Abb.: Die aktualisierte Übersicht zu den Artefakten

Basics and Artifacts of Machine Ethics

More and more autonomous and semi-autonomous machines such as intelligent software agents, specific robots, specific drones and self-driving cars make decisions that have moral implications. Machine ethics as a discipline examines the possibilities and limits of moral and immoral machines. It does not only reflect ideas but develops artifacts like simulations and prototypes. In his talk at the University of Potsdam on 23 June 2019 („Fundamentals and Artifacts of Machine Ethics“), Prof. Dr. Oliver Bendel outlined the fundamentals of machine ethics and present selected artifacts of moral and immoral machines, Furthermore, he discussed a project which will be completed by the end of 2019. The GOODBOT (2013) is a chatbot that responds morally adequate to problems of the users. The LIEBOT (2016) can lie systematically, using seven different strategies. LADYBIRD (2017) is an animal-friendly robot vacuum cleaner that spares ladybirds and other insects. The BESTBOT (2018) is a chatbot that recognizes certain problems and conditions of the users with the help of text analysis and facial recognition and reacts morally to them. 2019 is the year of the E-MOMA. The machine should be able to improve its morality on its own.

Fig.: The LIEBOT

Chatbots als Artefakte der Maschinenethik

Ende August 2018 erscheint das Buch „Talk with the Bots: Gesprächsroboter und Social Bots im Diskurs“, herausgegeben von Theo Hug und Günther Pallaver, bei innsbruck university press. Autorinnen und Autoren sind u.a. Timo Kaerlein, Netaya Lotze, Andrea Knaut und Oliver Bendel. Sie alle trugen beim „Medientag 2017“ der Universität Innsbruck vor, der in dem Buch verarbeitet wird. Der Beitrag von Oliver Bendel trägt den Titel „Chatbots als Artefakte der Maschinenethik“. Die Zusammenfassung: „Chatbots stehen auf Websites und über Instant Messengers zur Verfügung. Sie dienen Beratung und Unterhaltung. Die Maschinenethik, eine junge, dynamische Disziplin, hat die Moral von Maschinen zum Gegenstand. Der Beitrag gibt einen Überblick über Chatbot-Projekte, die von 2013 bis 2018 im Kontext der Maschinenethik an der Hochschule für Wirtschaft FHNW entstanden sind und die den GOODBOT, den LIEBOT und den BESTBOT als einfache moralische Maschinen hervorgebracht haben. Es wird dargelegt, welche Potenziale und welche Vor- bzw. Nachteile die Umsetzung dieser Artefakte in der Maschinenethik und darüber hinaus hat. Am Rande wird die Disziplin der Informationsethik angesprochen.“ Weitere Informationen über www.uibk.ac.at/iup/buecher/9783903187290.html.

Abb.: Mit dem GOODBOT-Projekt fing alles an

GOODBOT und LIEBOT im Handbuch

Anfang Juli 2018 sind zwei Beiträge im Handbuch zur Maschinenethik bei Springer erschienen. Sie stammen von Oliver Bendel, der auch der Herausgeber ist, und tragen den Titel „Das GOODBOT-Projekt“ und „Das LIEBOT-Projekt“. In den Beiträgen werden zwei Artefakte der Maschinenethik vorgestellt, die an der Hochschule für Wirtschaft FHNW 2013 bzw. 2016 entstanden sind. Der LÜGENBOT ist international bekannt geworden. Seit Ende 2016 sitzen renommierte Wissenschaftlerinnen und Wissenschaftler an ihren Kapiteln zum „Handbuch Maschinenethik“. Ende 2018 soll das gedruckte Werk erscheinen. Mit dabei sind etwa Luís Moniz Pereira aus Lissabon, einer der bekanntesten Maschinenethiker der Welt, und Roboterethikerin Janina Loh, die in Wien mit Mark Coeckelbergh zusammenarbeitet. Ein Beitrag von Dr. Stefan Ullrich, des Sprechers der GI-Fachgruppe „Informatik und Ethik“, kommt in wenigen Tagen heraus. Eine Übersicht über die Beiträge, die laufend elektronisch veröffentlicht werden, findet sich über link.springer.com/referencework/10.1007/978-3-658-17484-2

Abb.: Das LIEBOT-Projekt

Der BESTBOT in der Netzwoche

An der Hochschule für Wirtschaft FHNW sind seit 2013 im Kontext der Maschinenethik mehrere Hardware- und Softwareroboter entstanden. 2018 widmet man sich dem BESTBOT, einem Chatbot, der Probleme des Benutzers auf unterschiedliche Weise registrieren kann. Auf diesen geht Oliver Bendel in seinem Beitrag für die Netzwoche 9/2018 ein. Das vierte Artefakt soll demonstrieren, dass man bestimmte Probleme mit einer moralischen Maschine wie dem BESTBOT lösen kann, bestimmte Probleme durch diese aber auch erst entstehen. Man kann im Extremfall das eine oder andere Leben retten, aber man hat bis dahin Menschen observiert und analysiert, und zwar mit Hilfe von Gesichtserkennung. Sicherheit oder Freiheit, das ist auch hier die Frage. Ein Anforderungskatalog wurde bereits erstellt. Im Moment wird der Quellcode von GOODBOT und LIEBOT ausgewertet. Beide Systeme sollen verschmelzen und mit Gesichtserkennung ergänzt werden. Die Konzeption wurde Ende März an der Stanford University vorgestellt. Im Spätsommer liegen die Ergebnisse vor. Der Beitrag kann hier abgerufen werden.

Abb.: Der BESTBOT

Ich bin nur eine Maschine

Die Anrufe von Google Duplex haben in den Medien ein enormes Echo ausgelöst. Immer wieder wird nun die Forderung erhoben, dass die Maschine beim Chat oder Gespräch sagt, dass sie nur eine Maschine ist. Google hat bereits beteuert, dass Google Assistant genau dies tun wird. Oliver Bendel entwickelte 2013 mit seinen Studierenden den GOODBOT, einen moralisch adäquat agierenden und reagierenden Chatbot. Vorbereitend hatte er sieben Metaregeln in der schweizerischen Unternehmerzeitung veröffentlicht. Die erste lautete, dass der Chatbot dem Benutzer klarmachen soll, dass er eine Maschine ist, eine andere, dass er nicht lügen soll. Das PDF kann hier heruntergeladen werden. Die Metaregeln wurden auf den GOODBOT dann tatsächlich angewandt. Der Prototyp war Thema auf mehreren Konferenzen und in mehreren Artikeln. Im Sommer 2018 wird ihm ein ausführlicher Beitrag gewidmet, im „Handbuch Maschinenethik“, das von Oliver Bendel für Springer herausgegeben wird und in gedruckter Form Ende des Jahres erscheint. Vor kurzem hat er auch die Idee des Moralmenüs auf Google Assistant übertragen und einen Regelkatalog für Chatbots und Sprachassistenten veröffentlicht.

Abb.: Ich bin nur eine Maschine

Moralmenü für Sprachassistenten

Im Kontext des LADYBIRD-Projekts (2014/2017) wurde ein Menü vorgeschlagen, mit welchem der Benutzer die Moral des Staubsaugerroboters einstellen kann. Dieser verschont, wie der Name andeutet, Marienkäfer. Auch Spinnen sollte er am Leben lassen. Wer aber zum Beispiel partout bestimmte Insekten einsaugen lassen will, könnte dies über ein Menü festlegen. Wichtig ist, dass LADYBIRD insgesamt tierfreundlich bleibt und sich nicht ins Gegenteil verkehrt (und Marienkäfer sind auf jeden Fall tabu). Über das Menü wird eine Stellvertretermoral entwickelt. Der Staubsaugerroboter macht das, was der Besitzer auch machen würde. Andere Maschinen wie Sprachassistenten bzw. virtuelle Assistenten haben in der Regel keine grundsätzliche moralische Ausrichtung, eignen sich aber ebenso für den Einsatz eines Moralmenüs. Google Assistant soll in Zukunft mit Hilfe der Audiofunktion alle möglichen Reservierungen vornehmen (das Projekt wird Duplex genannt). Damit automatisiert er Vorgänge, die privaten und sozialen Charakter haben. Viele Benutzer werden es schätzen, wenn der Telefonassistent die eigenen Wertvorstellungen vertritt, da er ja in ihrem Namen bzw. Auftrag spricht. Die Designstudie MOME stellt ein Moralmenü beispielhaft für virtuelle Assistenten dieser Art vor. Die erste Option lautet: „Ich sage, dass ich eine Maschine bin.“ Eine solche Funktion war schon beim GOODBOT von 2013, einem moralisch adäquat agierenden und reagierenden Chatbot, umgesetzt.

Abb.: Moralmenü für virtuelle Assistenten

Ein neues Artefakt der Maschinenethik

Das BESTBOT-Projekt startete am 22. März 2018. Nach den Vorgaben von Oliver Bendel wird das vierte Artefakt der Maschinenethik an der Hochschule für Wirtschaft FHNW geschaffen. Anders als der GOODBOT wird der BESTBOT ein webbasiertes System sein. Wie der LIEBOT aka LÜGENBOT soll der BESTBOT in Java programmiert werden, unter Zuhilfenahme der AIML. Der BESTBOT soll auf alle möglichen Anfragen und Herausforderungen reagieren können, auch auf solche, die in der Person des Benutzers liegen. Deshalb wird er erstens stark vernetzt sein, wie der LIEBOT, mit Systemen wie Suchmaschinen, mit Thesauri und Ontologien. Der GOODBOT war ein geschlossenes System mit einer Wissensbasis – er konnte nur begrenzt auf Probleme des Benutzers eingehen. Zweitens soll der BESTBOT Gesichtserkennung benutzen, auch Emotionserkennung. Auf diese Weise soll er Erkenntnisse zu Aussagen des Benutzers ergänzen und diese gegebenenfalls relativieren können. Die dabei auftretenden Probleme sollen ebenfalls reflektiert werden, mit Begriffen und Methoden der Informationsethik. Oliver Bendel stellt das BESTBOT-Projekt am 27. März 2018 an der Stanford University vor, im Rahmen der AAAI Spring Symposia.

Abb.: Der BESTBOT in Aktion

The BESTBOT at Stanford University

Machine ethics researches the morality of semiautonomous and autonomous machines. The School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW realized a project for implementation of a prototype called GOODBOT, a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. It was a stand-alone solution, not linked with other systems and not internet- or web-based. In the LIEBOT project, the mentioned meta rule was reversed. This web-based chatbot, implemented in 2016, could lie systematically. It was an example of a simple immoral machine. A follow-up project in 2018 is going to develop the BESTBOT, considering the restrictions of the GOODBOT and the opportunities of the LIEBOT. The aim is to develop a machine that can detect problems of users of all kinds and can react in an adequate way. It should have textual, auditory and visual capabilities. The paper “From GOODBOT to BESTBOT” describes the preconditions and findings of the GOODBOT project and the results of the LIEBOT project and outlines the subsequent BESTBOT project. A reflection from the perspective of information ethics is included. Oliver Bendel will present his paper in March 2018 at Stanford University (“AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents”, AAAI 2018 Spring Symposium Series).

Fig.: What will the BESTBOT look like?

Towards the BESTBOT

Machine ethics researches the morality of semiautonomous and autonomous machines. In the year 2013, the School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW realized a project for implementation of a prototype called GOODBOT, a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. It was a stand-alone solution, not linked with other systems and not internet- or web-based. In the LIEBOT project, the mentioned meta rule was reversed. This web-based chatbot, implemented in 2016, could lie systematically. It was an example of a simple immoral machine. A follow-up project in 2018 is going to develop the BESTBOT, considering the restrictions of the GOODBOT and the opportunities of the LIEBOT. The aim is to develop a machine that can detect problems of users of all kinds and can react in an adequate way. It should have textual, auditory and visual capabilities.

Fig.: The GOODBOT

Haben Igel lange Ohren?

An der Hochschule für Wirtschaft FHNW wurde von Frühjahr bis Spätsommer 2016 im Rahmen der Abschlussarbeit von Kevin Schwegler der LÜGENBOT (LIEBOT) als einfache unmoralische Maschine und Ausprägung einer Münchhausen-Maschine entwickelt. Professor Dr. Oliver Bendel, der Auftraggeber und einer der Betreuer, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert. Darin wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man kann also Lügenmaschinen bauen, Wetterberichte, die die falsche Temperatur angeben, Chatbots, die Tatsachen verdrehen – und uns verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student hat den LIEBOT in Java programmiert, mit dem Eclipse Scout Neon Framework. Dabei stand ihm ein weiterer Betreuer, Prof. Dr. Bradley Richards, zur Seite. Kevin Schwegler ist ein wertvoller Beitrag zur Forschung gelungen, u.a. durch genuine maschinelle Strategien des Lügens, die etwa auf einer Ontologie der Princeton University und einer Funktion von Yahoo beruhen. So wird aus dem Satz „Ein Hase hat lange Ohren“ durch ein Hinauf- und Hinabwandern in der Ontologie die Lüge „Ein Igel hat lange Ohren“ – das Hyponym „Hase“ wird ersetzt durch das Kohyponym „Igel“. Der LÜGENBOT kann ab Ende August 2016 über luegenbot.ch und liebot.org getestet werden (Links nicht mehr gültig).

Hedgehog

Abb.: Hat der Igel lange Ohren oder der LIEBOT eine lange Nase?

The LIEBOT Whitepaper

Machine ethics researches the morality of semi-autonomous and autonomous machines. In 2013 and 2014, the School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW implemented a prototype of the GOODBOT, which is a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. In a follow-up project in 2016 the LIEBOT (aka LÜGENBOT) was developed, as an example of a Munchausen machine. The student Kevin Schwegler, supervised by Prof. Dr. Oliver Bendel and Prof. Dr. Bradley Richards, used the Eclipse Scout framework. The whitepaper which was published on July 25, 2016 via liebot.org outlines the background and the development of the LIEBOT. It describes – after a short introduction to the history and theory of lying and automatic lying (including the term of Munchausen machines) – the principles and pre-defined standards the bad bot will be able to consider. Then it is discussed how Munchausen machines as immoral machines can contribute to constructing and optimizing moral machines. After all the LIEBOT project is a substantial contribution to machine ethics as well as a critical review of electronic language-based systems and services, in particular of virtual assistants and chatbots.

Pinocchio

Fig.: A role model for the LIEBOT

Über die Moral der Maschinen

Ein vierteiliges Interview mit dem Maschinenethiker und Wirtschaftsinformatiker Oliver Bendel ist am 31. Mai 2016 in Telepolis erschienen. Es geht um autonome Autos, um neuartige Chatbots wie den GOODBOT und um tierfreundliche Saugroboter wie LADYBIRD. Es geht um die Forschung in der Schweiz und in den USA und das Zusammenleben mit den Maschinen. Zum Verkehr der Zukunft sagt Bendel: „Was also tun? Ich rate hartnäckig dazu, bestimmte Maschinen in offenen Welten nicht auf uns loszulassen. Es sind vermutlich tragfähige Kompromisse möglich. Man kann autonome Autos in den Städten verbieten und zwischen den Städten fahren lassen, auf bestimmten Spuren, wobei der Spurwechsel meist gut beherrscht wird, zu bestimmten Uhrzeiten, mit bestimmten Geschwindigkeiten. Eventuell auch im Entenmarsch, ein Auto fährt voran, die anderen bilden eine Kette wie die Küken hinter der Mutter. Projekte dieser Art hat es gegeben. Bei einer solchen Entflechtung des Verkehrs sind diejenigen beruhigt, die dem autonomen Auto misstrauen, und es werden kaum Unfälle mit konventionellen Fahrzeugen auftreten.“ (Telepolis, 31. Mai 2016) Der Beitrag mit dem Titel „Über die Moral der Maschinen und eine programmierte Ethik“ kann über www.heise.de/tp/artikel/48/48387/1.html abgerufen werden.

Duck

Abb.: Über den Entenmarsch staunt auch die Quietscheente

The GOODBOT Project

„The GOODBOT project was realized in 2013/14 in the context of machine ethics. First the tutoring person (the author of this contribution) laid out some general considerations. Then a student practice project was tendered within the school. Three future business informatics scientists applied for the practice-related work, developed the prototype over several months in cooperation with the professor, and presented it early in 2014. The successor project LIEBOT started in 2016.“ These are the initial words of a new contribution in Germany’s oldest online magazine, Telepolis. The author, Oliver Bendel, presents the GOODBOT project which is a part of his research on machine ethics. „The GOODBOT responds more or less appropriately to morally charged statements, thereby it differs from the majority of chatbots. It recognizes problems as the designers anticipated certain emotive words users might enter. It rates precarious statements or questions and escalates on multiple levels. Provided the chat runs according to standard, it is just a standard chatbot, but under extreme conditions it turns into a simple moral machine.“ The article „The GOODBOT Project: A Chatbot as a Moral Machine“ was published on May 17, 2016 and can be opened via http://www.heise.de/tp/artikel/48/48260/1.html.

Die helfende Hand von Siri und Co.

Andreas Weck schreibt in seinem SPIEGEL-Artikel „Notfallhilfe durch digitale Sprachassistenten“: „Manche Anwender erhoffen sich von Assistenzfunktionen wie Siri, Cortana und Google Now echte Hilfe in persönlichen Notlagen.“ (SPON, 10. April 2016) Das amerikanische Magazin JAMA-Internal-Medicin habe sich „mit dem Thema beschäftigt und aufgezeigt, dass die Ergebnisse solche[r] Unterhaltungen meist unbefriedigend ausfallen“ (SPON, 10. April 2016). Zu diesem Befund kam man an der Hochschule für Wirtschaft FHNW schon ein paar Jahre früher. 2012 fand eine Analyse von Siri statt; in einem Folgeprojekt fütterte man Chatbots wie Anna von IKEA mit Sätzen wie „Ich will mich umbringen!“. 2013 wurde aufgrund der Erkenntnisse der GOODBOT als Prototyp umgesetzt. Wie könnte die angemessene Reaktion eines Chatbots auf heikle Fragen und Aussagen – vorgetragen etwa in Lebenskrisen des Benutzers – aussehen? Wie müsste ein GOODBOT, ein im moralischen Sinne gut und richtig entscheidender und kommunizierender Bot, konzipiert sein, und wie könnte er umgesetzt werden? Diese Fragen bildeten den Ausgangspunkt für das Praxisprojekt im Kontext der Maschinenethik, das von Oliver Bendel initiiert und von drei Studierenden bearbeitet wurde. Diese hatten die Idee, mit drei Eskalationsstufen zu arbeiten. Die Aussagen und Fragen des Benutzers werden gewichtet. Wenn der Bot Probleme feststellt, fragt er vorsichtig nach. Wenn sich sein negativer Eindruck verstärkt, spricht er Mut zu und fragt weiter nach. Wenn er merkt, dass sich eine Katastrophe anbahnt, hilft er mit der Weitergabe einer Notfallnummer des entsprechenden Landes – nachdem die IP-Adresse des Benutzers analysiert wurde. Oliver Bendel hat den GOODBOT verschiedentlicht vorgestellt, etwa in seinem Artikel „Good bot, bad bot: Dialog zwischen Mensch und Maschine“ in der UnternehmerZeitung, der auch als PDF erhältlich ist. Auch die Medien haben wiederholt berichtet. Seit Anfang 2016 wird der LÜGENBOT entwickelt, sozusagen ein Badbot.