Since 2013, Oliver Bendel has developed 22 chatbots and voice assistants together with his students or colleagues. They can be divided into three categories. The first are moral and immoral chatbots (i.e., forms of moral machines) and empathic voice assistants. The second are chatbots (some with voice output) for dead, endangered, or extinct languages and idioms. The third are pedagogical chatbots and chatbots that give recommendations and advice. Some of the projects lasted between four and six months. Most of the GPTs were created in just a few hours. Exceptions are Miss Tammy and Animal Whisperer, which took several months to build with the help of prompt engineering and retrieval-augmented generation (RAG). Articles and book chapters have been published on many of the projects. The names of the developers can be found in these. A few chatbots made it into the media, such as GOODBOT (for which the preparatory work began in 2012), LÜGENBOT aka LIEBOT, and @llegra.
Am Abend des 18. Oktober 2024 waren ZDF-Moderatorin Jasmina Neudecker und Prof. Dr. Oliver Bendel zu Gast im KörberHaus in Hamburg Bergedorf. Eingeladen hatte sie die Körber-Stiftung. Auf der Bühne sprachen sie über Beziehungen zu Chatbots, Sprachassistenten und sozialen Robotern. Oliver Bendel umgibt sich mit sozialen Robotern aller Art und erforscht sie aus technikphilosophischer, ethischer, ästhetischer und ontologischer Perspektive. Er entwickelt zusammen mit seinen Studenten und Studentinnen seit 2012 Chatbots und Sprachassistenten und pflanzt ihnen moralische Regeln ein. Zur Freundschaft hält er all diese Systeme nicht fähig. Dennoch können sie in bestimmten Situationen helfen, etwa wenn man sich einsam fühlt. Auch können sie, wie im Gespräch herausgearbeitet wurde, als Türöffner dienen. Nur müsse man, so Oliver Bendel, dann auch durch diese Tür treten. Und dort warten hoffentlich Menschen, mit denen man eine echte Freundschaft pflegen kann. Den Vortrag verfolgten zahlreiche Gäste vor Ort, zudem viele Benutzer im Livestream. Es gab so viele Fragen, dass überzogen werden musste. Beim gemeinsamen Umtrunk ging der Austausch dann weiter. Das Gespräch kann in der Mediathek der Körber-Stiftung aufgerufen werden.
In der c’t 11/2023 ist der Artikel „Virtuelle Freunde? KI-Chatbots leisten Gesellschaft und wecken einseitige Gefühle“ erschienen. Arne Grävemeyer geht auf fünf Seiten auf das Thema ein. Befragt hat er dazu Prof. Dr. Oliver Bendel. Eine Frage war, ob solche Programme und Figuren – die Emotionen zeigen (ohne sie zu haben) und hervorrufen – sich als solche offenbaren sollten. Seine Antwort: „Aus ethischer Sicht würde ich das fordern. Man sollte wissen, ob man mit Menschen oder Maschinen kommuniziert. Unsere eigenen Emotionen sind ein wertvolles Gut. Wir entwickeln sie fast automatisch, wenn wir auf menschenähnliche Entitäten stoßen. Wir haben aber die Möglichkeit, die Emotionen zu begrenzen, wenn wir wissen, dass es sich um Programme und Maschinen handelt. Dazu gehört, dass wir diese abstellen und nicht ständig an sie denken, wenn sie nicht bei uns sind. Auch unsere Zeit ist ein kostbares Gut. Wir sollten selbst entscheiden, mit wem oder was wir sie verbringen.“ (c’t, 11/2023) Insgesamt wurden schriftlich und telefonisch etliche Fragen gestellt. Einige Antworten sind in den Artikel eingeflossen, der seit 5. Mai 2023 erhältlich ist.
„Manche Menschen gehen bereits romantische Beziehungen mit Chatbots ein. Künstliche Intelligenz simuliert Zuneigung und Trost. Kann man Gefühle einfach so programmieren?“ (Tagesspiegel, 3. Mai 2023) Dies fragt Max Tholl in einem Essay mit dem Titel „Wenn die KI den Partner ersetzt: Können Maschinen uns lieben?“ vom 3. Mai 2023. Zu Wort kommt mehrmals Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert über Chatbots, Sprachassistenten und soziale Roboter schreibt und forscht. Er nähert sich dem Gegenstand mit einem Rückblick: „Innige Beziehungen zwischen Menschen und künstlichen Kreaturen haben eine lange Tradition in der Ideengeschichte, sagt der Philosoph und Wirtschaftsinformatiker Oliver Bendel. Sie finden sich schon in den mythologischen Erzählungen von Homer oder Ovid, später dann als Motiv in Science-Fiction-Geschichten.“ (Tagesspiegel, 3. Mai 2023) Der ganze Beitrag ist im Tagesspiegel hinter der Bezahlschranke zu finden und wird auch noch in der gedruckten Ausgabe erscheinen.
„Conversational Agents (CAs) sind computerbasierte Dialogsysteme mit natürlichsprachlichen Fähigkeiten. Verwenden beide Seiten die Textform, liegen üblicherweise Chatbots oder Social Bots vor. Manche von diesen besitzen Sprachausgabe, wie Cor@ von der Deutschen Bank um die Jahrtausendwende. Nutzen beide Seiten gesprochene Sprache, handelt es sich üblicherweise um Sprachassistenten (auch Voice Assistants oder Voicebots genannt), die auf Smartphones, in Smartspeakers oder in Anwendungen des Smart Home vorkommen. Bekannte Beispiele sind Google Assistant, Siri und Alexa. Chatbots und Sprachassistenten kann man wiederum mit Avataren ergänzen oder in soziale Roboter wie Pepper oder NAO bzw. in Serviceroboter oder Industrieroboter integrieren …“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Prof. Dr. Oliver Bendel aus Zürich. In einem zweiten Abschnitt wird auf Entwicklung und Merkmale eingegangen, in einem dritten die ethische Perspektive eingenommen. Der Beitrag ist am 18. April 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/conversational-agent-125248 aufgerufen werden.
Chatbots stehen auf Websites von Unternehmen bereit, um über Produkte und Dienstleistungen zu informieren. Einige dienen auch einfach der Unterhaltung und Entspannung. Kuki (früher Mitsuku) und Replika lernen dazu und erinnern sich an Aussagen der Benutzer. Manche Benutzer wenden den Chatbots und Sprachassistenten gegenüber verbale Gewalt an. Dies kann innerhalb von Rollenspielen passieren und als Ventil funktionieren. Man verbleibt innerhalb der Virtualität. Fragwürdig ist es, wenn die Realität in der Weise einbezogen wird, dass sich die Benutzer vor Freunden mit ihren Taten brüsten und sich ihr Verhalten in ihren Beziehungen verändert. Was die Beziehungen zu den Chatbots und Sprachassistenten anbetrifft, muss beachtet werden, dass sie einseitig sind. Die Softwareroboter zeigen Emotionen und Empathie, aber sie haben sie nicht. Sie scheinen sich für ihr Gegenüber zu interessieren, aber in Wirklichkeit ist da nichts, was sich interessieren könnte. Natürlich ist es wichtig, die Phantasie in der Realität wachzuhalten, und dies kann über Fiktionalität und Virtualität geschehen. Problematisch wird es jedoch, wenn dauerhaft die Grenzen verschwimmen und man den Chatbot oder Sprachassistenten für einen ernstzunehmenden Partner hält. Der österreichische Standard hat Oliver Bendel zu dieser Thematik interviewt. Der Beitrag von Jakob Pallinger ist am 15. April 2022 in der Printausgabe erschienen („Meine Freundin, der Roboter“), am 17. April in der Onlineversion („Warum immer mehr Menschen künstliche Freunde und Partner haben“).
Abb.: Meine Freundin, der Chatbot, taucht gleich auf
„Obszöne Übergriffe auf sogenannte Chatbots befeuern die Diskussion darüber, welche Regeln und Grenzen für die Nutzung gelten sollen. In der Netzkultur blickt Emily Thomey auf die Debatte über künstliche Intelligenz und unseren Umgang mit ihr.“ (Website WDR 5 Scala) Mit diesen Worten wird in eine Sendung bei WDR 5 Scala (Netzkultur) am 18. März 2022 eingeführt. Zu Wort kommt Oliver Bendel, der sich in seiner Forschung seit der Jahrtausendwende mit Conversational Agents und seit vielen Jahren auch mit Beziehungen zu Artefakten – vor allem zu Robotern – beschäftigt. Er sieht Unterschiede zwischen Phantasie, Fiktionalität, Virtualität und Realität. In der Virtualität – in Spielewelten und in Unterhaltungen mit Chatbots und Sprachassistenten – müssen nach seiner Meinung auch grenzwertige Rollenspiele erlaubt sein. Problematisch wird es, wenn der Benutzer die Akte und Sprechakte in die Realität bringt und sich z.B. vor Freunden damit brüstet, eine digitale Frau erniedrigt zu haben. Auch die Einübung von Praktiken an Liebespuppen und Sexrobotern kann seiner Ansicht nach problematisch sein. Die Sendung mit dem Titel „Ethikdebatte im Umgang mit Chatbots“ kann über www1.wdr.de abgerufen werden.
The Ethics of Conversational User Interfaces workshop at the ACM CHI 2022 conference „will consolidate ethics-related research of the past and set the agenda for future CUI research on ethics going forward“. „This builds on previous CUI workshops exploring theories and methods, grand challenges and future design perspectives, and collaborative interactions.“ (CfP CUI) From the Call for Papers: „In what ways can we advance our research on conversational user interfaces (CUIs) by including considerations on ethics? As CUIs, like Amazon Alexa or chatbots, become commonplace, discussions on how they can be designed in an ethical manner or how they change our views on ethics of technology should be topics we engage with as a community.“ (CfP CUI) Paper submission deadline is 24 February 2022. The workshop is scheduled to take place in New Orleans on 21 April 2022. More information is available via www.conversationaluserinterfaces.org/workshops/CHI2022/.
Fig.: Machine ethics also develops conversational agents
Breitband (DLF Kultur) hat sich mit Oliver Bendel über Chatbots unterhalten, mit denen man Beziehungen führen und Phantasien ausleben kann. Der Informations- und Maschinenethiker stellte zunächst grundsätzlich fest, dass man sich mit Chatbots und Sprachassistenten anders unterhält als mit Menschen. Man schreibt oder spricht einfacher, kürzer – und obszöner. Mit Replika kann man über generelle und persönliche Angelegenheiten sprechen – und auch Phantasien im Virtuellen ausleben. Normalerweise bleibt es dabei. Dennoch gibt es, so der Ethiker aus Zürich, durchaus Effekte im Realen. Denn wenn man mit Replika in obszöner Weise chattet, reagiert man darauf, ist erregt, erheitert etc. Es stellen sich also körperliche und geistige Reaktionen ein. Grundsätzlich trainiert man auch ein bestimmtes Verhalten, entwickelt bestimmte Methoden und Strategien im Sprachlichen. Die meisten Benutzer dürften zwischen Virtualität und Realität unterscheiden können. Sobald sie auf einen echten Menschen treffen, passen sie sich an. Aber es kann durchaus sein, dass Einzelne bewusst oder unbewusst das Erlernte ausprobieren. Allgemeine Chatbots, die der Unterhaltung dienen, sollte man durchaus begrenzen, so der Informations- und Maschinenethiker. Man kann ihnen etwa eine Persönlichkeit geben, mit deren Hilfe u.a. Übergriffe zurückgewiesen werden. Das fängt schon damit an, dass Replika es nicht gut finden muss, wenn man sie Bitch nennt. Der Beitrag „Alles nur ein Spiel?“ wird am 29. Januar 2022 um 13.05 Uhr ausgestrahlt. Weitere Informationen über www.deutschlandfunkkultur.de/programm.
In the fall of 2021, a five-day workshop on trustworthy conversational agents will be held at Schloss Dagstuhl. Prof. Dr. Oliver Bendel is among the invited participants. According to the website, Schloss Dagstuhl – Leibniz Center for Informatics pursues its mission of furthering world class research in computer science by facilitating communication and interaction between researchers. Oliver Bendel and his teams have developed several chatbots in the context of machine ethics since 2013, which were presented at conferences at Stanford University and Jagiellonian University and received international attention. Since the beginning of 2020, he has been preparing to develop several voice assistants that can show empathy and emotion. „Schloss Dagstuhl was founded in 1990 and quickly became established as one of the world’s premier meeting centers for informatics research. Since the very first days of Schloss Dagstuhl, the seminar and workshop meeting program has always been the focus of its programmatic work. In recent years, Schloss Dagstuhl has expanded its operation and also has significant efforts underway in bibliographic services … and in open access publishing.“ (Website Schloss Dagstuhl)
CONVERSATIONS 201 is a full-day workshop on chatbot research. It will take place on November 19, 2019 at the University of Amsterdam. From the description: „Chatbots are conversational agents which allow the user access to information and services though natural language dialogue, through text or voice. … Research is crucial in helping realize the potential of chatbots as a means of help and support, information and entertainment, social interaction and relationships. The CONVERSATIONS workshop contributes to this endeavour by providing a cross-disciplinary arena for knowledge exchange by researchers with an interest in chatbots.“ The topics of interest that may be explored in the papers and at the workshop include humanlike chatbots, networks of users and chatbots, trustworthy chatbot design and privacy and ethical issues in chatbot design and implementation. The submission deadline for CONVERSATIONS 2019 was extended to September 10. More information via conversations2019.wordpress.com/.
The papers of the CHI 2019 workshop „Conversational Agents: Acting on the Wave of Research and Development“ (Glasgow, 5 May 2019) are now listed on convagents.org. The extended abstract by Oliver Bendel (School of Business FHNW) entitled „Chatbots as Moral and Immoral Machines“ can be downloaded here. The workshop brought together experts from all over the world who are working on the basics of chatbots and voicebots and are implementing them in different ways. Companies such as Microsoft, Mozilla and Salesforce were also present. Approximately 40 extended abstracts were submitted. On 6 May, a bagpipe player opened the four-day conference following the 35 workshops. Dr. Aleks Krotoski, Pillowfort Productions, gave the first keynote. One of the paper sessions in the morning was dedicated to the topic „Values and Design“. All in all, both classical specific fields of applied ethics and the young discipline of machine ethics were represented at the conference. More information via chi2019.acm.org.
Eine Vorabveröffentlichung des Artikels „Einfache moralische Maschinen“ von Oliver Bendel bringt der Blog des Instituts für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW. Moralische Maschinen sind nach der Meinung des Philosophen und Wirtschaftsinformatikers bereits heute möglich. Man dürfe sie nur nicht zu kompliziert denken und zu komplex gestalten. Wenn es sich um spezialisierte autonome oder teilautonome Systeme handele, könne man bei ihren Kernfunktionen ansetzen und sie mit geringfügigen Änderungen, mit wenigen zusätzlichen Komponenten in einfache moralische Maschinen verwandeln. Wie das geschehen kann, wird an vier Beispielen gezeigt, an Servicerobotern, privaten Drohnen, Chatbots und selbstständig fahrenden Autos. Der Artikel erscheint im August 2013 auf der Plattform KMU Business World.
Abb.: Daraus kann man keine moralische Maschine machen