@llegra im Unterengadin

Seit März 2023 wird im Auftrag von Prof. Dr. Oliver Bendel der Chatbot @llegra für das rätoromanische Idiom Vallader entwickelt, das im Unterengadin zwischen Martina im Nordosten und Zernez im Südwesten sowie im Val Müstair auftritt und gefährdet ist. Der Entwickler Dalil Jabou hat auf das Sprachmodell GPT-4 gesetzt und alle wesentlichen technischen Probleme gelöst. Der Benutzer kann Text in Englisch, Deutsch oder Rätoromanisch eintippen und bekommt Text in Vallader ausgegeben. Zudem spricht @llegra das Idiom mit Hilfe eines Text-to-Speech-Systems der Firma SlowSoft aus Zürich. Ein kleiner Test mit einem Experten fand bereits statt und führte zu einer ersten Verbesserung. Oliver Bendel war am 9. Juli mit @llegra im Unterengadin unterwegs und suchte nach einer Testperson mit Vallader als Muttersprache. In Tarasp Fontana bei Scuol sprach er mehrere ältere Frauen an. Eine verwies auf eine Dame von vielleicht 78 Jahren, die sich in der Nähe befand und gerade vom Nordic Walking kam. Die Vallader-Sprecherin hörte sich die Antwort des Chatbots auf eine Frage zu Tarasp an und begann ungefragt, das Gesprochene ins Deutsche zu übersetzen. Dann wurde @llegra gefragt, ob sie Scuol kennt. Sie gab wiederum in Vallader eine längere Auskunft. Die ältere Dame bestätigte, dass die Aussprache gut und der Inhalt verständlich ist. Sie begann zu strahlen und fragte, ob es sich um künstliche Intelligenz handle. Oliver Bendel bestätigte dies, strahlte ebenfalls, fuhr weiter und ließ sich von @llegra in Scuol noch Informationen zum dortigen Museum d’Engiadina Bassa geben. Das Projekt wird im August 2023 abgeschlossen. Die Ergebnisse werden danach veröffentlicht.

Abb.: Das Steinbockmädchen @llegra

Conversational Agents aus ethischer Sicht

„Conversational Agents (CAs) sind computerbasierte Dialogsysteme mit natürlichsprachlichen Fähigkeiten. Verwenden beide Seiten die Textform, liegen üblicherweise Chatbots oder Social Bots vor. Manche von diesen besitzen Sprachausgabe, wie Cor@ von der Deutschen Bank um die Jahrtausendwende. Nutzen beide Seiten gesprochene Sprache, handelt es sich üblicherweise um Sprachassistenten (auch Voice Assistants oder Voicebots genannt), die auf Smartphones, in Smartspeakers oder in Anwendungen des Smart Home vorkommen. Bekannte Beispiele sind Google Assistant, Siri und Alexa. Chatbots und Sprachassistenten kann man wiederum mit Avataren ergänzen oder in soziale Roboter wie Pepper oder NAO bzw. in Serviceroboter oder Industrieroboter integrieren …“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Prof. Dr. Oliver Bendel aus Zürich. In einem zweiten Abschnitt wird auf Entwicklung und Merkmale eingegangen, in einem dritten die ethische Perspektive eingenommen. Der Beitrag ist am 18. April 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/conversational-agent-125248 aufgerufen werden.

Abb.: Ein von DALL-E generierter Avatar

Vom GOODBOT bis zu @ve

Seit 2012 sind auf Initiative von Oliver Bendel 21 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik entstanden, die eine Idee veranschaulichen oder die Umsetzung verdeutlichen sollen. Darunter sind Conversational Agents wie GOODBOT, LIEBOT, BESTBOT und SPACE THEA, die auf Konferenzen, in Journals und in den Medien vorgestellt wurden, und tierfreundliche Maschinen wie LADYBIRD und HAPPY HEDGEHOG, die in Büchern wie „Die Grundfragen der Maschinenethik“ von Catrin Misselhorn und auf indischen, chinesischen und amerikanischen Plattformen behandelt wurden. Die letzten Entwicklungen waren ein Konzept von Ali Yürekkirmaz für ein System mit Gesichtserkennung zur Identifizierung von Bären, das von den Teilnehmern der ACI 2022 in Newcastle upon Tyne diskutiert wurde, und das CARE-MOME, präsentiert von Oliver Bendel und Marc Heimann auf der ICSR 2022 in Florenz. Beide Proceedings erscheinen Anfang 2023. In den nächsten Tagen wird das Projekt mit @ve beendet, einem auf GPT-3 basierenden Chatbot für Latein. Man kann mit ihr in dieser toten Sprache plaudern, die dann ganz lebendig erscheint, und ihr auf Deutsch verschiedene Fragen, etwa zur Grammatik, stellen. Der Entwickler Karim N’diaye stellt das Projekt am 19. Januar 2023 an der Hochschule für Wirtschaft FHNW in kleiner Runde vor. In weiteren Projekten will man sich ausgestorbenen und gefährdeten Sprachen widmen. Eine aktualisierte Übersicht zu allen Artefakten ist auf informationsethik.net und maschinenethik.net zu finden.

Abb.: Die aktualisierte Übersicht zu den Artefakten

Blatio ergo sum

Latein wird an vielen Schulen und Hochschulen gelehrt und immer noch für das eine oder andere Studium – etwa der Philosophie – vorausgesetzt oder gewünscht. Jahrhundertelang hat es an vergnüglichen Möglichkeiten gemangelt, die Sprache zu erlernen und anzuwenden. Allenfalls Asterix-Comics brachten etwas Abwechslung ins von Caesar und Co. beherrschte Gebiet. Prof. Dr. Oliver Bendel hat an der Hochschule für Wirtschaft FHNW einen Chatbot in Auftrag gegeben, der sich auf Lateinisch unterhalten kann, und ihm den Namen @ve gegeben. Karim N’diaye bereitet seit September 2022 die Umsetzung vor, die dann ab Mitte November 2022 – nach der Zwischenpräsentation – erfolgt. Prof. Dr. Bradley Richards betreut das Projekt in technischer Hinsicht. Nach einer Evaluation hat sich gezeigt, dass sich Quickchat (www.quickchat.ai) als Plattform eignet. Damit basiert der Chatbot auf GPT-3. Durch eine händisch erstellte Wissensbasis kann er noch spezifischer für Latein trainiert werden und auch präzisere Antworten zu grammatikalischen Fragen liefern. Außerdem ist Zweisprachigkeit, also Deutsch und Lateinisch, möglich. Bis Ende des Jahres soll @ve als Prototyp vorliegen. Wie bei allen Projekten zu Chatbots und Sprachassistenten, die Oliver Bendel initiiert, können die Ergebnisse frei verwendet werden.

Abb.: Ein Chat mit Kuki

Wieviel Gewalt verträgt die Virtualität?

„Obszöne Übergriffe auf sogenannte Chatbots befeuern die Diskussion darüber, welche Regeln und Grenzen für die Nutzung gelten sollen. In der Netzkultur blickt Emily Thomey auf die Debatte über künstliche Intelligenz und unseren Umgang mit ihr.“ (Website WDR 5 Scala) Mit diesen Worten wird in eine Sendung bei WDR 5 Scala (Netzkultur) am 18. März 2022 eingeführt. Zu Wort kommt Oliver Bendel, der sich in seiner Forschung seit der Jahrtausendwende mit Conversational Agents und seit vielen Jahren auch mit Beziehungen zu Artefakten – vor allem zu Robotern – beschäftigt. Er sieht Unterschiede zwischen Phantasie, Fiktionalität, Virtualität und Realität. In der Virtualität – in Spielewelten und in Unterhaltungen mit Chatbots und Sprachassistenten – müssen nach seiner Meinung auch grenzwertige Rollenspiele erlaubt sein. Problematisch wird es, wenn der Benutzer die Akte und Sprechakte in die Realität bringt und sich z.B. vor Freunden damit brüstet, eine digitale Frau erniedrigt zu haben. Auch die Einübung von Praktiken an Liebespuppen und Sexrobotern kann seiner Ansicht nach problematisch sein. Die Sendung mit dem Titel „Ethikdebatte im Umgang mit Chatbots“ kann über www1.wdr.de abgerufen werden.

Abb.: Auch in Fortnite gibt es Gewalt

Ethics of Conversational User Interfaces

The Ethics of Conversational User Interfaces workshop at the ACM CHI 2022 conference „will consolidate ethics-related research of the past and set the agenda for future CUI research on ethics going forward“. „This builds on previous CUI workshops exploring theories and methods, grand challenges and future design perspectives, and collaborative interactions.“ (CfP CUI)  From the Call for Papers: „In what ways can we advance our research on conversational user interfaces (CUIs) by including considerations on ethics? As CUIs, like Amazon Alexa or chatbots, become commonplace, discussions on how they can be designed in an ethical manner or how they change our views on ethics of technology should be topics we engage with as a community.“ (CfP CUI) Paper submission deadline is 24 February 2022. The workshop is scheduled to take place in New Orleans on 21 April 2022. More information is available via www.conversationaluserinterfaces.org/workshops/CHI2022/.

Fig.: Machine ethics also develops conversational agents

Hey Replika, You Bitch!

Breitband (DLF Kultur) hat sich mit Oliver Bendel über Chatbots unterhalten, mit denen man Beziehungen führen und Phantasien ausleben kann. Der Informations- und Maschinenethiker stellte zunächst grundsätzlich fest, dass man sich mit Chatbots und Sprachassistenten anders unterhält als mit Menschen. Man schreibt oder spricht einfacher, kürzer – und obszöner. Mit Replika kann man über generelle und persönliche Angelegenheiten sprechen – und auch Phantasien im Virtuellen ausleben. Normalerweise bleibt es dabei. Dennoch gibt es, so der Ethiker aus Zürich, durchaus Effekte im Realen. Denn wenn man mit Replika in obszöner Weise chattet, reagiert man darauf, ist erregt, erheitert etc. Es stellen sich also körperliche und geistige Reaktionen ein. Grundsätzlich trainiert man auch ein bestimmtes Verhalten, entwickelt bestimmte Methoden und Strategien im Sprachlichen. Die meisten Benutzer dürften zwischen Virtualität und Realität unterscheiden können. Sobald sie auf einen echten Menschen treffen, passen sie sich an. Aber es kann durchaus sein, dass Einzelne bewusst oder unbewusst das Erlernte ausprobieren. Allgemeine Chatbots, die der Unterhaltung dienen, sollte man durchaus begrenzen, so der Informations- und Maschinenethiker. Man kann ihnen etwa eine Persönlichkeit geben, mit deren Hilfe u.a. Übergriffe zurückgewiesen werden. Das fängt schon damit an, dass Replika es nicht gut finden muss, wenn man sie Bitch nennt. Der Beitrag „Alles nur ein Spiel?“ wird am 29. Januar 2022 um 13.05 Uhr ausgestrahlt. Weitere Informationen über www.deutschlandfunkkultur.de/programm.

Abb.: Replika könnte sich schützen und wehren

SPACE THEA’s Desire for Mars

SPACE THEA was developd by Martin Spathelf at the School of Business FHNW from April to August 2021. The client and supervisor was Prof. Dr. Oliver Bendel. The voice assistant is supposed to show empathy and emotions towards astronauts on a Mars flight. Technically, it is based on Google Assistant and Dialogflow. The programmer chose a female voice with Canadian English. SPACE THEA’s personality includes functional and emotional intelligence, honesty, and creativity. She follows a moral principle: to maximize the benefit of the passengers of the spacecraft. The prototype was implemented for the following scenarios: conduct general conversations; help the user find a light switch; assist the astronaut when a thruster fails; greet and cheer up in the morning; fend off an insult for no reason; stand by a lonely astronaut; learn about the voice assistant. A video on the latter scenario is available here. Oliver Bendel has been researching conversational agents for 20 years. With his teams, he has developed 20 concepts and artifacts of machine ethics and social robotics since 2012.

Fig.: The red planet

Trustworthy Conversational Agents

In the fall of 2021, a five-day workshop on trustworthy conversational agents will be held at Schloss Dagstuhl. Prof. Dr. Oliver Bendel is among the invited participants. According to the website, Schloss Dagstuhl – Leibniz Center for Informatics pursues its mission of furthering world class research in computer science by facilitating communication and interaction between researchers. Oliver Bendel and his teams have developed several chatbots in the context of machine ethics since 2013, which were presented at conferences at Stanford University and Jagiellonian University and received international attention. Since the beginning of 2020, he has been preparing to develop several voice assistants that can show empathy and emotion. „Schloss Dagstuhl was founded in 1990 and quickly became established as one of the world’s premier meeting centers for informatics research. Since the very first days of Schloss Dagstuhl, the seminar and workshop meeting program has always been the focus of its programmatic work. In recent years, Schloss Dagstuhl has expanded its operation and also has significant efforts underway in bibliographic services … and in open access publishing.“ (Website Schloss Dagstuhl)

Fig.: Is this voicebot trustworthy?

Conversational Agents in Amsterdam

CONVERSATIONS 201 is a full-day workshop on chatbot research. It will take place on November 19, 2019 at the University of Amsterdam. From the description: „Chatbots are conversational agents which allow the user access to information and services though natural language dialogue, through text or voice. … Research is crucial in helping realize the potential of chatbots as a means of help and support, information and entertainment, social interaction and relationships. The CONVERSATIONS workshop contributes to this endeavour by providing a cross-disciplinary arena for knowledge exchange by researchers with an interest in chatbots.“ The topics of interest that may be explored in the papers and at the workshop include humanlike chatbots, networks of users and chatbots, trustworthy chatbot design and privacy and ethical issues in chatbot design and implementation. The submission deadline for CONVERSATIONS 2019 was extended to September 10. More information via conversations2019.wordpress.com/.

Fig.: A normal agent

Chatbots as Moral and Immoral Machines

The papers of the CHI 2019 workshop „Conversational Agents: Acting on the Wave of Research and Development“ (Glasgow, 5 May 2019) are now listed on convagents.org. The extended abstract by Oliver Bendel (School of Business FHNW) entitled „Chatbots as Moral and Immoral Machines“ can be downloaded here. The workshop brought together experts from all over the world who are working on the basics of chatbots and voicebots and are implementing them in different ways. Companies such as Microsoft, Mozilla and Salesforce were also present. Approximately 40 extended abstracts were submitted. On 6 May, a bagpipe player opened the four-day conference following the 35 workshops. Dr. Aleks Krotoski, Pillowfort Productions, gave the first keynote. One of the paper sessions in the morning was dedicated to the topic „Values and Design“. All in all, both classical specific fields of applied ethics and the young discipline of machine ethics were represented at the conference. More information via chi2019.acm.org.

CHI Workshop on Conversational Agents

„In the last five years, work on software that interacts with people via typed or spoken natural language, called chatbots, intelligent assistants, social bots, virtual companions, non-human players, and so on, increased dramatically. Chatbots burst into prominence in 2016. Then came a wave of research, more development, and some use. The time is right to assess what we have learned from endeavoring to build conversational user interfaces that simulate quasi-human partners engaged in real conversations with real people.“ (Website Conversational Agents) The CHI 2019 workshop „Conversational Agents: Acting on the Wave of Research and Development“ (Glasgow, 5 May) brings together people „who developed or studied various conversational agents, to explore themes that include what works (and hasn’t) in home, education, healthcare, and work settings, what we have learned from this about people and their activities, and social or ethical possibilities for good or risk“ (Website Conversational Agents). Oliver Bendel will present three chatbots developed between 2013 and 2018 in the discipline of machine ethics, GOODBOT, LIEBOT and BESTBOT. More information via convagents.org (Link nicht mehr gültig).

Fig.: The BESTBOT will be presented