Adrian Lobe hat Oliver Bendel die Frage gestellt, ob man gegenüber Chatbots nett und höflich sein sollte. Der Technikphilosoph und Wirtschaftsinformatiker führte aus, dass Höflichkeit bei Chatbots, die auf LLMs basieren, zu besseren Antworten führen kann, ebenso wie die Behauptung, dass man das Ergebnis für eine gute Sache oder wissenschaftliche Zwecke benötigt. Es sei effektiv, zu Chatbots und Sprachassistenten „danke“ und „bitte“ zu sagen. Zudem wies er darauf hin, dass wir bestimmte Routinen und Konventionen in Gesprächen haben. Es sei durchaus sinnvoll, diese auch dann beizubehalten, wenn es sich um künstliche Gesprächspartner handele. Es sei effizient und konsistent, zu Chatbots und Sprachassistenten „danke“ oder „bitte“ zu sagen. Ich muss, so Oliver Bendel, nicht hin und her wechseln, ich kann das Gespräch wie mit einem Menschen führen. Man tauschte sich noch zu weiteren Aspekten der Höflichkeit gegenüber Chatbots aus. Einzelne Aussagen sind in den Artikel „Warum man unbedingt nett zu Chatbots sein sollte“ eingeflossen, der am 8. November 2024 in der Onlineausgabe der Welt erschienen ist.
Tobias Buess, Yvo Keller und Alexander Shanmugam haben im Herbstsemester 2023 Data entwickelt, einen Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW. Betreuer waren Fernando Benites, ein Computerlinguist, und Oliver Bendel, ein Maschinenethiker. Der Chatbot kann Fragen zum Studiengang beantworten und mit Hilfe seiner künstlichen Moral auf die Sorgen und Bedürfnisse der Benutzer eingehen. Dem Chatbot stehen folgende Informationen aus dem Studiengang zur Verfügung: Spaces-Inhalte (Spaces ist die In-formations- und Kommunikationsplattform des Studiengangs), Handbuch, Ausbildungskonzept, Modulübersicht und Studienreglement. Als Sprachmodell wurde u.a. Mistral 7B genutzt. Fernando Benites gehört – wie seine frühere Hochschule festgestellt hat – „zu den Besten seines Fachs“. Oliver Bendel erfand 2012 den GOODBOT, einen regelbasierten Chatbot, der dann 2013 von drei Studenten der Hochschule für Wirtschaft FHNW implementiert wurde. Er konnte Probleme des Benutzers erkennen und auf mehreren Stufen eskalieren, bis hin zur Herausgabe einer Notfallnummer. Tobias Buess, Yvo Keller und Alexander Shanmugam haben diese Idee aufgegriffen. Wenn der Benutzer sich als labil erweist, wird er von Data an die Psychologische Beratungsstelle FHNW oder an Die Dargebotene Hand verwiesen. Der Chatbot ist ein Prototyp und wird im Moment von Studierenden getestet. Die Abschlusspräsentation des Teams findet am 26. Januar 2024 statt.
Abb.: Data ist eine moralische Maschine (Bild: DALL-E 3)
Im Jahre 2022 wurde das Projekt @ve durchgeführt. Der Chatbot läuft auf der Website www.ave-bot.ch und auf Telegram. Er basiert auf GPT-3.0 von OpenAI, also auf einer älteren Version des Sprachmodells. Initiiert hat das Projekt Prof. Dr. Oliver Bendel, der sich verstärkt toten, ausgestorbenen und gefährdeten Sprachen widmet. Entwickelt wurde @ve von Karim N’diaye, der an der Hochschule für Wirtschaft FHNW Wirtschaftsinformatik studiert hat. Man kann sich mit ihr auf Lateinisch unterhalten, also in einer toten Sprache, die dadurch gewissermaßen lebendig wird, und ihr Fragen zur Grammatik stellen. Getestet wurde sie von einer einschlägigen Expertin. Ein Nutzen besteht laut Karim N’diaye darin, dass man rund um die Uhr auf Latein kommunizieren kann und dabei überlegen muss, was und wie man schreibt. Eine Gefahr sei, dass immer wieder Fehler in den Antworten enthalten sind. So ist zuweilen die Wortreihenfolge nicht korrekt. Zudem kann es sein, dass der Sinn verdreht wird. Dies kann bei einem menschlichen Lehrer freilich auch passieren, und der Lernende sollte in jedem Falle wachsam sein und nach Fehlern suchen. Ohne Zweifel ist @ve ein Tool, das mit Gewinn in den Lateinunterricht integriert werden kann. Dort können die Schüler berichten, was sie mit ihr zu Hause erlebt haben, und sie können mit ihr vor Ort alleine oder in der Gruppe, vom Lehrer begleitet, einen Schwatz halten. Seit Ende November 2023 liegt ein Working Paper mit dem Titel „@ve: A Chatbot for Latin“ vor. Es wurde bereits im Sommer verfasst. Der Chatbot läuft voraussichtlich noch bis Ende des Jahres.
Abb.: Mit @ve kann man auf Latein plaudern (Bild: Ideogram)
On November 6, 2023, OpenAI made so-called GPTs available to ChatGPT Plus users. According to the US company, anyone can easily create his or her own GPT without any programming knowledge. Initial tests have shown the performance of the new function. ChatGPT suggests a name for the chatbot, creates the profile picture and accepts documents with text and reference lists to expand its knowledge of the topic. The function is ideal for creating your own learning companions, modern educational agents so to speak. But you can also benefit from chatbots from other users and providers. A GPT called Social Robotics Girl, which provides information about social robotics, has been available since November 12, 2023. It was created by Prof. Dr. Oliver Bendel and is based on a collection of his articles on this topic. It can therefore give his definition of social robots and make classifications based on his five-dimension model. ChatGPT Plus users can access Social Robotics Girl via chat.openai.com/g/g-TbhZSZaer-social-robotics-girl.
Fig.: A young man with a chatbot (Image: DALL-E 3)
Die Maschinenethik widmet sich maschineller oder künstlicher Moral bzw. moralischen Maschinen. Üblicherweise werden moralische Regeln in Maschinen gepflanzt, an die sich diese strikt halten. Seit einiger Zeit verwendet man auch Machine Learning, etwa im Kontext der Pflege. Die Maschine lernt aus ihren Erfahrungen bzw. aus den Daten und passt ihr Verhalten an. Unter dem Begriff der Constitutional AI erhält diese Richtung nun Auftrieb. Im Vordergrund stehen Sprachmodelle wie GPT-3 und GPT-4, die mit Leitlinien, Richtlinien und Gesetzen trainiert werden. An der Hochschule für Wirtschaft FHNW beginnt am 19. September 2023 das Projekt „CAIBOT: Der Chatbot, der auf Constitutional AI beruht“. Initiiert hat es Prof. Dr. Oliver Bendel, der seit vielen Jahren im Bereich der Maschinenethik forscht und mit seinen wechselnden Teams zahlreiche Prototypen gebaut hat. Für das Projekt konnte Cédric Wespi gewonnen werden. Er wird im Rahmen seiner Abschlussarbeit Grundlagen zu Constitutional AI erarbeiten und den CAIBOT prototypisch implementieren. Die Ergebnisse werden im Januar 2024 präsentiert.
Seit März 2023 wird im Auftrag von Prof. Dr. Oliver Bendel der Chatbot @llegra für das rätoromanische Idiom Vallader entwickelt, das im Unterengadin zwischen Martina im Nordosten und Zernez im Südwesten sowie im Val Müstair auftritt und gefährdet ist. Der Entwickler Dalil Jabou hat auf das Sprachmodell GPT-4 gesetzt und alle wesentlichen technischen Probleme gelöst. Der Benutzer kann Text in Englisch, Deutsch oder Rätoromanisch eintippen und bekommt Text in Vallader ausgegeben. Zudem spricht @llegra das Idiom mit Hilfe eines Text-to-Speech-Systems der Firma SlowSoft aus Zürich. Ein kleiner Test mit einem Experten fand bereits statt und führte zu einer ersten Verbesserung. Oliver Bendel war am 9. Juli mit @llegra im Unterengadin unterwegs und suchte nach einer Testperson mit Vallader als Muttersprache. In Tarasp Fontana bei Scuol sprach er mehrere ältere Frauen an. Eine verwies auf eine Dame von vielleicht 78 Jahren, die sich in der Nähe befand und gerade vom Nordic Walking kam. Die Vallader-Sprecherin hörte sich die Antwort des Chatbots auf eine Frage zu Tarasp an und begann ungefragt, das Gesprochene ins Deutsche zu übersetzen. Dann wurde @llegra gefragt, ob sie Scuol kennt. Sie gab wiederum in Vallader eine längere Auskunft. Die ältere Dame bestätigte, dass die Aussprache gut und der Inhalt verständlich ist. Sie begann zu strahlen und fragte, ob es sich um künstliche Intelligenz handle. Oliver Bendel bestätigte dies, strahlte ebenfalls, fuhr weiter und ließ sich von @llegra in Scuol noch Informationen zum dortigen Museum d’Engiadina Bassa geben. Das Projekt wird im August 2023 abgeschlossen. Die Ergebnisse werden danach veröffentlicht.
„‚ChatGPT‘ steht für ‚Chat‘ (dt. ‚Schwatz‘) und ‚Generative Pre-trained Transformer‘. Es handelt sich um einen Chatbot (bzw. ein System zum Produzieren von Content) von OpenAI, dem das Sprachmodell GPT-3.5 desselben Unternehmens zugrunde liegt. Die Trainingsdaten stammen u.a. aus Foren, Artikeln und Büchern sowie gesprochener Sprache. Benutzt wird eine spezielle Form von Machine Learning, nämlich Reinforcement Learning from Human Feedback (RLHF). Dabei sind Menschen involviert, die bestimmte Antworten für gut und richtig befinden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert.» Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon, der am 24. Januar 2023 erschienen ist. Es wird auf Entwicklung und Hintergrund eingegangen. Zudem wird die Perspektive der Ethik eingenommen. So wird der Chatbot zum ersten Mal als moralische Maschine bezeichnet und damit in die Nähe von GOODBOT und BESTBOT gerückt. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/chatgpt-124904 aufgerufen werden. Er wird in den nächsten Monaten immer wieder aktualisiert und erweitert.
Abb.: Einer der ersten Chatbots, die eine moralische Maschine waren
Chatbots und Sprachassistenten – sogenannte Conversational Agents – entstanden an der Hochschule für Wirtschaft FHNW von 2012 bis 2022 vor allem im Kontext der Maschinenethik und Sozialen Robotik. Prof. Dr. Oliver Bendel möchte sich nun verstärkt um tote, ausgestorbene und gefährdete Sprachen kümmern. @ve ist ein erster Versuch in dieser Richtung. Gewonnen werden konnte dafür im September 2022 der Entwickler Karim N’diaye. Er stellte am 17. November 2022 an der Hochschule die Zwischenergebnisse vor. Der Chatbot basiert auf GPT-3, einem Sprachmodell, das Deep Learning einsetzt, um natürlichsprachliche Fähigkeiten zu erlangen. Das neuronale Netzwerk weist etwa 175 Milliarden Parameter auf, was einen Rekord darstellt. Kombiniert mit einer Wissensdatenbank, welche Informationen über die lateinische Sprache enthält, kann @ve präzise Antworten auf Benutzeranfragen generieren. Mit ihr kann man also auf Lateinisch plaudern und etwas darüber erfahren. Weitere Projekte mit Chatbots und Sprachassistenten ab 2023 sollen sich gefährdeten und aussterbenden Sprachen widmen. Latein wird an vielen Schulen und Hochschulen gelehrt und immer noch für das eine oder andere Studium – etwa der Philosophie – vorausgesetzt respektive gewünscht. Mit „Romulus“ hat Sky Italia eine Serie in dieser toten Sprache produziert und sie damit ein Stück weit lebendig gemacht. In Deutschland ist sie auf Magenta TV mit Untertiteln zu sehen. Informationen zu @ve werden Ende Dezember 2022 über www.ave-bot.ch bereitgestellt.
Simone Luchetta vom Tages-Anzeiger hat Prof. Dr. Oliver Bendel zu Chatbots, Sprachassistenten und sozialen Robotern befragt. Eine Frage war, warum man seit Jahrzehnten davon spreche, dass wir bald Roboter heiraten, aber noch immer nichts dergleichen zu beobachten sei, allenfalls in Japan. Seine Antwort: „Es ist eine alberne Vorstellung, dass wir Chatbots, Sprachassistenten oder Roboter heiraten. Man muss nichts und niemanden heiraten, um eine Beziehung zu führen. In den meisten Fällen dürfte es sich auch um keine echte Ehe handeln. Manchen Produkten liegt ein Zettel bei, den man ausfüllen kann und der über eine Absichtserklärung eine Heirat darstellen soll. Die Maschine selbst hat keine Absichten. Sie hat auch weder Rechte noch Pflichten – und das ist eine schlechte Grundlage für einen Vertrag, der die Ehe letztlich ist. Tatsächlich führen aber viele Menschen eine Beziehung mit einem Sprachassistenten oder einem sozialen Roboter, nicht nur in Japan, sondern auch in den USA oder in Deutschland. Manche haben sogar einen Sexroboter wie Harmony oder gehen zu Liebespuppen in Bordellen. … Letztlich ist und bleibt es eine einseitige Beziehung. Der Roboter interessiert sich nicht für einen, er liebt und hasst einen nicht. Es ist einfach ein Ding, wenn auch ein Ding mit besonderen Eigenschaften. Es ist ein soziales Ding. Und deshalb gehen wir ihm auf den Leim.“ Das Interview umfasste weitere Fragen und Antworten, auch zu kommerziellen Chatbots. Einige Aussagen sind in den Artikel „Meine unheimlich nette Freundin“ eingeflossen, der am 13. und 14. November 2022 in mehreren Schweizer Zeitungen erschienen ist, etwa im Tages-Anzeiger und in der Basler Zeitung. Er ist Teil eines aktuellen KI-Schwerpunkts der Tamedia-Gruppe.
Latein wird an vielen Schulen und Hochschulen gelehrt und immer noch für das eine oder andere Studium – etwa der Philosophie – vorausgesetzt oder gewünscht. Jahrhundertelang hat es an vergnüglichen Möglichkeiten gemangelt, die Sprache zu erlernen und anzuwenden. Allenfalls Asterix-Comics brachten etwas Abwechslung ins von Caesar und Co. beherrschte Gebiet. Prof. Dr. Oliver Bendel hat an der Hochschule für Wirtschaft FHNW einen Chatbot in Auftrag gegeben, der sich auf Lateinisch unterhalten kann, und ihm den Namen @ve gegeben. Karim N’diaye bereitet seit September 2022 die Umsetzung vor, die dann ab Mitte November 2022 – nach der Zwischenpräsentation – erfolgt. Prof. Dr. Bradley Richards betreut das Projekt in technischer Hinsicht. Nach einer Evaluation hat sich gezeigt, dass sich Quickchat (www.quickchat.ai) als Plattform eignet. Damit basiert der Chatbot auf GPT-3. Durch eine händisch erstellte Wissensbasis kann er noch spezifischer für Latein trainiert werden und auch präzisere Antworten zu grammatikalischen Fragen liefern. Außerdem ist Zweisprachigkeit, also Deutsch und Lateinisch, möglich. Bis Ende des Jahres soll @ve als Prototyp vorliegen. Wie bei allen Projekten zu Chatbots und Sprachassistenten, die Oliver Bendel initiiert, können die Ergebnisse frei verwendet werden.
On February 18, 2022, the Dagstuhl Report „Conversational Agent as Trustworthy Autonomous System (Trust-CA)“ was published. Editors are Effie Lai-Chong Law, Asbjørn Følstad, Jonathan Grudin, and Björn Schuller. From the abstract: „This report documents the program and the outcomes of Dagstuhl Seminar 21381 ‚Conversational Agent as Trustworthy Autonomous System (Trust-CA)‘. First, we present the abstracts of the talks delivered by the Seminar’s attendees. Then we report on the origin and process of our six breakout (working) groups. For each group, we describe its contributors, goals and key questions, key insights, and future research. The themes of the groups were derived from a pre-Seminar survey, which also led to a list of suggested readings for the topic of trust in conversational agents. The list is included in this report for references.“ (Abstract Dagstuhl Report) The seminar, attended by scientists and experts from around the world, was held at Schloss Dagstuhl from September 19-24, 2022. The report can be downloaded via drops.dagstuhl.de/opus/volltexte/2022/15770/.
Abb.: Chatbots finden sich auch in Instant-Messaging-Systemen
From June 2019 to January 2020 the Morality Menu (MOME) was developed under the supervision of Prof. Dr. Oliver Bendel. With it you can transfer your own morality to the chatbot called MOBO. First of all, the user must provide various personal details. He or she opens the „User Personality“ panel in the „Menu“ and can then enter his or her name, age, nationality, gender, sexual orientation, and hair color. These details are important for communication and interaction with the chatbot. In a further step, the user can call up the actual morality menu („Rules of conduct“) via „Menu“. It consists of 9 rules, which a user (or an operator) can activate (1) or deactivate (0). The behaviors 1 – 8, depending on how they are activated, result in the proxy morality of the machine (the proxy machine). It usually represents the morality of the user (or the operator). But you can also give the system the freedom to generate its morality randomly. This is exactly what happens with this option. After the morality menu has been completely set, the dialogue can begin. To do this, the user calls up „Chatbot“ in the „Menu“. The Chatbot MOBO is started. The adventure can begin! A video of the MOBO-MOME is available here.
Die Idee eines Moralmenüs (MOME) entstand 2018 im Kontext der Maschinenethik. Damit sollte es möglich sein, die Moral einer Person auf eine Maschine zu übertragen. Auf einem Display bekommt man verschiedene Verhaltensregeln angezeigt und kann diese über Schieberegler aktivieren oder deaktivieren. Oliver Bendel entwickelte zwei Designstudien, eine für einen tierfreundlichen Staubsaugroboter namens LADYBIRD, eine andere für einen Sprachassistenten wie Google Duplex. Ende 2018 schrieb er an der Hochschule für Wirtschaft FHNW ein Projekt aus. Drei Studenten – Ozan Firat, Levin Padayatty and Yusuf Or – implementierten von Juni 2019 bis Januar 2020 das MOME für einen Chatbot mit dem Namen MOBO. Der Benutzer macht Angaben zu seiner Person und aktiviert oder deaktiviert dann neun verschiedene Verhaltensregeln. MOBO gibt Komplimente oder gibt keine Komplimente, antwortet voller Vorurteile oder ohne Vorurteile, bedroht den Gesprächspartner oder bedroht ihn nicht. Dabei geht er auf jeden Benutzer individuell ein, nennt dessen Namen – und spricht ihn je nach Einstellung formell oder informell an. Ein Video zum MOBO-MOME ist hier abrufbar.
Das Replika-Projekt wurde von Eugenia Kuyda und Phil Dudchuk mit der Idee begonnen, ein persönliches KI-System zu schaffen, das einem hilft, sich auszudrücken und zu beobachten und zu erfahren, indem es ein hilfreiches Gespräch anbietet. So sehen es zumindest die Macher und formulieren es auf ihrer Website replika.ai. Es sei ein Raum, in dem man seine Gedanken, Gefühle, Überzeugungen, Erfahrungen, Erinnerungen, Träume sicher teilen kann, eine „private perceptual world“ (Website replika.ai). Ohne Zweifel handelt es sich um einen der besten Chatbots, der mehr kann und ist als die meisten Chatbots, ein KI-System, das sich einem immer mehr annähert, in verschiedener Hinsicht. Ob Replika aber wirklich therapeutischen Nutzen hat, wie manche sagen, ob gar therapeutische Maßnahmen, die von Menschen ausgehen, ersetzt werden können, muss kritisch untersucht werden. In dem DPA- bzw. APA-Beitrag von Regina Wank, der in ca. 50 Zeitungen und Zeitschriften veröffentlicht wurde, darunter Focus, Der Standard und Heise Online, kommen Marita Skjuve von der Universität Oslo und Oliver Bendel von der Hochschule für Wirtschaft FHNW zu Wort.
The book chapter „The BESTBOT Project“ by Oliver Bendel, David Studer and Bradley Richards was published on 31 December 2019. It is part of the 2nd edition of the „Handbuch Maschinenethik“, edited by Oliver Bendel. From the abstract: „The young discipline of machine ethics both studies and creates moral (or immoral) machines. The BESTBOT is a chatbot that recognizes problems and conditions of the user with the help of text analysis and facial recognition and reacts morally to them. It can be seen as a moral machine with some immoral implications. The BESTBOT has two direct predecessor projects, the GOODBOT and the LIEBOT. Both had room for improvement and advancement; thus, the BESTBOT project used their findings as a basis for its development and realization. Text analysis and facial recognition in combination with emotion recognition have proven to be powerful tools for problem identification and are part of the new prototype. The BESTBOT enriches machine ethics as a discipline and can solve problems in practice. At the same time, with new solutions of this kind come new problems, especially with regard to privacy and informational autonomy, which information ethics must deal with.“ (Abstract) The BESTBOT is an immoral machine in a moral one – or a moral machine in an immoral one, depending on the perspective. The book chapter can be downloaded from link.springer.com/referenceworkentry/10.1007/978-3-658-17484-2_32-1.
„Chatbots unterhalten sich mit Menschen und unterhalten sie, sie beraten Kunden und Interessenten auf Websites und in Instant-Messaging-Systemen, sie rufen hilfreiche Ressourcen auf und geben dazu Erläuterungen. Ihr Erfolg erklärt sich vor allem durch ihre natürlichsprachlichen Fähigkeiten und ihre Konstruktion als hilfreiches, sachkundiges oder lustiges Gegenüber. Der Beitrag erklärt, was Chatbots und Sprachassistenten sind, nennt Vor- und Nachteile ihres Einsatzes und stellt Produkte für die Kundenkommunikation und den Unterhaltungsbereich vor. Zudem geht er auf Projekte der Maschinenethik ein. Die meisten Chatbots verhalten sich nicht adäquat, wenn der Benutzer ihnen gegenüber Sorgen äußert. Moralische Maschinen als Dialogsysteme können eine Lösung sein.“ So der Abstract des Beitrags „Von Cor@ bis Mitsuku: Chatbots in der Kundenkommunikation und im Unterhaltungsbereich“ von Oliver Bendel, erschienen im Mai 2019 im „Handbuch Digitale Wirtschaft“ (Herausgeber: Tobias Kollmann). Er ist verfügbar auf SpringerLink.