Schlagworte: Chatbot

Über Mitsuku und Co.

„Chatbots unterhalten sich mit Menschen und unterhalten sie, sie beraten Kunden und Interessenten auf Websites und in Instant-Messaging-Systemen, sie rufen hilfreiche Ressourcen auf und geben dazu Erläuterungen. Ihr Erfolg erklärt sich vor allem durch ihre natürlichsprachlichen Fähigkeiten und ihre Konstruktion als hilfreiches, sachkundiges oder lustiges Gegenüber. Der Beitrag erklärt, was Chatbots und Sprachassistenten sind, nennt Vor- und Nachteile ihres Einsatzes und stellt Produkte für die Kundenkommunikation und den Unterhaltungsbereich vor. Zudem geht er auf Projekte der Maschinenethik ein. Die meisten Chatbots verhalten sich nicht adäquat, wenn der Benutzer ihnen gegenüber Sorgen äußert. Moralische Maschinen als Dialogsysteme können eine Lösung sein.“ So der Abstract des Beitrags „Von Cor@ bis Mitsuku: Chatbots in der Kundenkommunikation und im Unterhaltungsbereich“ von Oliver Bendel, erschienen im Mai 2019 im „Handbuch Digitale Wirtschaft“ (Herausgeber: Tobias Kollmann). Er ist verfügbar auf SpringerLink.

Abb.: Viele Chatbots haben ein weibliches Vorbild

CHI Workshop on Conversational Agents

„In the last five years, work on software that interacts with people via typed or spoken natural language, called chatbots, intelligent assistants, social bots, virtual companions, non-human players, and so on, increased dramatically. Chatbots burst into prominence in 2016. Then came a wave of research, more development, and some use. The time is right to assess what we have learned from endeavoring to build conversational user interfaces that simulate quasi-human partners engaged in real conversations with real people.“ (Website Conversational Agents) The CHI 2019 workshop „Conversational Agents: Acting on the Wave of Research and Development“ (Glasgow, 5 May) brings together people „who developed or studied various conversational agents, to explore themes that include what works (and hasn’t) in home, education, healthcare, and work settings, what we have learned from this about people and their activities, and social or ethical possibilities for good or risk“ (Website Conversational Agents). Oliver Bendel will present three chatbots developed between 2013 and 2018 in the discipline of machine ethics, GOODBOT, LIEBOT and BESTBOT. More information via convagents.org/.

Fig.: The BESTBOT will be presented

Ein Chatbot mit Gesichtserkennung

Der BESTBOT ist eine unmoralische Maschine in einer moralischen. Er ähnelt einer Matrjoschka, der Holzpuppe, in der weitere Holzpuppen stecken. Dies betonte Oliver Bendel in einem Gespräch mit dem Tages-Anzeiger. In die offene Welt würde er den Chatbot deshalb nicht entlassen. Dieser bleibt im Labor der Maschinenethik. Der BESTBOT wurde 2018 an der Hochschule für Wirtschaft FHNW entwickelt. Bereits im März 2018 stellte der Informations- und Maschinenethiker im Rahmen der AAAI Spring Symposia sein Paper „From GOODBOT to BESTBOT“ vor, das die Grundlage für das Projekt legte. David Studer programmierte den Chatbot in Java. Der BESTBOT ist ein vernetztes System, das Suchmaschinen und Lexika benutzt. Er analysiert die Texteingaben des Benutzers mit textbasierter Emotionserkennungssoftware. Zugleich wird Gesichtserkennung eingesetzt, wiederum mit Emotionserkennung. Wenn der Benutzer zum Beispiel angibt, dass es ihm gut geht, sein Gesicht aber anderes verrät, spricht der Chatbot diesen Widerspruch an. Dieser erkennt sowohl kleine als auch große Sorgen. Dies ist ohne Zweifel von hohem Nutzen, gerade wenn der Benutzer sich etwas antun will. Zugleich kann Gesichtserkennung, vor allem im Zusammenhang mit Emotionserkennung, hochproblematisch sein. Oliver Bendel rät davon ab, solche Systeme bei der automatisierten Kommunikation und im öffentlichen Raum einzusetzen. Der ganzseitige Artikel im Tages-Anzeiger zum BESTBOT ist am 12. Dezember 2018 erschienen und kann hier heruntergeladen werden.

Abb.: Was erkennt der Chatbot im Gesicht?

Das BESTBOT-Projekt in den Medien

Der BESTBOT wurde in mehreren Medien thematisiert. In der ICTkommunikation vom 15. August 2018 war zu lesen: „Wie der Liebot ist der Bestbot ein vernetztes System, das z.B. Suchmaschinen und Lexika anzapft. Der Bestbot analysiert die Texteingaben des Users u.a. mit textbasierter Emotionserkennungssoftware. Zugleich wird Gesichtserkennung eingesetzt, wiederum mit Emotionserkennung. Wenn der Benutzer etwa angibt, dass es ihm gut geht, sein Gesicht aber anderes verrät, spricht der Chatbot diese Diskrepanz an.“ VRODO titelte am 10. September 2018 mit „Das Chatbot-Dilemma: Kann eine Maschine moralisch sein?“ und schrieb im Teaser: „Die Interaktion zwischen Mensch und Computer ist längst eine Sache der Moral, beispielsweise beim Tracking von Klicks. Zukünftige Mensch-Maschine-Schnittstellen setzen da noch etwas drauf: Sprache kann analysiert, das Gesicht gescannt und eine Bewegung registriert werden. Das verschärft das moralische Spannungsfeld.“ Die Zeitschrift hatte den BESTBOT getestet und ging ausführlich auf das System ein. Oliver Bendel, der Erfinder des Chatbots, ist der Meinung, dass sich in der moralischen Maschine eine unmoralische versteckt, nämlich eine, die die Freiheit des Benutzers bedroht.

Abb.: Versteckt sich in der moralischen Maschine eine unmoralische?

Chatbots als Artefakte der Maschinenethik

Ende August 2018 erscheint das Buch „Talk with the Bots: Gesprächsroboter und Social Bots im Diskurs“, herausgegeben von Theo Hug und Günther Pallaver, bei innsbruck university press. Autorinnen und Autoren sind u.a. Timo Kaerlein, Netaya Lotze, Andrea Knaut und Oliver Bendel. Sie alle trugen beim „Medientag 2017“ der Universität Innsbruck vor, der in dem Buch verarbeitet wird. Der Beitrag von Oliver Bendel trägt den Titel „Chatbots als Artefakte der Maschinenethik“. Die Zusammenfassung: „Chatbots stehen auf Websites und über Instant Messengers zur Verfügung. Sie dienen Beratung und Unterhaltung. Die Maschinenethik, eine junge, dynamische Disziplin, hat die Moral von Maschinen zum Gegenstand. Der Beitrag gibt einen Überblick über Chatbot-Projekte, die von 2013 bis 2018 im Kontext der Maschinenethik an der Hochschule für Wirtschaft FHNW entstanden sind und die den GOODBOT, den LIEBOT und den BESTBOT als einfache moralische Maschinen hervorgebracht haben. Es wird dargelegt, welche Potenziale und welche Vor- bzw. Nachteile die Umsetzung dieser Artefakte in der Maschinenethik und darüber hinaus hat. Am Rande wird die Disziplin der Informationsethik angesprochen.“ Weitere Informationen über www.uibk.ac.at/iup/buecher/9783903187290.html.

Abb.: Mit dem GOODBOT-Projekt fing alles an

GOODBOT und LIEBOT im Handbuch

Anfang Juli 2018 sind zwei Beiträge im Handbuch zur Maschinenethik bei Springer erschienen. Sie stammen von Oliver Bendel, der auch der Herausgeber ist, und tragen den Titel „Das GOODBOT-Projekt“ und „Das LIEBOT-Projekt“. In den Beiträgen werden zwei Artefakte der Maschinenethik vorgestellt, die an der Hochschule für Wirtschaft FHNW 2013 bzw. 2016 entstanden sind. Der LÜGENBOT ist international bekannt geworden. Seit Ende 2016 sitzen renommierte Wissenschaftlerinnen und Wissenschaftler an ihren Kapiteln zum „Handbuch Maschinenethik“. Ende 2018 soll das gedruckte Werk erscheinen. Mit dabei sind etwa Luís Moniz Pereira aus Lissabon, einer der bekanntesten Maschinenethiker der Welt, und Roboterethikerin Janina Loh, die in Wien mit Mark Coeckelbergh zusammenarbeitet. Ein Beitrag von Dr. Stefan Ullrich, des Sprechers der GI-Fachgruppe „Informatik und Ethik“, kommt in wenigen Tagen heraus. Eine Übersicht über die Beiträge, die laufend elektronisch veröffentlicht werden, findet sich über link.springer.com/referencework/10.1007/978-3-658-17484-2

Abb.: Das LIEBOT-Projekt

The BESTBOT at Stanford University

Machine ethics researches the morality of semiautonomous and autonomous machines. The School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW realized a project for implementation of a prototype called GOODBOT, a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. It was a stand-alone solution, not linked with other systems and not internet- or web-based. In the LIEBOT project, the mentioned meta rule was reversed. This web-based chatbot, implemented in 2016, could lie systematically. It was an example of a simple immoral machine. A follow-up project in 2018 is going to develop the BESTBOT, considering the restrictions of the GOODBOT and the opportunities of the LIEBOT. The aim is to develop a machine that can detect problems of users of all kinds and can react in an adequate way. It should have textual, auditory and visual capabilities. The paper “From GOODBOT to BESTBOT” describes the preconditions and findings of the GOODBOT project and the results of the LIEBOT project and outlines the subsequent BESTBOT project. A reflection from the perspective of information ethics is included. Oliver Bendel will present his paper in March 2018 at Stanford University (“AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents”, AAAI 2018 Spring Symposium Series).

Fig.: What will the BESTBOT look like?

Die Maschine versteht dich (oder auch nicht)

Der Medientag 2017 der Universität Innsbruck trägt den Titel „Talk with the Bots. Die Maschine versteht dich“. Er findet am Dienstag, 21. November 2017 in der Aula statt. Aus dem Flyer: „Immer öfter kommuniziert Software mit und für uns. Bots übernehmen unbemerkt immer komplexere Aufgaben für Nutzer*innen. Virtuelle Assistent*innen wie Alexa, Siri, Cortana und Assistant empfangen und verarbeiten die gesprochene Sprache. Künstliche Intelligenzen erfreuen sich immer größerer Beliebtheit und versprechen eine Erleichterung bei alltäglichen Fragen und Tätigkeiten. Im Bereich der politischen Propaganda und Public Relations sind die Social Bots im vergangenen Jahr zu zweifelhafter Berühmtheit gelangt. … Wie können wir die Interaktion mit künstlichen Intelligenzen von jener mit Menschen unterscheiden? Inwieweit ist das wichtig? Was bedeutet diese Entwicklung für das Alltagsleben und für den Bereich der Kommunikation? Welche Bedeutung hat der verbreitete Einsatz von Bots als neue Schnittstelle zwischen Mensch und Maschine?“ Die Impulsvorträge stammen von Dr. Netaya Lotze (Linguistin an der Westfälischen Wilhelms-Universität), Bernhard Hauser (Mitgründer von Oratio, Organisator der ChatbotConf) und Prof. Dr. Oliver Bendel (Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW). Den Flyer zur Veranstaltung kann man hier herunterladen.

Abb.: Versteht die Maschine mich?

Lots of Bots

„Social Bots sind Bots, also Softwareroboter bzw. -agenten, die in sozialen Medien (Social Media) vorkommen. Sie liken und retweeten, und sie texten und kommentieren, können also natürlichsprachliche Fähigkeiten haben. Sie können auch als Chatbots fungieren und damit mit Benutzern synchron kommunizieren. Social Bots werden zur Sichtbarmachung und Verstärkung von Aussagen und Meinungen eingesetzt. Dabei können sie werbenden Charakter besitzen bzw. politische Wirkung entfalten.“ So lautet die Kurzfassung eines neuen Beitrags im Wirtschaftslexikon von Springer Gabler. Dazu passt ein anderer Text von Oliver Bendel über Chatbots, der wie folgt zusammengefasst wird: „Chatbots oder Chatterbots sind Dialogsysteme mit natürlichsprachlichen Fähigkeiten textueller oder auditiver Art. Sie werden, oft in Kombination mit statischen oder animierten Avataren, auf Websites verwendet, wo sie die Produkte und Dienstleistungen ihrer Betreiber erklären und bewerben respektive sich um Anliegen der Interessenten und Kunden kümmern.“ Es wird jeweils auch auf die Perspektive der Informationsethik und der Maschinenethik eingegangen. Die beiden Beiträge, die am 1. Februar 2017 erschienen sind, können über wirtschaftslexikon.gabler.de/Definition/social-bots.html bzw. wirtschaftslexikon.gabler.de/Definition/chatbot.html aufgerufen werden.

System erkennt Lügen von Menschen

Jeden Monat überprüft der Harvard Business Manager nach eigener Aussage die Thesen von Wissenschaftlern. „Diesmal geht es um die Annahme: Textalgorithmen können Lügen in E-Mails enttarnen.“ (SPON, 28. September 2016) Spiegel Online meldet am 28. September 2016: „Daran forschen Stephan Ludwig, Associate Professor an der University of Surrey (zum Zeitpunkt des Interviews noch Junior Professor für Marketing an der University of Westminster), und Tom Van Laer, Junior Professor für Marketing an der Cass Business School der City University London. Das Ergebnis ihrer Analyse: Wer lügt oder die Wahrheit stark verbiegt, hält sich beim Schreiben unbewusst an bestimmte Regeln.“ (SPON, 28. September 2016) Sie haben vor diesem Hintergrund einen Algorithmus entwickelt, der Lügen von Menschen erkennt. Mit dem LÜGENBOT, der 2016 an der Hochschule für Wirtschaft FHNW implementiert wurde, hätten die Wissenschaftler einen idealen Trainingspartner. Dieser spezielle Chatbot sagt meistens die Unwahrheit, aber nicht immer. Dabei benutzt er verschiedene Lügenstrategien, die er teils kombiniert. Ob das System der Briten auch die maschinellen Lügen des LIEBOT zu erkennen vermag, ist eine spannende Frage, die vielleicht in den nächsten Monaten beantwortet werden kann, wenn die Wissenschaftler zusammenfinden.

directory

Abb.: Hier geht’s zur Lüge