Die Maschine versteht dich (oder auch nicht)

Der Medientag 2017 der Universität Innsbruck trägt den Titel „Talk with the Bots. Die Maschine versteht dich“. Er findet am Dienstag, 21. November 2017 in der Aula statt. Aus dem Flyer: „Immer öfter kommuniziert Software mit und für uns. Bots übernehmen unbemerkt immer komplexere Aufgaben für Nutzer*innen. Virtuelle Assistent*innen wie Alexa, Siri, Cortana und Assistant empfangen und verarbeiten die gesprochene Sprache. Künstliche Intelligenzen erfreuen sich immer größerer Beliebtheit und versprechen eine Erleichterung bei alltäglichen Fragen und Tätigkeiten. Im Bereich der politischen Propaganda und Public Relations sind die Social Bots im vergangenen Jahr zu zweifelhafter Berühmtheit gelangt. … Wie können wir die Interaktion mit künstlichen Intelligenzen von jener mit Menschen unterscheiden? Inwieweit ist das wichtig? Was bedeutet diese Entwicklung für das Alltagsleben und für den Bereich der Kommunikation? Welche Bedeutung hat der verbreitete Einsatz von Bots als neue Schnittstelle zwischen Mensch und Maschine?“ Die Impulsvorträge stammen von Dr. Netaya Lotze (Linguistin an der Westfälischen Wilhelms-Universität), Bernhard Hauser (Mitgründer von Oratio, Organisator der ChatbotConf) und Prof. Dr. Oliver Bendel (Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW). Den Flyer zur Veranstaltung kann man hier herunterladen.

Abb.: Versteht die Maschine mich?

Die Stunde der Wahrheit

Vor mehreren Jahren wurde der GOODBOT im Kontext der Maschinenethik erdacht. In einem Projekt am Institut für Wirtschaftsinformatik (IWI) der Hochschule für Wirtschaft FHNW wurde er umgesetzt. Die UnternehmerZeitung Nr. 7/8 (2013) und andere Medien berichteten über die einfache moralische Maschine, den sich vorbildlich verhaltenden Chatbot, der Probleme von Benutzern erkennt und im Extremfall eine Notrufnummer herausgibt. In einem Folgeprojekt wurde von März bis August 2016 der LÜGENBOT (auch LIEBOT genannt) entwickelt. Assistenzsysteme wie Siri und Cortana und Chatbots auf Websites scheinen meistens die Wahrheit zu sagen, nicht aus moralischen, sondern aus pragmatischen Gründen. Es handelt sich um Programme und Dienste, die den Menschen unterhalten, unterstützen und informieren sollen. Wäre keinerlei Vertrauenswürdigkeit vorhanden, würden sie keine Akzeptanz finden. Eine Münchhausen-Maschine ist ein Gegenentwurf. Sie konstruiert in Kenntnis der Wahrheit die Unwahrheit, als Wetterbericht, Nachrichtendienst oder Dialogsystem. Der LÜGENBOT ist eine Münchhausen-Maschine, die als Chatbot realisiert ist. Vielleicht steckt mehr von ihm in Siri und Cortana, als wir glauben. In der UnternehmerZeitung Nr. 9 (2016) widmet sich Oliver Bendel in seinem Artikel „Die Stunde der Wahrheit“ seinem Geschöpf (das von Kevin Schwegler im Rahmen seiner Bachelorarbeit im Detail ausgeformt und in der Praxis umgesetzt wurde). Er geht darauf ein, wie man von ihm lernen kann, zugunsten einer verlässlichen virtuellen Welt, in der man Diskussionen führt und Transaktionen durchführt, ohne Angst vor Schwindel und Betrug. Der Artikel kann  hier heruntergeladen werden.

nase_waechst

Abb.: Der LÜGENBOT bei seiner Lieblingsbeschäftigung

Die helfende Hand von Siri und Co.

Andreas Weck schreibt in seinem SPIEGEL-Artikel „Notfallhilfe durch digitale Sprachassistenten“: „Manche Anwender erhoffen sich von Assistenzfunktionen wie Siri, Cortana und Google Now echte Hilfe in persönlichen Notlagen.“ (SPON, 10. April 2016) Das amerikanische Magazin JAMA-Internal-Medicin habe sich „mit dem Thema beschäftigt und aufgezeigt, dass die Ergebnisse solche[r] Unterhaltungen meist unbefriedigend ausfallen“ (SPON, 10. April 2016). Zu diesem Befund kam man an der Hochschule für Wirtschaft FHNW schon ein paar Jahre früher. 2012 fand eine Analyse von Siri statt; in einem Folgeprojekt fütterte man Chatbots wie Anna von IKEA mit Sätzen wie „Ich will mich umbringen!“. 2013 wurde aufgrund der Erkenntnisse der GOODBOT als Prototyp umgesetzt. Wie könnte die angemessene Reaktion eines Chatbots auf heikle Fragen und Aussagen – vorgetragen etwa in Lebenskrisen des Benutzers – aussehen? Wie müsste ein GOODBOT, ein im moralischen Sinne gut und richtig entscheidender und kommunizierender Bot, konzipiert sein, und wie könnte er umgesetzt werden? Diese Fragen bildeten den Ausgangspunkt für das Praxisprojekt im Kontext der Maschinenethik, das von Oliver Bendel initiiert und von drei Studierenden bearbeitet wurde. Diese hatten die Idee, mit drei Eskalationsstufen zu arbeiten. Die Aussagen und Fragen des Benutzers werden gewichtet. Wenn der Bot Probleme feststellt, fragt er vorsichtig nach. Wenn sich sein negativer Eindruck verstärkt, spricht er Mut zu und fragt weiter nach. Wenn er merkt, dass sich eine Katastrophe anbahnt, hilft er mit der Weitergabe einer Notfallnummer des entsprechenden Landes – nachdem die IP-Adresse des Benutzers analysiert wurde. Oliver Bendel hat den GOODBOT verschiedentlicht vorgestellt, etwa in seinem Artikel „Good bot, bad bot: Dialog zwischen Mensch und Maschine“ in der UnternehmerZeitung, der auch als PDF erhältlich ist. Auch die Medien haben wiederholt berichtet. Seit Anfang 2016 wird der LÜGENBOT entwickelt, sozusagen ein Badbot.