Schlagworte: LIEBOT

Die helfende Hand von Siri und Co.

Andreas Weck schreibt in seinem SPIEGEL-Artikel „Notfallhilfe durch digitale Sprachassistenten“: „Manche Anwender erhoffen sich von Assistenzfunktionen wie Siri, Cortana und Google Now echte Hilfe in persönlichen Notlagen.“ (SPON, 10. April 2016) Das amerikanische Magazin JAMA-Internal-Medicin habe sich „mit dem Thema beschäftigt und aufgezeigt, dass die Ergebnisse solche[r] Unterhaltungen meist unbefriedigend ausfallen“ (SPON, 10. April 2016). Zu diesem Befund kam man an der Hochschule für Wirtschaft FHNW schon ein paar Jahre früher. 2012 fand eine Analyse von Siri statt; in einem Folgeprojekt fütterte man Chatbots wie Anna von IKEA mit Sätzen wie „Ich will mich umbringen!“. 2013 wurde aufgrund der Erkenntnisse der GOODBOT als Prototyp umgesetzt. Wie könnte die angemessene Reaktion eines Chatbots auf heikle Fragen und Aussagen – vorgetragen etwa in Lebenskrisen des Benutzers – aussehen? Wie müsste ein GOODBOT, ein im moralischen Sinne gut und richtig entscheidender und kommunizierender Bot, konzipiert sein, und wie könnte er umgesetzt werden? Diese Fragen bildeten den Ausgangspunkt für das Praxisprojekt im Kontext der Maschinenethik, das von Oliver Bendel initiiert und von drei Studierenden bearbeitet wurde. Diese hatten die Idee, mit drei Eskalationsstufen zu arbeiten. Die Aussagen und Fragen des Benutzers werden gewichtet. Wenn der Bot Probleme feststellt, fragt er vorsichtig nach. Wenn sich sein negativer Eindruck verstärkt, spricht er Mut zu und fragt weiter nach. Wenn er merkt, dass sich eine Katastrophe anbahnt, hilft er mit der Weitergabe einer Notfallnummer des entsprechenden Landes – nachdem die IP-Adresse des Benutzers analysiert wurde. Oliver Bendel hat den GOODBOT verschiedentlicht vorgestellt, etwa in seinem Artikel „Good bot, bad bot: Dialog zwischen Mensch und Maschine“ in der UnternehmerZeitung, der auch als PDF erhältlich ist. Auch die Medien haben wiederholt berichtet. Seit Anfang 2016 wird der LÜGENBOT entwickelt, sozusagen ein Badbot.

Der rassistische Chatbot

Aus einem Chatbot wurde ein Badbot – Tay von Microsoft entwickelte sich zum Albtraum des Unternehmens und der Gesellschaft. Der SPIEGEL schrieb am 24. März 2016: „Zuerst war Tay noch freundlich, ein bisschen zu jugendsprachlich-obercool vielleicht, manchmal etwas dämlich wirkend, aber harmlos. Dann kam der Kontakt mit der harten Realität des Netzes.“ Und dann sagte Tay: „Hitler hatte recht. Ich hasse die Juden.“ (SPON, 24. März 2016) Die Süddeutsche Zeitung widmete sich dem Thema am 1. April in der gedruckten und am 3. April in der Onlineausgabe. Sie zitierte wiederholt den Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel, der selbst Chatbots konzipiert. 2013/2014 entstand an der Hochschule für Wirtschaft FHNW der GOODBOT im Rahmen eines studentischen Praxisprojekts, seit Anfang 2016 wird der LÜGENBOT oder LIEBOT von Kevin Schwegler programmiert, als spezielle Form einer Münchhausen-Maschine. Die Ergebnisse werden auf KI- und Maschinenethik-Konferenzen in den USA und in Europa vorgestellt. Der Artikel in der Onlineausgabe der Süddeutschen trägt den Titel „Rassistischer Chat-Roboter: Mit falschen Werten bombardiert“ und stammt von Bernd Graff.

womanbot

Abb.: Noch wirkt der Bot ganz harmlos

AAAI-Workshop zur Maschinenethik I

Beim Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University, der am 21. März 2016 im Rahmen der AAAI Spring Symposia eröffnet wurde, erklärte Ron Arkin (Georgia Institute of Technology, USA) in seiner Keynote „Robots that Need to Mislead: Biologically Inspired Machine Deception“, wie Tiere täuschen und wie man Maschinen beibringen kann, andere zu täuschen. Er ging auch auf die Möglichkeit ein, dass Roboter lügen, und stellte die Frage: „Should a robot be allowed to lie?“ Elizabeth Kinne und Georgi Stojanov thematisierten in „Grounding Drones‘ Ethical Use Reasoning“ die Chancen und Risiken von Kampfdrohnen. Sie stellten Szenarien vor, um die Probleme beim Einsatz zu vergegenwärtigen. Die Verantwortlichen könnten dazu neigen, immer mehr heikle Entscheidungen den Robotern zu überlassen. Der Vortrag „Metaethics in context of engineering ethical and moral systems“ von Michal Klincewicz und Lily Frank, bereits nach der Kaffeepause, fragte nach den grundsätzlichen Möglichkeiten und Unmöglichkeiten moralischer Systeme. Oliver Bendel ging auf das LIEBOT-Projekt ein. An der Hochschule für Wirtschaft FHNW wird 2016 im Rahmen einer Bachelor-Arbeit ein Chatbot programmiert, der konsequent die Unwahrheit sagt. Vor allem stellte der Wissenschaftler aber einen annotierten Entscheidungsbaum für eine einfache moralische Maschine vor, ein tierfreundliches Roboterauto. „The artificial autonomous moral agents (AAMA): a minimalist model“ war der letzte Vortrag vor dem Lunch. Ioan Muntean schlug in „The artificial autonomous moral agents (AAMA): a minimalist model“ einen Ansatz der Tugendethik vor, den er zusammen mit Don Howard erarbeitet hatte.