Schlagworte: Microsoft

Der rassistische Chatbot

Aus einem Chatbot wurde ein Badbot – Tay von Microsoft entwickelte sich zum Albtraum des Unternehmens und der Gesellschaft. Der SPIEGEL schrieb am 24. März 2016: „Zuerst war Tay noch freundlich, ein bisschen zu jugendsprachlich-obercool vielleicht, manchmal etwas dämlich wirkend, aber harmlos. Dann kam der Kontakt mit der harten Realität des Netzes.“ Und dann sagte Tay: „Hitler hatte recht. Ich hasse die Juden.“ (SPON, 24. März 2016) Die Süddeutsche Zeitung widmete sich dem Thema am 1. April in der gedruckten und am 3. April in der Onlineausgabe. Sie zitierte wiederholt den Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel, der selbst Chatbots konzipiert. 2013/2014 entstand an der Hochschule für Wirtschaft FHNW der GOODBOT im Rahmen eines studentischen Praxisprojekts, seit Anfang 2016 wird der LÜGENBOT oder LIEBOT von Kevin Schwegler programmiert, als spezielle Form einer Münchhausen-Maschine. Die Ergebnisse werden auf KI- und Maschinenethik-Konferenzen in den USA und in Europa vorgestellt. Der Artikel in der Onlineausgabe der Süddeutschen trägt den Titel „Rassistischer Chat-Roboter: Mit falschen Werten bombardiert“ und stammt von Bernd Graff.

womanbot

Abb.: Noch wirkt der Bot ganz harmlos