Wenn ein Chatbot zum Lügenbot wird

Anna von Ikea sagt die Wahrheit. Zumindest kann man das annehmen, und man darf vermuten, dass sie die Wahrheit nur verschweigt, wenn sie einen guten Grund dafür hat oder überfordert ist. Was aber, wenn ein Chatbot die Unwahrheit sagt? Wenn Nana, wie sie heißen soll, die Wahrheit verdreht, die Wahrheit von Anna, die Wahrheit an sich? Was ist, wenn Anna gehackt oder umgestaltet und zu Nana wird, oder wenn man glaubt, mit Anna zu plaudern, eigentlich aber Nana dahintersteckt? Das Missbrauchspotenzial bei gewissen Informations- und Kommunikationsdiensten im Internet ist groß. In einem Artikel von Oliver Bendel mit dem Titel „Wenn ein Chatbot zum Lügenbot wird“ (ICTkommunikation, 24. Juli 2015) wird systematisch untersucht, wie (der Entwickler von) Nana vorgehen könnte, und gezeigt, dass ein Lügenbot, bei allen Tücken, realisiert werden kann – und dass die Gefahr, einem zu begegnen, immerhin vorhanden ist. Fragen stellen sich für Informationsethik und Maschinenethik gleichermaßen.

Avatar

Abb.: So könnte Nana aussehen

Kommentare deaktiviert.