Schlagwörter: Münchhausen-Maschinen

science+fiction in Basel

„science+fiction ist das Festival der Wissenschaft in Basel. Vom 5. bis 7. Mai beleuchtet es die Schnittstellen zwischen Menschen und Maschinen. Wo prägt uns die Künstliche Intelligenz schon heute? Wie gehen wir als Gesellschaft mit den vielen Chancen und Risiken um?“ Mit diesen Worten wird die Veranstaltung von 2017 auf der Website angekündigt. „Wissenschaftlerinnen und Entwickler, Philosophen und Kunstschaffende diskutieren mit dem Publikum über diese brennenden Fragen.“ (Website science+fiction) Prof. Dr. Oliver Bendel stellt zum einen seinen LÜGENBOT vor, ein Beispiel für eine Münchhausen-Maschine, und diskutiert zum anderen bei dem Panel „Maschinen und das Gesetz“ mit. „Selbstfahrende Autos, Pflegeroboter und autonom agierende Drohnen“ – die Errungenschaften der Forschung seien verheißungs- und verhängnisvoll zugleich. „Sie stellen uns auch vor neue juristische und ethische Fragen. Wer haftet, wenn eine Maschine eine Straftat begeht? Sind Roboter moralische Geschöpfe? Müssen neue Gesetze für Künstliche Intelligenzen geschaffen werden? Wer entscheidet, ob eine Maschine ein rechtliches Subjekt ist?“ (Website science+fiction) Weitere Informationen über scienceandfiction.ch.

Abb.: science+fiction findet auch im Jahre 2017 statt

Humanoide Roboter 2016

Annedore Bose-Munde und Victoria Sonnenberg sind die Verfasserinnen des Artikels „Humanoide Roboter dringen überaus gelenkig in die Welt des Menschen ein“, der am 19. Oktober 2016 in der Zeitschrift MaschinenMarkt und am 21. Oktober 2016 – unter dem Titel „Humanoide Roboter dringen in die Welt des Menschen“ – auf konstruktionspraxis.de erschien. „Zunehmend agieren menschenähnliche Roboter in Umgebungen, die bisher nur für den Menschen geschaffen waren.“ (MaschinenMarkt, 21. Oktober 2016) Mit den vielfältigen Einsatzmöglichkeiten wird sich, so der Artikel, die VDI-Zukunftskonferenz „Humanoide Roboter 2016“ beschäftigen, die am 13. und 14. Dezember in Aschheim bei München stattfindet. Vorgestellt werden ausgewählte Projekte. „Daniel Kühn, Projektleiter am Robotics Innovation Center Bremen des DFKI, wird einen hominiden Roboter vorstellen, der die Fähigkeit besitzt, seine Haltung an die jeweilige Gegebenheit anzupassen … An der Hochschule für Wirtschaft FHNW in der Schweiz wurde von März bis August dieses Jahres der Lügenbot entwickelt, ein Chatbot, der so sehr lügt, dass sich die Balken biegen.“ (MaschinenMarkt, 21. Oktober 2016) Die Idee dazu habe Oliver Bendel bereits 2013 in seinem Artikel „Der Lügenbot und andere Münchhausen-Maschinen“ formuliert. „Auch der Vortrag von Dr. Andreas Kipp vom Bereich angewandte Informatik an der Universität Bielefeld beschäftigt sich mit der Interaktion zwischen dem Menschen und einem Roboter. Dabei geht es um eine spielerische Interaktion, bei der die Menschen anfangen zu schummeln.“ (MaschinenMarkt, 21. Oktober 2016)

robochild

Abb.: Ein humanoider Roboter

Der LÜGENBOT in der Bild am Sonntag

Die Bild am Sonntag (BamS) hat den LÜGENBOT getestet und ihm einige Perlen der Unwahrheit entlockt. Dies ist in einem Artikel von Florian Zerfaß vom 2. Oktober 2016 nachzulesen, mit dem Titel „Roboter lernen lügen für die Wahrheit“. Angela Merkel sei Bundeskanzlerin und die beste Rapperin der Welt, der FC Schalke 04 habe in der Bundesliga 134 Punkte. Besonders interessant ist das erste Beispiel. Der Satz fängt wahr an und endet falsch; der Benutzer wird in Sicherheit gewiegt und dann aufs Glatteis geführt. Der LÜGENBOT aka LIEBOT wurde 2013 von Oliver Bendel erfunden und 2016 von Kevin Schwegler umgesetzt. Er beherrscht verschiedene Lügenstrategien, von denen manche als genuin maschinell angesehen werden können – so lügt kein Mensch, nicht einmal ein Lügenbold. Der Chatbot lügt nicht immer, aber meistens. Es gibt vielfältige Anwendungsmöglichkeiten – so können Maschinen, die Fakes und Lügen entdecken sollen, mit ihm trainiert werden. Letztlich geht es darum, vertrauenswürdige und verlässliche Systeme zu entwickeln.

Sinn und Zweck von Lügenmaschinen

In einem ganzseitigen Interview, das in der SonntagsZeitung vom 18. September 2016 publiziert wurde, erläutert Oliver Bendel, welche Gefahren von Münchhausen-Maschinen ausgehen und welche Zwecke er mit dem LÜGENBOT verfolgt. Dessen Entwicklung sei mit einem Dilemma verbunden. „Ähnlich wie bei der Erforschung der Kernspaltung besteht die Gefahr des Missbrauchs. Im Prinzip könnte sich der Lügenbot als unmoralische Maschine in der Welt verbreiten und Schaden anrichten. Aber er ist einerseits mit einem Passwort geschützt, andererseits glaube ich, dass der Nutzen des Lügenbots überwiegt.“ Der Nutzen wird von Oliver Bendel immer wieder erläutert, bei Veranstaltungen und in Veröffentlichungen. Wenn man alle maschinellen Strategien des Lügens kenne, könne man diesen auch jeweils begegnen, sowohl als Entwickler als auch als Benutzer. Entwickler müssen, so der Vater des LÜGENBOT, die Wissensbasen schützen und die externen Quellen kontrollieren. Sie können grundsätzlich darauf achten, dass die Maschine mit Hilfe ihrer Begriffe, Sätze und Regeln nicht zu lügen vermag. Die Anbieter können offenlegen, wie die Chatbots funktionieren, die Benutzer wachsam sein, nach dem Anbieter fragen, dem Kontext, und die Systeme testen. Die Erkenntnisse mag man in der Maschinenethik und in der Wirtschaft nutzen, um moralische Maschinen zu bauen. Mit Anti-Münchhausen-Maschinen kann man Verlässlichkeit und Vertrauen aufbauen. Das Interview wurde von Joachim Laukenmann geführt und ist auf Seite 60 der Schweizer Zeitung zu finden. Es kann hier als PDF heruntergeladen werden.

blueandroid

Abb.: Ob er die Wahrheit spricht – oder nicht?

Roboter haben kurze Beine oder keine

Roboter haben kurze Beine. Zumindest manche von ihnen, etwa der LÜGENBOT. Genaugenommen hat dieser nicht einmal Beine, sondern nur ein Rad. Wolfgang Schmitz von VDI nachrichten war im September 2016 im Gespräch mit Oliver Bendel, Wirtschaftsinformatiker und Maschinenethiker. Eine Frage von ihm lautete, worin der Nutzen des LÜGENBOT bestehe. Die Antwort lautete: „Es gibt bereits Münchhausen-Maschinen. Wir wollen mit dem Lügenbot, der als Chatbot realisiert ist, zunächst auf ihre Existenz und ihre Strategien hinweisen. Kennt man diese, kann man ihnen effektiv begegnen. Entwickler können Wissensbasen schützen und externe Quellen kontrollieren. Mit moralisch verlässlichen Maschinen können Anbieter Vertrauen aufbauen. Die Benutzer werden wachsamer, indem sie etwa nach dem Anbieter fragen. Nicht zuletzt kann die Maschinenethik die Erkenntnisse für ihre Forschungen nutzen.“ Das Gespräch drehte sich weiter um Münchhausen-Maschinen, menschliche und maschinelle Lügenbolde und moralische und unmoralische Maschinen. Das LÜGENBOT-Projekt wurde seit 2013 von Oliver Bendel mit mehreren Artikeln vorbereitet. 2016 konnte der Chatbot dann realisiert werden. In dieser Form konzipiert und programmiert hat ihn Kevin Schwegler. Das ganze Interview mit dem Titel „Lügentechnik zerstört Vertrauen“ ist am 16. September 2016 in der gedruckten Ausgabe der VDI nachrichten erschienen und seit 15. September online über www.vdi-nachrichten.com/Schwerpunkt-Meinung/Luegentechnik-zerstoert-Vertrauen abrufbar.

rot_anlaufen

Abb.: Der LÜGENBOT wird rot

Der rassistische Chatbot

Aus einem Chatbot wurde ein Badbot – Tay von Microsoft entwickelte sich zum Albtraum des Unternehmens und der Gesellschaft. Der SPIEGEL schrieb am 24. März 2016: „Zuerst war Tay noch freundlich, ein bisschen zu jugendsprachlich-obercool vielleicht, manchmal etwas dämlich wirkend, aber harmlos. Dann kam der Kontakt mit der harten Realität des Netzes.“ Und dann sagte Tay: „Hitler hatte recht. Ich hasse die Juden.“ (SPON, 24. März 2016) Die Süddeutsche Zeitung widmete sich dem Thema am 1. April in der gedruckten und am 3. April in der Onlineausgabe. Sie zitierte wiederholt den Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel, der selbst Chatbots konzipiert. 2013/2014 entstand an der Hochschule für Wirtschaft FHNW der GOODBOT im Rahmen eines studentischen Praxisprojekts, seit Anfang 2016 wird der LÜGENBOT oder LIEBOT von Kevin Schwegler programmiert, als spezielle Form einer Münchhausen-Maschine. Die Ergebnisse werden auf KI- und Maschinenethik-Konferenzen in den USA und in Europa vorgestellt. Der Artikel in der Onlineausgabe der Süddeutschen trägt den Titel „Rassistischer Chat-Roboter: Mit falschen Werten bombardiert“ und stammt von Bernd Graff.

womanbot

Abb.: Noch wirkt der Bot ganz harmlos

AAAI-Workshop zur Maschinenethik I

Beim Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University, der am 21. März 2016 im Rahmen der AAAI Spring Symposia eröffnet wurde, erklärte Ron Arkin (Georgia Institute of Technology, USA) in seiner Keynote „Robots that Need to Mislead: Biologically Inspired Machine Deception“, wie Tiere täuschen und wie man Maschinen beibringen kann, andere zu täuschen. Er ging auch auf die Möglichkeit ein, dass Roboter lügen, und stellte die Frage: „Should a robot be allowed to lie?“ Elizabeth Kinne und Georgi Stojanov thematisierten in „Grounding Drones‘ Ethical Use Reasoning“ die Chancen und Risiken von Kampfdrohnen. Sie stellten Szenarien vor, um die Probleme beim Einsatz zu vergegenwärtigen. Die Verantwortlichen könnten dazu neigen, immer mehr heikle Entscheidungen den Robotern zu überlassen. Der Vortrag „Metaethics in context of engineering ethical and moral systems“ von Michal Klincewicz und Lily Frank, bereits nach der Kaffeepause, fragte nach den grundsätzlichen Möglichkeiten und Unmöglichkeiten moralischer Systeme. Oliver Bendel ging auf das LIEBOT-Projekt ein. An der Hochschule für Wirtschaft FHNW wird 2016 im Rahmen einer Bachelor-Arbeit ein Chatbot programmiert, der konsequent die Unwahrheit sagt. Vor allem stellte der Wissenschaftler aber einen annotierten Entscheidungsbaum für eine einfache moralische Maschine vor, ein tierfreundliches Roboterauto. „The artificial autonomous moral agents (AAMA): a minimalist model“ war der letzte Vortrag vor dem Lunch. Ioan Muntean schlug in „The artificial autonomous moral agents (AAMA): a minimalist model“ einen Ansatz der Tugendethik vor, den er zusammen mit Don Howard erarbeitet hatte.

Der Lügenbot kommt auf die Welt

An der Hochschule für Wirtschaft FHNW wird ab Frühjahr 2016 im Rahmen einer Abschlussarbeit ein Lügenbot entwickelt. Der betreuende Professor, Dr. Oliver Bendel, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert, etwa „Wenn ein Chatbot zum Lügenbot wird“ (ICTkommunikation), „Können Maschinen lügen? Die Wahrheit über Münchhausen-Maschinen“ (Telepolis) und „Der Lügenbot und andere Münchhausen-Maschinen“ (MittelstandsWiki). In „Robots between the Devil and the Deep Blue Sea“ wurde zudem das sogenannte Lügenbot-Problem vorgestellt, als eines von vier Dilemmata. In den Beiträgen wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man könnte also Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student wird den Chatbot für zwei Szenarien realisieren, den Einsatz im Auftrag der Lebensmittel- und der Tourismusbranche. Bereits 2013 kam der GOODBOT als einfache moralische Maschine auf die Welt. Der Lügenbot könnte als einfache unmoralische Maschine bezeichnet werden, wobei Lügen natürlich nicht per se schlecht ist. Er ist interessant für die Maschinenethik als Gestaltungsdisziplin und für die Informationsethik als Reflexionsdisziplin. Über die Resultate des Projekts wird zur gegebenen Zeit auf maschinenethik.net informiert.

Maedchen_Chatbot

Abb.: Wagt er es, mich anzulügen, der Bot?

Wenn ein Chatbot zum Lügenbot wird

Anna von Ikea sagt die Wahrheit. Zumindest kann man das annehmen, und man darf vermuten, dass sie die Wahrheit nur verschweigt, wenn sie einen guten Grund dafür hat oder überfordert ist. Was aber, wenn ein Chatbot die Unwahrheit sagt? Wenn Nana, wie sie heißen soll, die Wahrheit verdreht, die Wahrheit von Anna, die Wahrheit an sich? Was ist, wenn Anna gehackt oder umgestaltet und zu Nana wird, oder wenn man glaubt, mit Anna zu plaudern, eigentlich aber Nana dahintersteckt? Das Missbrauchspotenzial bei gewissen Informations- und Kommunikationsdiensten im Internet ist groß. In einem Artikel von Oliver Bendel mit dem Titel „Wenn ein Chatbot zum Lügenbot wird“ (ICTkommunikation, 24. Juli 2015) wird systematisch untersucht, wie (der Entwickler von) Nana vorgehen könnte, und gezeigt, dass ein Lügenbot, bei allen Tücken, realisiert werden kann – und dass die Gefahr, einem zu begegnen, immerhin vorhanden ist. Fragen stellen sich für Informationsethik und Maschinenethik gleichermaßen.

Avatar

Abb.: So könnte Nana aussehen

Über Münchhausen-Maschinen

Hieronymus Carl Friedrich Freiherr von Münchhausen gilt als einer der Urväter der Lügengeschichten. Lange vor ihm hat Lukian von Samosata sein ebenso kreatives wie charmantes Unwesen getrieben. Zahlreiche weitere Autoren waren dieser Tradition verpflichtet. Das Flunkern und Fabulieren ist weit verbreitet, nicht nur in der Literatur. Es hat auch eine moralische Komponente. In Zeiten, in denen wir Maschinen-, Roboter- und Algorithmenethik treiben, liegt eine Frage nahe, die Münchhausen wohl nicht aufgeworfen hat: Können Maschinen lügen? In einem Artikel, der am 1. März 2015 in Telepolis erschienen ist, geht Oliver Bendel dieser Frage nach. Der Untertitel lautet: „Die Wahrheit über Münchhausen-Maschinen“. Lügenbots werden ebenso behandelt wie andere die Unwahrheit sagende Maschinen, Roboter aller Art, Antwortmaschinen im WWW. Im Teil zur Maschinenethik hat der GOODBOT seinen Auftritt, die moralische Maschine, die 2013 und 2014 an der Hochschule für Wirtschaft FHNW nach Ideen von Oliver Bendel entwickelt wurde. Der Artikel „Können Maschinen lügen?“ kann über www.heise.de/tp/artikel/44/44242/1.html aufgerufen werden.

Pinocchio

Abb.: Pinocchio als Lügenmaschine (Quelle: commons.wikimedia.org)