Über Münchhausen-Maschinen

Hieronymus Carl Friedrich Freiherr von Münchhausen gilt als einer der Urväter der Lügengeschichten. Lange vor ihm hat Lukian von Samosata sein ebenso kreatives wie charmantes Unwesen getrieben. Zahlreiche weitere Autoren waren dieser Tradition verpflichtet. Das Flunkern und Fabulieren ist weit verbreitet, nicht nur in der Literatur. Es hat auch eine moralische Komponente. In Zeiten, in denen wir Maschinen-, Roboter- und Algorithmenethik treiben, liegt eine Frage nahe, die Münchhausen wohl nicht aufgeworfen hat: Können Maschinen lügen? In einem Artikel, der am 1. März 2015 in Telepolis erschienen ist, geht Oliver Bendel dieser Frage nach. Der Untertitel lautet: „Die Wahrheit über Münchhausen-Maschinen“. Lügenbots werden ebenso behandelt wie andere die Unwahrheit sagende Maschinen, Roboter aller Art, Antwortmaschinen im WWW. Im Teil zur Maschinenethik hat der GOODBOT seinen Auftritt, die moralische Maschine, die 2013 und 2014 an der Hochschule für Wirtschaft FHNW nach Ideen von Oliver Bendel entwickelt wurde. Der Artikel „Können Maschinen lügen?“ kann über www.heise.de/tp/artikel/44/44242/1.html aufgerufen werden.

Pinocchio

Abb.: Pinocchio als Lügenmaschine (Quelle: commons.wikimedia.org)

Über Saugroboter und Liebesabenteuer

Die Vortragsreihe im Studium generale der Hochschule Konstanz im Sommersemester 2015 trägt den Titel „Abenteuer – in der Welt und im Kopf: Über Wagnisse in Philosophie, Wissenschaft, Kunst, Literatur, Politik, Wirtschaft und Technik“. Montags von 19.30 bis 21.00 Uhr präsentieren Wissenschaftler aus dem deutschsprachigen Raum ihre Ergebnisse und Ideen. Den Anfang macht am 23. März 2015 Prof. Dr. Ernst Peter Fischer von der Universität Heidelberg mit „Mutproben der Menschheit: Das Abenteuer Wissenschaft wird besichtigt“. Seit Jahrzehnten forscht und publiziert er zu naturwissenschaftlichen Themen. In der Woche darauf folgt Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW (Basel, Olten, Brugg-Windisch) mit seinem Vortrag über „Moralische Maschinen: Erkenntnisse der Maschinen- und Roboterethik“. Er geht u.a. auf tierfreundliche Saugroboter und menschenfreundliche Chatbots ein. Weitere Höhepunkte dürften „Liebesabenteuer: Giacomo Casanova in seinen Memoiren“ von Prof. Dr. Richard Utz (Hochschule Mannheim) und „Was hat Hegel mit Karl May zu tun? Die Abenteuer des Geistes im bürgerlichen Zeitalter“ von Prof. Dr. Gert Ueding (Universität Tübingen) sein. Weitere Informationen über www.htwg-konstanz.de/Studium-generale.2855.0.html; zudem gibt es ein Plakat.

AI and Ethics

In Austin (Texas, USA) finden vom 25. bis 26. Januar 2015 die „Workshops at the Twenty-Ninth AAAI Conference on Artificial Intelligence (AAAI-15)“ statt. Auf der Website werden zum „W01 – AI and Ethics“ mediale Aussagen wie „Artificial Intelligence Is Changing the World, and Humankind Must Adapt“ und „Physicist Louis Del Monte believes that by 2045 machines will threaten human survival“ zitiert. Vor diesem Hintergrund heißt es: „The goal of this workshop is to provide a forum to discuss the ethical questions implicit in such headlines, which go to the centre of the quest to build AI systems with potentially super-human intelligence.“ Es werden sowohl informations- und technikethische als auch maschinenethische Bereiche behandelt, z.B. „AI as a threat to or saviour for humanity“, „Safeguards necessary within AI research“, „Autonomous agents in the military“, „Autonomous agents in commerce and other domains“ und „Mechanisms to ensure moral behaviours in AI systems“. Weitere Informationen sind über www.aaai.org/Workshops/ws15workshops.php erhältlich.

Das Zähmen der Maschinen

„Das Zähmen der Maschinen“ ist der Titel eines Artikels von Danja Nüesch für SRF, Schweizer Radio und Fernsehen. Behandelt werden die Themen der Maschinenethik, auf der Grundlage eines Interviews mit Oliver Bendel. Der Professor für Wirtschaftsinformatik und Informationsethik an der Hochschule für Wirtschaft FHNW treibt auch Maschinenethik. Er spricht sich für einfache moralische Maschinen aus. Seine Paradebeispiele sind der GOODBOT, ein verbesserter Chatbot, und Ladybird, ein tierfreundlicher Saugroboter. Auch tierfreundliche Windkraftanlagen und waffenfeindliche 3D-Drucker werden angeführt. Von komplexen moralischen Maschinen rät Oliver Bendel eher ab. Die militärische Drohne sollte ebenso wie das selbstständig fahrende Auto bestimmte Entscheidungen den Menschen überlassen. Diese müssen also, als Soldaten, Insassen etc., intervenieren können. Nichts spricht dagegen, dass sich Roboterautos oder Fahrerassistenzsysteme in klar abgrenzbaren Situationen mit nur wenigen Optionen moralisch verhalten. Zum Beispiel kann – wie der Experte verschiedenenorts argumentiert – automatisch für ein Tier gebremst werden, wenn kein Hintermann zu sehen ist. Der Beitrag kann über www.srf.ch/kultur/gesellschaft-religion/das-zaehmen-der-maschinen aufgerufen werden.

Isolated wind turbines

Abb.: Noch nicht tierfreundliche Windkraftanlagen

FAZ-Forum in Berlin zu Cyber Resilience

Das nächste FAZ-Forum trägt den Titel „Cyber Resilience – Warum Cyber Security nicht mehr ausreicht“. Die Beschreibung hebt an mit folgenden Worten: „Durch die global vernetzten Informationsstrukturen unserer Wirtschaft und Gesellschaft entsteht ein extrem komplexes Geflecht, welches fortwährende Absicherung gegen interne und externe Bedrohungen erfordert. Die Gewährleistung von Cyber-Sicherheit wird zu einer zentralen Herausforderung für Staat, Wirtschaft und Gesellschaft auf nationaler und insbesondere auf globaler Ebene. Einzelne Cyber-Security-Maßnahmen werden in Zukunft nicht mehr ausreichen, diesen Schutz zu gewährleisten. Vielmehr ist der Aufbau einer Cyber Resilience – eines widerstandsfähigen Gesamtsystems, welches Störungen und Angriffe unbeschadet absorbieren kann – unabdingbar.“ (Website) Referenten sind u.a. Peter Andres (Leiter Konzernsicherheit, Deutsche Lufthansa AG), Norbert Riedel (Botschafter, Sonderbeauftragter für Cyber-Außenpolitik, Auswärtiges Amt), Christoph Unger (Präsident, Bundesamt für Bevölkerungsschutz und Katastrophenhilfe) und Oliver Bendel (Professor, Hochschule für Wirtschaft FHNW). Angefragt ist Peter Altmaier (MdB, Chef des Bundeskanzleramts und Bundesminister für besondere Aufgaben). Im Vortrag von Oliver Bendel geht es u.a. um Informationsethik und Maschinenethik. Letztere kann seiner Meinung nach dazu beitragen, die Maschinen sicherer und besser zu machen.

Cyber_Resilience

Abb.: Neue Phänomene brauchen neue Begriffe

Proceedings der TA-Konferenz

Zur ersten europäischen Tagung zur Technologiefolgenabschätzung sind im Juli 2014 die Proceedings erschienen. Sie können über die PACITA-Website kostenlos als PDF heruntergeladen werden und haben ca. 440 Seiten. Die von der EU getragene Konferenz fand im März 2013 in Prag statt. Im Buch ist, was ethische Fragen angeht, insbesondere „Part V – Facing New and Emerging Technologies“ relevant. Von Marie-des-Neiges Ruffo stammt der Beitrag „Why Autonomous Unmanned Aerial Vehicles Will Lose the War“, von Oliver Bendel „Towards Machine Ethics“ (Kapitel „Emerging Technologies and Ethics“). Im Kapitel „Privacy Aspects“ finden sich u.a. die Beiträge „Locating, Tracking and Tracing“ von Lorenz M. Hilty et al. und „Privacy Aspects of Social Networks – An Overview“ von Stefan Strauß und Michael Nentwich. Der Band kann auch in gedruckter Form erworben werden. Weitere Informationen über die PACITA-Website.

Drohne

Abb.: Drohne im Anflug

Industrie 4.0 im Wissenschaftsjahr 2014 der Bundesregierung

Das deutsche Bundesministerium für Bildung und Forschung führt derzeit das Projekt Wissenschaftsjahr 2014 durch und betreibt die dazugehörige Website www.digital-ist.de. Für diese wurden Experten angefragt, die sich zu aktuellen Themen äußern und ihre eigene Forschung vorstellen, zur Industrie 4.0 etwa Reimund Neugebauer (Präsident der Fraunhofer-Gesellschaft), Klaus Mainzer (Ordinarius am Lehrstuhl für Philosophie und Wissenschaftstheorie der TU München und Wissenschaftlicher Direktor der Carl von Linde-Akademie) und Oliver Bendel (Professor für Wirtschaftsinformatik und Informationsethik an der Hochschule für Wirtschaft FHNW). Der Beitrag „Maschinenethik in der Industrie 4.0: Plädoyer für einfache moralische Maschinen“ von Oliver Bendel beginnt mit den Worten: „Die Roboter sind unter uns. In unseren Wohnungen, als Fensterputz- und Staubsaugerroboter, in unseren Straßen, als Fahrerassistenzsysteme und selbstständig fahrende Autos, in der Luft, als zivile und militärische Drohnen – und in unseren Fabriken, wo sie ihre angestammten Plätze verlassen und sich unter die Arbeiterinnen und Arbeiter mischen. Sie sind ferngesteuert, (teil-)autonom und mehr oder weniger intelligent. Man kann sie verbieten und bekriegen. Oder in soziale und moralische Maschinen verwandeln.“

Das GOODBOT-Projekt

Wie könnte die angemessene Reaktion eines Chatbots auf heikle Fragen und Aussagen – vorgetragen etwa in Lebenskrisen des Benutzers – aussehen? Wie müsste ein GOODBOT, ein im moralischen Sinne gut und richtig entscheidender und kommunizierender Bot, konzipiert sein, und wie könnte er umgesetzt werden? Diese Fragen bildeten den Ausgangspunkt für ein Praxisprojekt im Kontext der Maschinenethik, das von Oliver Bendel initiiert und von den Studierenden Christian Horn, Mario Moser und Justin Toubia zwischen Juni 2013 und Januar 2014 bearbeitet wurde. Ziel war die Schaffung eines Prototyps, der in Folgeprojekten weiterentwickelt und in den Markt gebracht werden kann. Im GOODBOT werden vielversprechende Ansätze miteinander verbunden und neuartige Strategien entwickelt. Die Studierenden hatten die Idee, mit drei Eskalationsstufen zu arbeiten. Die Aussagen und Fragen des Benutzers werden gewichtet. Wenn der Bot Probleme feststellt, fragt er vorsichtig nach. Wenn sich sein negativer Eindruck verstärkt, spricht er Mut zu und fragt weiter nach. Wenn er merkt, dass sich eine Katastrophe anbahnt, hilft er mit dem Aufruf von Beratungsseiten und mit passenden Notfallnummern. Weitere Informationen zum Projekt enthält eine aktuelle Pressemitteilung der Hochschule für Wirtschaft FHNW.

Verbot 5 Script Tester

Abb.: Aus der Dokumentation des Projekts

Ich bremse auch für Tiere

Der Artikel „Ich bremse auch für Tiere: Überlegungen zu einfachen moralischen Maschinen“ von Oliver Bendel ist am 4. Dezember 2013 in inside-it.ch erschienen (direkt über www.inside-it.ch/post/ich-bremse-auch-fuer-tiere-20131204). Er hebt an mit den Worten: „Wie kann man gute Autos noch besser machen? Oder gute Drucker? Oder gute Sauger? Indem man ihnen Manieren und Moral beibringt. Für das eine ist der Knigge zuständig, für das andere die Philosophie – seit nunmehr 2500 Jahren.“ Es wird kurz erläutert, was Maschinenethik ist und was „Moralisieren“ im vorliegenden Kontext bedeutet – dann werden verschiedene Beispiele genannt, die teilweise auch für IT-Unternehmen relevant sind und mehrheitlich mit dem Leben oder dem Tod von Menschen und Tieren zu tun haben. Konkret werden Chatbots, Haushalts- und Gartenroboter, private Drohnen, selbstständig fahrende Autos, Windkraftanlagen und 3D-Drucker aus Sicht der Maschinenethik skizziert. Damit denkt der Autor das Konzept der einfachen moralischen Maschinen weiter, das er auf der Plattform KMU Business World entwickelt hatte. Der Beitrag endet mit dem Satz: „Jedes (teil-)autonome System steht eines Tages vor der gleichen Herausforderung. Es kann gut sein und bleiben – oder es kann besser werden, als Teil einer technischen und moralischen Evolution.“

Abb.: Ich bremse auch für Tiere

Drohnen schonen Vögel

Die Website trendexplorer.com hat im Oktober 2013 über eine kommerziell genutzte Drohne mit interessanten Fähigkeiten berichtet. „Der australische Buchverleih Zookal hat in Sydney damit begonnen, Fachbücher mittels selbst navigierender Drohnen an die Kunden auszuliefern.“ (Website trendexplorer.com) Die Unmanned Air Vehicles (UAV) seien von der University of Sydney entwickelt worden. Sie „verfügen über eine GPS-Navigation und ein Antikollisionssystem“ (Website trendexplorer.com). Damit können sie beliebigen Hindernissen ausweichen, etwa – so die Autoren – „Vögeln, Bäumen und Hauswänden“. Es wird also keine eigentliche moralische Entscheidung getroffen, aber die Entscheidung hat moralische Konsequenzen: Die Drohne verschont tierisches Leben (und verlängert damit ihre eigene Existenz). Die Zustellung der Bücher erfolgt nach Angaben von trendexplorer.com binnen weniger Stunden und „ist um ein Drittel günstiger als andere Arten von Same-Day-Lieferservices“ (Website trendexplorer.com). Im deutschsprachigen Raum werden einige tausend private und kommerzielle Drohnen betrieben. Sollten sich diese weiterhin stark vermehren, müssten sie teilweise als eigentliche moralische Maschinen umgesetzt werden.

Abb.: Eingesetzt werden Quadrokopter

Der Lügenbot und andere Münchhausen-Maschinen

In seinem Artikel „Der Lügenbot und andere Münchhausen-Maschinen“ geht Oliver Bendel der Frage nach, ob Chatbots, Roboter und andere Maschinen lügen können. Dabei betont er die Sprachlichkeit des Lügens. Wer etwas sagen kann, so der Autor, der kann auch die Unwahrheit sagen. Den meisten Maschinen unterstellen wir, dass sie die Wahrheit sagen. Wir vertrauen den Aussagen einer Anna von Ikea, einer Siri von Apple und von Wolfram Alpha. Aber alle drei könnten ganz anders, wenn sie – oder ihre Entwickler – wollten. Man könnte Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich irritiert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Artikel ist am 11. September 2013 auf der Plattform CyberPress erschienen und direkt über www.mittelstandswiki.de/wissen/Gastbeitrag:Maschinenethik aufrufbar.

Abb.: Der Baron von Münchhausen

Wenn Autos töten

Filmstudenten der Filmakademie in Ludwigsburg haben eine Abschlussarbeit vorgelegt, mit der Daimler „nicht ganz einverstanden“ (Artikel auf Spiegel Online, 23. August 2013) ist. Das Unternehmen sieht sich plötzlich in einer Diskussion innerhalb der Maschinenethik. Bereits ein Artikel in der Süddeutschen vom 3. Juli 2013 hatte Fragen aufgeworfen. Darin hieß es: „So erkennt die neue S-Klasse beispielsweise durch ein Nachtsichtgerät Tiere bei Dunkelheit, kann sie von Fußgängern unterscheiden und leitet für Menschen gegebenenfalls selbständig ein [!] Vollbremsung ein.“ Daimler (Abteilung Research & Development, Center Vehicle Concepts and Future Trends, Society and Technology Research Group) hat im August 2013 dem Betreiber dieses Blogs auf Anfrage mitgeteilt, dass das Nachtsichtsystem ein rein informierendes System sei. Bremsungen „auf detektierte Objekte“ würden nicht eingeleitet. Wenn dies doch der Fall ist, handelt es sich um eine Entscheidung mit moralischen Implikationen. In dem Video der Studenten erkennt der Mercedes, dass ein kleiner Junge eines Tages viel Unheil anrichten wird – und tötet ihn. Das ist natürlich Science-Fiction, aber man wird auf unterhaltsame Weise ins Zentrum der Maschinenethik geführt. Und wird nicht nur mit eindrücklichen Bildern, sondern auch mit dieser prägnanten Aussage konfrontiert: „Erkennt Gefahren, bevor sie entstehen.“ Der Spiegel schreibt: „Zum Schluss bleiben drei Fragen: Wie sähe die Welt wohl aus, wenn Maschinen eine Seele hätten? Wohin könnte es führen, wenn die Technik Entscheidungen über Leben und Tod trifft? Darf ein entschlusskräftiger Sechszylinder sich über Grundlagen menschlichen Zusammenlebens hinwegsetzen, um die Weltgeschichte zu ändern?“ (Spiegel Online, 23. August 2013)

Einfache moralische Maschinen

Eine Vorabveröffentlichung des Artikels „Einfache moralische Maschinen“ von Oliver Bendel bringt der Blog des Instituts für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW. Moralische Maschinen sind nach der Meinung des Philosophen und Wirtschaftsinformatikers bereits heute möglich. Man dürfe sie nur nicht zu kompliziert denken und zu komplex gestalten. Wenn es sich um spezialisierte autonome oder teilautonome Systeme handele, könne man bei ihren Kernfunktionen ansetzen und sie mit geringfügigen Änderungen, mit wenigen zusätzlichen Komponenten in einfache moralische Maschinen verwandeln. Wie das geschehen kann, wird an vier Beispielen gezeigt, an Servicerobotern, privaten Drohnen, Chatbots und selbstständig fahrenden Autos. Der Artikel erscheint im August 2013 auf der Plattform KMU Business World.

Abb.: Daraus kann man keine moralische Maschine machen

Roboterethik im Gabler Wirtschaftslexikon

Im Gabler Wirtschaftslexikon wird seit 3. Juli 2013 die Roboterethik definiert. Diese kann man sowohl der Maschinen- als auch der Menschenethik zuordnen. In der Roboterethik werde danach gefragt, ob ein Roboter ein Subjekt der Moral sein und wie man diese implementieren kann. Auch der Roboter als Objekt der Moral sowie sein Einfluss auf Menschen sei von Belang. Oliver Bendel erklärt in seinem Beitrag den Begriff der Roboterethik, nimmt die Perspektive der Robotik ein, erwähnt die Robotergesetze von Asimov und gibt eine Einschätzung der Disziplin und einen Ausblick auf ihre weitere Entwicklung. Der Beitrag ist direkt über wirtschaftslexikon.gabler.de/Definition/roboterethik.html abrufbar. Er wurde dem Sachgebiet „Grundlagen der Wirtschaftsinformatik“ zugewiesen. Für das Gabler Wirtschaftslexikon schreiben nach eigenen Angaben über „150 Experten aus Wissenschaft und Praxis“. Mehr als „25.000 Stichwörter stehen kostenlos“ bereit.