Das GOODBOT-Projekt

Wie könnte die angemessene Reaktion eines Chatbots auf heikle Fragen und Aussagen – vorgetragen etwa in Lebenskrisen des Benutzers – aussehen? Wie müsste ein GOODBOT, ein im moralischen Sinne gut und richtig entscheidender und kommunizierender Bot, konzipiert sein, und wie könnte er umgesetzt werden? Diese Fragen bildeten den Ausgangspunkt für ein Praxisprojekt im Kontext der Maschinenethik, das von Oliver Bendel initiiert und von den Studierenden Christian Horn, Mario Moser und Justin Toubia zwischen Juni 2013 und Januar 2014 bearbeitet wurde. Ziel war die Schaffung eines Prototyps, der in Folgeprojekten weiterentwickelt und in den Markt gebracht werden kann. Im GOODBOT werden vielversprechende Ansätze miteinander verbunden und neuartige Strategien entwickelt. Die Studierenden hatten die Idee, mit drei Eskalationsstufen zu arbeiten. Die Aussagen und Fragen des Benutzers werden gewichtet. Wenn der Bot Probleme feststellt, fragt er vorsichtig nach. Wenn sich sein negativer Eindruck verstärkt, spricht er Mut zu und fragt weiter nach. Wenn er merkt, dass sich eine Katastrophe anbahnt, hilft er mit dem Aufruf von Beratungsseiten und mit passenden Notfallnummern. Weitere Informationen zum Projekt enthält eine aktuelle Pressemitteilung der Hochschule für Wirtschaft FHNW.

Verbot 5 Script Tester

Abb.: Aus der Dokumentation des Projekts

Intelligent Agents

Ein Workshop an der Universität Basel in englischer Sprache ist nicht nur für Juristen, sondern auch für Maschinenethiker interessant. „Intelligent Agents – eine juristische Herausforderung“ lautet der Titel. Von selbstständig fahrenden Autos ist die Rede und von Softwareagenten. Auf der Website ist zu lesen: „Der Einsatz solcher Software wirft jedoch zahlreiche rechtliche Probleme auf: Wer ist für Aktionen von eigenständigen Maschinen verantwortlich? Wer haftet, wenn dadurch Menschen zu Schaden kommen? Und wem gehören die Daten, die beim Einsatz dieser Maschinen tagtäglich generiert werden?“ Der Workshop am 7. Februar 2014 wird organisiert von Prof. Dr. Sabine Gless und Prof. Dr. Herbert Zech von der Juristischen Fakultät der Universität Basel in Zusammenarbeit mit dem Swiss Network for International Studies und setzt sich mit rechtlichen Aspekten von Software auseinander, die – auch im Zusammenwirken mit Hardware verschiedener Art – „zu selbstständigem Handeln fähig ist“. Die Teilnahme ist nach Angaben der Hochschule kostenlos, eine Anmeldung per E-Mail bis zum 31. Januar erforderlich, und zwar über die Adresse communication@snis.ch. Weitere Informationen sind über die Agenda auf der Website erhältlich.

Quadrocopter with camera

Abb.: Quadrocopter

Rethinking Machine Ethics

Ein Call for Chapters zum Thema „Rethinking Machine Ethics in the Age of Ubiquitous Technology“ richtet sich u.a. an Philosophen, Informatiker, Robotiker und KI-Experten. Herausgeber des Buchs wird Jeffrey White vom Korean Advanced Institute of Science and Technology (KAIST) sein. Die Ziele werden auf der Website www.igi-global.com wie folgt beschrieben: „The present volume aims to bind together forward-looking constructive and interdisciplinary visions of moral/ethical ideals, aims, and applications of machine technology, either as extensions of ongoing engineering research or as theoretical approaches to moral/ethical problems employing machine ethics resources within the vast moral landscape confronting machine ethics researchers.“ Ein Abstract muss bis zum 28. Februar 2014 eingereicht werden. Weitere Informationen direkt über www.igi-global.com/publish/call-for-papers/call-details/1227.

Das Tier als Objekt der Moral der Maschine

Der Artikel „Das Tier als Objekt der Moral der Maschine“ von Oliver Bendel ist am 2. Januar 2014 in Telepolis erschienen. Die Beziehung zwischen Tier und Maschine – so heißt es im Teaser – kann in verschiedenen Bereichsethiken untersucht werden, etwa in Tier-, Technik- und Informationsethik. Die Maschinenethik – hier verstanden als Pendant zur Menschenethik – sei eine junge Disziplin und konzentriere sich bisher auf das Verhältnis zwischen Maschine und Mensch. Angesichts der Tatsache, dass die Zahl der (teil-)autonomen Systeme immer mehr zunimmt und von ihren selbstständig getroffenen Entscheidungen immer mehr Tiere betroffen sind, ist nach Oliver Bendel eine Beschäftigung mit den entstehenden Chancen und Risiken und eine Zusammenarbeit zwischen Tier- und Maschinenethik unumgänglich. Der Artikel kann direkt über http://www.heise.de/tp/artikel/40/40684/ aufgerufen werden.

Abb.: Auch ein Hase ist ein Objekt der Moral

MOOC zu autonomen mobilen Robotern

Am 14. Februar 2014 startet der MOOC „Autonomous Mobile Robots: Introduction to Autonomous Mobile Robots – basic concepts and algorithms for locomotion, perception, and intelligent navigation“. In der Beschreibung auf der Website heißt es: „Robots are rapidly evolving from factory workhorses, which are physically bound to their work-cells, to increasingly complex machines capable of performing challenging tasks in our daily environment. The objective of this course is to provide the basic concepts and algorithms required to develop mobile robots that act autonomously in complex environments. The main emphasis is put on mobile robot locomotion and kinematics, environment perception, probabilistic map based localization and mapping, and motion planning.“ Der Kurs wird u.a. von Prof. Dr. Roland Siegwart, Dr. Paul Furgale und Dr. Margarita Chli geleitet. Er dauert 15 Wochen, bei einer Arbeitsbelastung von fünf Stunden pro Woche. Ob auch auf Maschinen- oder Roboterethik eingegangen wird, ist nicht bekannt.

Die Verbindung von Tier- und Maschinenethik

In der Zeitschrift „Artificial Intelligence & Society“ ist im Dezember 2013 der Artikel „Considerations about the relationship between animal and machine ethics“ von Oliver Bendel erschienen. Es ist einer der ersten Beiträge, der Tierethik und Maschinenethik in einen Zusammenhang stellt. Im Abstract heißt es: „Ethics researches morality in respect to humans and animals. Usually, it implies human morality; therefore, the focus is on human–human relationships (generally in ethics) and human–animal relationships (in animal ethics). Ethics can also deal with the morality of machines such as unmanned aerial vehicles, robots and agents or of self-driving cars and computers in automated trading, in other words more or less autonomous systems and programs.“ Auf solche Systeme wird eingegangen, aber nicht im Verhältnis zum Menschen, sondern zum Tier. Und das ist innerhalb der Maschinenethik neu: „Machine ethics almost exclusively concentrates on machine–human relationships rather than on machine–animal relationships. Before this background, this article contributes some basic considerations about the relationship between animal and machine ethics.“ Am Rande wird eine Disziplin der Tier-Maschine-Interaktion (Animal-Machine Interaction) vorgeschlagen. „Considerations about the relationship between animal and machine ethics“ ist als „Online-First“-Beitrag auf SpringerLink verfügbar.

Tweets auch zur Maschinenethik

Einer der aktivsten Twitter-Accounts zur Ethik ist „Informationsethik“ mit dem Benutzernamen @Infoethik. In der Kurzbeschreibung heißt es: „Infos zur Informationsethik (Computer-, Netz- und Neue-Medien-Ethik) sowie zu Maschinen-, Technik-, Wirtschafts-, Politik-, Medizin- und Tierethik.“ Es handelt sich um einen klassischen Kurznachrichtendienst, der auf Artikel, Studien und Veranstaltungen hinweist. Die Tweets haben einen strengen Aufbau: Auf den zitierten Titel folgt der Link zum Beitrag, darauf eine Zusammenfassung, die häufig ein weiteres Zitat enthält. In seltenen Fällen steht anstelle der Zusammenfassung ein Kommentar. Jeder Tweet wird verschlagwortet, i.d.R. mit Hashtags zu den Bereichsethiken wie #Informationsethik und #Maschinenethik (als Teilbereichsethik bzw. Pendant zur Menschenethik). „Informationsethik“ ist wie die Plattformen informationsethik.info, informationsethik.net und maschinenethik.net der philosophischen, wissenschaftlichen Ethik verpflichtet.

MOOC zur Technikethik

Der Coursera-Kurs „Technology and Ethics“ von Robert Bailey (The Ohio State University) findet ab 21. April 2014 statt und dauert sieben Wochen. Das Arbeitspensum beträgt laut Anbieter 3 bis 5 Stunden pro Woche, die Sprache ist Englisch. Der Kursinhalt wird wie folgt beschrieben: „Example technologies at play today include nuclear energy; biological manipulations for warfare; robots for taking care of the elderly, and enhancing human capability; the use of technology for surveillance; the cultural changing power of the media which can create unlimited arrays of images real and virtual to support a point of view; and the internet with its world wide connectivity.“ (Website des Anbieters) Ob im Falle der Pflege- und Haushaltsroboter auch die Maschinenethik einbezogen wird, ist nicht bekannt. Die Medizinethik wird sicherlich berücksichtigt. Weitere Informationen über https://www.coursera.org/course/techethics.

Ich bremse auch für Tiere

Der Artikel „Ich bremse auch für Tiere: Überlegungen zu einfachen moralischen Maschinen“ von Oliver Bendel ist am 4. Dezember 2013 in inside-it.ch erschienen (direkt über www.inside-it.ch/post/ich-bremse-auch-fuer-tiere-20131204). Er hebt an mit den Worten: „Wie kann man gute Autos noch besser machen? Oder gute Drucker? Oder gute Sauger? Indem man ihnen Manieren und Moral beibringt. Für das eine ist der Knigge zuständig, für das andere die Philosophie – seit nunmehr 2500 Jahren.“ Es wird kurz erläutert, was Maschinenethik ist und was „Moralisieren“ im vorliegenden Kontext bedeutet – dann werden verschiedene Beispiele genannt, die teilweise auch für IT-Unternehmen relevant sind und mehrheitlich mit dem Leben oder dem Tod von Menschen und Tieren zu tun haben. Konkret werden Chatbots, Haushalts- und Gartenroboter, private Drohnen, selbstständig fahrende Autos, Windkraftanlagen und 3D-Drucker aus Sicht der Maschinenethik skizziert. Damit denkt der Autor das Konzept der einfachen moralischen Maschinen weiter, das er auf der Plattform KMU Business World entwickelt hatte. Der Beitrag endet mit dem Satz: „Jedes (teil-)autonome System steht eines Tages vor der gleichen Herausforderung. Es kann gut sein und bleiben – oder es kann besser werden, als Teil einer technischen und moralischen Evolution.“

Abb.: Ich bremse auch für Tiere

Buridans Robot

Buridans Esel ist in der ursprünglichen Version von Aristoteles ein Mann, der zwischen Speis und Trank verenden muss, weil er genauso hungrig wie durstig ist. Schon dieser Mann ist offensichtlich ein Esel, weil er sich nicht zwischen verschiedenen Dingen mit gleichen Reizen entscheiden kann. Buridan selbst, der zu Unrecht als Urheber des Gleichnisses gilt, spricht von einem Wanderer und einem Segler, in einem Kommentar zu einem Text des alten Griechen auch von einem Hund, der zwei Lebensmittel – um es frei zu übertragen – ratlos beäugt und beschnuppert. Das Grautier haben vermutlich die Gegner des Philosophen und Physikers aus dem 14. Jahrhundert erfunden, um die vermeintliche Eselei zu veranschaulichen. Es handelt sich aber keineswegs um eine solche, sondern um ein Gedankenexperiment, das bis heute von Interesse und Bedeutung ist. Dieses Experiment wird im Artikel „Buridans Robot“ von Oliver Bendel in der modernen Welt durchgeführt. Es geht um maschinelle Dilemmata und mögliche Lösungsstrategien. Der Artikel ist am 20. November 2013 bei Telepolis erschienen.

Abb.: Ist das Buridans Esel?

Ethik für Roboter

Prof. Dr. Robert Trappl hält am 12. November 2013 am Austrian Research Institute for Artificial Intelligence (OFAI) einen Vortrag mit dem Titel „Ethik für Roboter – ein brisantes Forschungsgebiet“. In der Pressemitteilung heißt es: „Wenn Roboter Partner am Arbeitsplatz werden oder wenn sie für längere Zeit mit älteren Menschen oder Menschen mit speziellen Bedürfnissen zusammenleben werden, um ihnen ein selbstbestimmtes Leben in ihren eigenen Räumen zu ermöglichen, werden durch diese komplexen sozialen Situationen immer häufiger ethische Fragen und deren Beantwortung eine Rolle spielen.“ Im September 2013 waren auf Einladung des OFAI Wissenschaftlerinnen und Wissenschaftler „aus Frankreich, den Niederlanden, Österreich, Portugal, Ungarn und den USA in Wien zusammengekommen, um Voraussetzungen, Methoden, Implementierungen und Tests für ein Entwicklungshandbuch für ethische Systeme für Roboter zu diskutieren“ (Zitat aus der Pressemitteilung). In dem Vortrag wird eine Einführung in das Forschungsgebiet gegeben, und es werden erste Ergebnisse präsentiert. Er findet ab 18.30 Uhr am Institut (Freyung 6, Stiege 6, 1010 Wien, Österreich) statt.

Machine Ethics in the Context of Medical and Care Agents

Steve Torrance, Mark Coeckelbergh, Johnny Soraker, Blay Whitby und Aimee van Wynsberghe haben als Organisationskomitee einen Call for Abstracts mit dem Titel „Machine Ethics in the Context of Medical and Care Agents“ veröffentlicht. Sie schreiben auf der Website der International Society for Presence Research: „We are pleased to announce a Symposium on Machine Ethics in the Context of Medical and Care Agents, as part of the AISB-50 Annual Convention 2014 to be held at Goldsmiths, University of London, between April 1st and 4th, 2014 … The Convention is organised by the Society for the Study of Artificial Intelligence and Simulation of Behaviour (AISB) (http://www.aisb.org.uk).“ Im Programmkomitee sind Michael Anderson, Patrick Lin, Wendell Wallach und andere Pioniere der Maschinenethik. Schwerpunkte sind u.a. „Theoretical issues in Machine Ethics/Ethics of Robotics, concerning MCAs“, „Practical issues in Machine Ethics/Ethics of Robotics, with respect to the health and social care fields“ und „The nature, scope and limitations of MCAs: immediate, medium and long-term issues“. Beiträge können bis zum 3. Januar 2014 eingereicht werden. Weitere Informationen über http://ispr.info.

Drohnen schonen Vögel

Die Website trendexplorer.com hat im Oktober 2013 über eine kommerziell genutzte Drohne mit interessanten Fähigkeiten berichtet. „Der australische Buchverleih Zookal hat in Sydney damit begonnen, Fachbücher mittels selbst navigierender Drohnen an die Kunden auszuliefern.“ (Website trendexplorer.com) Die Unmanned Air Vehicles (UAV) seien von der University of Sydney entwickelt worden. Sie „verfügen über eine GPS-Navigation und ein Antikollisionssystem“ (Website trendexplorer.com). Damit können sie beliebigen Hindernissen ausweichen, etwa – so die Autoren – „Vögeln, Bäumen und Hauswänden“. Es wird also keine eigentliche moralische Entscheidung getroffen, aber die Entscheidung hat moralische Konsequenzen: Die Drohne verschont tierisches Leben (und verlängert damit ihre eigene Existenz). Die Zustellung der Bücher erfolgt nach Angaben von trendexplorer.com binnen weniger Stunden und „ist um ein Drittel günstiger als andere Arten von Same-Day-Lieferservices“ (Website trendexplorer.com). Im deutschsprachigen Raum werden einige tausend private und kommerzielle Drohnen betrieben. Sollten sich diese weiterhin stark vermehren, müssten sie teilweise als eigentliche moralische Maschinen umgesetzt werden.

Abb.: Eingesetzt werden Quadrokopter

Dr. Robot entdeckt die Moral

Operations-, Pflege-, Therapie- und Sexroboter verbreiten sich rasant. Sie operieren, behandeln, betreuen, kuscheln und plaudern. Maschinen- und Roboterethik fragen danach, wie man diese Roboter in moralischer Hinsicht verbessern kann. Und verschiedene Bereichsethiken danach, ob es moralisch vertretbar ist, dass wir solche Maschinen einsetzen. Der Artikel „Dr. Robot entdeckt die Moral“ von Oliver Bendel ist im Herbst 2013 in der Schweizer Zeitschrift IT for Health erschienen und steht auf maschinenethik.net mit freundlicher Genehmigung des Verlags kostenlos zum Download bereit (Quelle: © Netzmedien AG, 2013; eine weitere Zeitschrift aus dem Haus ist die Netzwoche, www.netzwoche.ch).

Maschinenmedizinethik

Abb.: Infobox aus dem Artikel

Der Lügenbot und andere Münchhausen-Maschinen

In seinem Artikel „Der Lügenbot und andere Münchhausen-Maschinen“ geht Oliver Bendel der Frage nach, ob Chatbots, Roboter und andere Maschinen lügen können. Dabei betont er die Sprachlichkeit des Lügens. Wer etwas sagen kann, so der Autor, der kann auch die Unwahrheit sagen. Den meisten Maschinen unterstellen wir, dass sie die Wahrheit sagen. Wir vertrauen den Aussagen einer Anna von Ikea, einer Siri von Apple und von Wolfram Alpha. Aber alle drei könnten ganz anders, wenn sie – oder ihre Entwickler – wollten. Man könnte Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich irritiert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Artikel ist am 11. September 2013 auf der Plattform CyberPress erschienen und direkt über www.mittelstandswiki.de/wissen/Gastbeitrag:Maschinenethik aufrufbar.

Abb.: Der Baron von Münchhausen

Asimovs Automatobile

In seiner Kurzgeschichte „Sally“ aus dem Jahre 1953 beschreibt Isaac Asimov in visionärer Weise die Funktionen sowie die Chancen und Risiken selbstständig fahrender Autos. Heute nehmen Assistenzsysteme von Bosch und Continental dem Lenker immer mehr Aktionen ab. Das selbstständig fahrende Auto ist morgen nicht mehr Prototyp, sondern Alltag. Es wird in Situationen geraten, in denen moralische Fähigkeiten von Vorteil sind. Man wird bei Asimov bereits mit Problemen konfrontiert, die in der Maschinenethik diskutiert werden. Oliver Bendel wirft in seinem Beitrag „Asimovs Automatobile“ – erschienen am 27. August 2013 im Online-Magazin Telepolis – einen Blick in die Vergangenheit der Fiktion und die Zukunft der Wirklichkeit. Und fragt sich: „Wer bleibt am Ende des Tages auf der Strecke?“

Abb.: Ein Cabrio wie Sally