Ethik für Roboter

Prof. Dr. Robert Trappl hält am 12. November 2013 am Austrian Research Institute for Artificial Intelligence (OFAI) einen Vortrag mit dem Titel „Ethik für Roboter – ein brisantes Forschungsgebiet“. In der Pressemitteilung heißt es: „Wenn Roboter Partner am Arbeitsplatz werden oder wenn sie für längere Zeit mit älteren Menschen oder Menschen mit speziellen Bedürfnissen zusammenleben werden, um ihnen ein selbstbestimmtes Leben in ihren eigenen Räumen zu ermöglichen, werden durch diese komplexen sozialen Situationen immer häufiger ethische Fragen und deren Beantwortung eine Rolle spielen.“ Im September 2013 waren auf Einladung des OFAI Wissenschaftlerinnen und Wissenschaftler „aus Frankreich, den Niederlanden, Österreich, Portugal, Ungarn und den USA in Wien zusammengekommen, um Voraussetzungen, Methoden, Implementierungen und Tests für ein Entwicklungshandbuch für ethische Systeme für Roboter zu diskutieren“ (Zitat aus der Pressemitteilung). In dem Vortrag wird eine Einführung in das Forschungsgebiet gegeben, und es werden erste Ergebnisse präsentiert. Er findet ab 18.30 Uhr am Institut (Freyung 6, Stiege 6, 1010 Wien, Österreich) statt.

Machine Ethics in the Context of Medical and Care Agents

Steve Torrance, Mark Coeckelbergh, Johnny Soraker, Blay Whitby und Aimee van Wynsberghe haben als Organisationskomitee einen Call for Abstracts mit dem Titel „Machine Ethics in the Context of Medical and Care Agents“ veröffentlicht. Sie schreiben auf der Website der International Society for Presence Research: „We are pleased to announce a Symposium on Machine Ethics in the Context of Medical and Care Agents, as part of the AISB-50 Annual Convention 2014 to be held at Goldsmiths, University of London, between April 1st and 4th, 2014 … The Convention is organised by the Society for the Study of Artificial Intelligence and Simulation of Behaviour (AISB) (http://www.aisb.org.uk).“ Im Programmkomitee sind Michael Anderson, Patrick Lin, Wendell Wallach und andere Pioniere der Maschinenethik. Schwerpunkte sind u.a. „Theoretical issues in Machine Ethics/Ethics of Robotics, concerning MCAs“, „Practical issues in Machine Ethics/Ethics of Robotics, with respect to the health and social care fields“ und „The nature, scope and limitations of MCAs: immediate, medium and long-term issues“. Beiträge können bis zum 3. Januar 2014 eingereicht werden. Weitere Informationen über http://ispr.info.

Drohnen schonen Vögel

Die Website trendexplorer.com hat im Oktober 2013 über eine kommerziell genutzte Drohne mit interessanten Fähigkeiten berichtet. „Der australische Buchverleih Zookal hat in Sydney damit begonnen, Fachbücher mittels selbst navigierender Drohnen an die Kunden auszuliefern.“ (Website trendexplorer.com) Die Unmanned Air Vehicles (UAV) seien von der University of Sydney entwickelt worden. Sie „verfügen über eine GPS-Navigation und ein Antikollisionssystem“ (Website trendexplorer.com). Damit können sie beliebigen Hindernissen ausweichen, etwa – so die Autoren – „Vögeln, Bäumen und Hauswänden“. Es wird also keine eigentliche moralische Entscheidung getroffen, aber die Entscheidung hat moralische Konsequenzen: Die Drohne verschont tierisches Leben (und verlängert damit ihre eigene Existenz). Die Zustellung der Bücher erfolgt nach Angaben von trendexplorer.com binnen weniger Stunden und „ist um ein Drittel günstiger als andere Arten von Same-Day-Lieferservices“ (Website trendexplorer.com). Im deutschsprachigen Raum werden einige tausend private und kommerzielle Drohnen betrieben. Sollten sich diese weiterhin stark vermehren, müssten sie teilweise als eigentliche moralische Maschinen umgesetzt werden.

Abb.: Eingesetzt werden Quadrokopter

Dr. Robot entdeckt die Moral

Operations-, Pflege-, Therapie- und Sexroboter verbreiten sich rasant. Sie operieren, behandeln, betreuen, kuscheln und plaudern. Maschinen- und Roboterethik fragen danach, wie man diese Roboter in moralischer Hinsicht verbessern kann. Und verschiedene Bereichsethiken danach, ob es moralisch vertretbar ist, dass wir solche Maschinen einsetzen. Der Artikel „Dr. Robot entdeckt die Moral“ von Oliver Bendel ist im Herbst 2013 in der Schweizer Zeitschrift IT for Health erschienen und steht auf maschinenethik.net mit freundlicher Genehmigung des Verlags kostenlos zum Download bereit (Quelle: © Netzmedien AG, 2013; eine weitere Zeitschrift aus dem Haus ist die Netzwoche, www.netzwoche.ch).

Maschinenmedizinethik

Abb.: Infobox aus dem Artikel

Der Lügenbot und andere Münchhausen-Maschinen

In seinem Artikel „Der Lügenbot und andere Münchhausen-Maschinen“ geht Oliver Bendel der Frage nach, ob Chatbots, Roboter und andere Maschinen lügen können. Dabei betont er die Sprachlichkeit des Lügens. Wer etwas sagen kann, so der Autor, der kann auch die Unwahrheit sagen. Den meisten Maschinen unterstellen wir, dass sie die Wahrheit sagen. Wir vertrauen den Aussagen einer Anna von Ikea, einer Siri von Apple und von Wolfram Alpha. Aber alle drei könnten ganz anders, wenn sie – oder ihre Entwickler – wollten. Man könnte Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich irritiert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Artikel ist am 11. September 2013 auf der Plattform CyberPress erschienen und direkt über www.mittelstandswiki.de/wissen/Gastbeitrag:Maschinenethik aufrufbar.

Abb.: Der Baron von Münchhausen

Asimovs Automatobile

In seiner Kurzgeschichte „Sally“ aus dem Jahre 1953 beschreibt Isaac Asimov in visionärer Weise die Funktionen sowie die Chancen und Risiken selbstständig fahrender Autos. Heute nehmen Assistenzsysteme von Bosch und Continental dem Lenker immer mehr Aktionen ab. Das selbstständig fahrende Auto ist morgen nicht mehr Prototyp, sondern Alltag. Es wird in Situationen geraten, in denen moralische Fähigkeiten von Vorteil sind. Man wird bei Asimov bereits mit Problemen konfrontiert, die in der Maschinenethik diskutiert werden. Oliver Bendel wirft in seinem Beitrag „Asimovs Automatobile“ – erschienen am 27. August 2013 im Online-Magazin Telepolis – einen Blick in die Vergangenheit der Fiktion und die Zukunft der Wirklichkeit. Und fragt sich: „Wer bleibt am Ende des Tages auf der Strecke?“

Abb.: Ein Cabrio wie Sally

Wenn Autos töten

Filmstudenten der Filmakademie in Ludwigsburg haben eine Abschlussarbeit vorgelegt, mit der Daimler „nicht ganz einverstanden“ (Artikel auf Spiegel Online, 23. August 2013) ist. Das Unternehmen sieht sich plötzlich in einer Diskussion innerhalb der Maschinenethik. Bereits ein Artikel in der Süddeutschen vom 3. Juli 2013 hatte Fragen aufgeworfen. Darin hieß es: „So erkennt die neue S-Klasse beispielsweise durch ein Nachtsichtgerät Tiere bei Dunkelheit, kann sie von Fußgängern unterscheiden und leitet für Menschen gegebenenfalls selbständig ein [!] Vollbremsung ein.“ Daimler (Abteilung Research & Development, Center Vehicle Concepts and Future Trends, Society and Technology Research Group) hat im August 2013 dem Betreiber dieses Blogs auf Anfrage mitgeteilt, dass das Nachtsichtsystem ein rein informierendes System sei. Bremsungen „auf detektierte Objekte“ würden nicht eingeleitet. Wenn dies doch der Fall ist, handelt es sich um eine Entscheidung mit moralischen Implikationen. In dem Video der Studenten erkennt der Mercedes, dass ein kleiner Junge eines Tages viel Unheil anrichten wird – und tötet ihn. Das ist natürlich Science-Fiction, aber man wird auf unterhaltsame Weise ins Zentrum der Maschinenethik geführt. Und wird nicht nur mit eindrücklichen Bildern, sondern auch mit dieser prägnanten Aussage konfrontiert: „Erkennt Gefahren, bevor sie entstehen.“ Der Spiegel schreibt: „Zum Schluss bleiben drei Fragen: Wie sähe die Welt wohl aus, wenn Maschinen eine Seele hätten? Wohin könnte es führen, wenn die Technik Entscheidungen über Leben und Tod trifft? Darf ein entschlusskräftiger Sechszylinder sich über Grundlagen menschlichen Zusammenlebens hinwegsetzen, um die Weltgeschichte zu ändern?“ (Spiegel Online, 23. August 2013)

Konferenz Living Machines 2013

Vom 29. Juli bis zum 2. August 2013 fand im Natural History Museum von London zum zweiten Mal die Konferenz Living Machines statt. Die Macher schreiben auf ihrer Website: „This international conference is a Convergent Science Network event and is targeted at the intersection of research on novel life-like technologies inspired by the scientific investigation of biological systems – biomimetics, and research that seeks to interface biological and artificial systems to create biohybrid systems.“ Vorgestellt wurde unter anderem ein Plantoid, ein Pflanzenroboter, der Wurzeln bildet, entwickelt von Barbara Mazzolai vom Italian Institute of Technology (IIT) in Genua. Ein möglicher Einsatzbereich ist die Überwachung der Umwelt, etwa der Bodenzusammensetzung. Ebenfalls vorgestellt wurde der Vierbeiner HyQ, der rasch auf Hindernisse reagieren und recht elegant über sie hinwegsteigen kann. Aus Sicht der Maschinenethik stellt sich die Frage, ob man Robotern, die Pflanzen und Tieren nachempfunden sind, moralische Fähigkeiten verleihen sollte. Grundsätzlich spricht nichts dagegen, zumal moralische Fähigkeiten auch in Bezug auf selbstständig fahrende Autos und Algo-Trading-Systeme diskutiert werden. Die Moral der genannten Roboter könnte sich auf die Tiere beziehen, mit denen sie interagieren. Damit wäre auch die Tierethik mit im Boot.

Plantoid

Abb.: Grafik vom Plakat des Projekts (Quelle: www.plantoidproject.eu)

Über die Algorithmenethik

In einem Interview mit der TAZ vom 10. August 2013 spricht Yvonne Hofstetter auch über die Moral von Algorithmen. Die Geschäftsführerin der Teramark Technologies GmbH wird gefragt: „Algorithmen sind im Grunde Roboter. Gibt es für sie eine Ethik?“ Sie antwortet: „Die Technologen beschäftigen sich mit diesen Fragen. Welche Ethik, welche Moralvorstellungen brauchen wir? Was kann man in die Maschinen hinein programmieren? Aus der philosophischen Ecke, also von denen, die sich mit gesellschaftlichen Entwicklungen beschäftigen, kommt hingegen nichts oder wenig. Die Philosophie sieht offenbar noch nicht, dass eine Sturzwelle an intelligenten Technologien auf uns zurollt.“ Nun ist die Maschinenethik in den USA, in Kanada, Australien, Japan und Holland eine weit entwickelte Disziplin, zu der KI-Experten genauso beitragen wie Philosophen. Die Informationsethik, die sich auf die moralischen Implikationen des Einsatzes von Informations- und Kommunikationstechnologien bezieht, ist gar eine traditionsreiche Disziplin, auch in Bezug auf Algorithmen und Maschinen. Es ist aber in der Tat so, dass im deutschsprachigen Raum erheblicher Nachholbedarf besteht, dass die Ethik von Lobbyorganisationen bekämpft und von Kirchen missbraucht wird. Grundsätzlich muss man unterscheiden zwischen der Maschinenethik (begriffen als Pendant zur Menschenethik) und der Informationsethik, die Computer-, Netz- und Neue-Medien-Ethik umfasst. Beide sind wichtig, wobei die eine eher technologiegestaltend, die andere eher problemanalysierend und lebensgestaltend unterwegs ist und in gewisser Weise gilt: Die Informationsethik löst die Probleme, die die Maschinenethik verursacht.

Einfache moralische Maschinen

Eine Vorabveröffentlichung des Artikels „Einfache moralische Maschinen“ von Oliver Bendel bringt der Blog des Instituts für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW. Moralische Maschinen sind nach der Meinung des Philosophen und Wirtschaftsinformatikers bereits heute möglich. Man dürfe sie nur nicht zu kompliziert denken und zu komplex gestalten. Wenn es sich um spezialisierte autonome oder teilautonome Systeme handele, könne man bei ihren Kernfunktionen ansetzen und sie mit geringfügigen Änderungen, mit wenigen zusätzlichen Komponenten in einfache moralische Maschinen verwandeln. Wie das geschehen kann, wird an vier Beispielen gezeigt, an Servicerobotern, privaten Drohnen, Chatbots und selbstständig fahrenden Autos. Der Artikel erscheint im August 2013 auf der Plattform KMU Business World.

Abb.: Daraus kann man keine moralische Maschine machen

Wie viel Moral braucht eine Maschine?

In ihrem Artikel „Wie viel Moral braucht eine Maschine?“ in der Liechtensteiner Sonntagszeitung namens Liewo gibt Stephanie Büchel einen Überblick über den Stand der Diskussion in der Maschinenethik. Im Fokus sind selbstständig fahrende Autos. Aber auch Kampf-, Operations- und Pflegeroboter sind ein Thema: „Wie bringt man einem Roboter den Unterschied zwischen Gut und Böse bei? Wer ist Schuld, wenn ein Operationsroboter einen Kunstfehler begeht?“ Nicht fehlen darf Isaac Asimov mit seinen Robotergesetzen, die zu den beliebtesten Diskussionsgegenständen in der Maschinenethik gehören. Und die Frage nach den Rechten der Roboter, die nebenbei in der Roboterethik verhandelt werden und noch lange in den Bereich der Science Fiction gehören dürften. Die zentralen Konzepte der Maschinenethik haben dagegen, das zeigt auch die Verfasserin, eine hohe Alltagsrelevanz. Ihr Artikel ist am 2. Juni 2013 erschienen. Sie hat maschinenethik.net freundlicherweise ein PDF zur Verfügung gestellt.

Ein wirklich intelligentes Haus

In den VμE-Nachrichten, die vom Fraunhofer-Verbund Mikroelektronik herausgegeben werden, erschien im Juli 2013 ein Interview zu Informations- und Maschinenethik. Oliver Bendel erklärte, was man sich unter diesen Disziplinen vorstellen kann, ging auf die Einflussmöglichkeiten von Forschern ein und wünschte sich die Stärkung der philosophischen Ethik gegenüber der theologischen bzw. theonomen. Zwei Fragen von Tina Möbius betrafen die Sicht der Informationsethik auf aktuelle Forschungsfelder von Fraunhofer-Instituten, etwa auf Telemedizin und Smart Living. Bendel sprach sich für die informationelle Autonomie von Patienten aus und warnte vor unerwünschten Datentransfers aus den eigenen vier Wänden heraus: „Ein wirklich intelligentes Haus ist eines, das mich nicht in unangenehme Situationen bringt.“ Mit dieser Aussage war man am Ende bei der Maschinenethik angelangt. Die englischsprachige Zeitschrift ist als PDF verfügbar.

Abb.: Kein wirklich intelligentes Haus

Roboterethik im Gabler Wirtschaftslexikon

Im Gabler Wirtschaftslexikon wird seit 3. Juli 2013 die Roboterethik definiert. Diese kann man sowohl der Maschinen- als auch der Menschenethik zuordnen. In der Roboterethik werde danach gefragt, ob ein Roboter ein Subjekt der Moral sein und wie man diese implementieren kann. Auch der Roboter als Objekt der Moral sowie sein Einfluss auf Menschen sei von Belang. Oliver Bendel erklärt in seinem Beitrag den Begriff der Roboterethik, nimmt die Perspektive der Robotik ein, erwähnt die Robotergesetze von Asimov und gibt eine Einschätzung der Disziplin und einen Ausblick auf ihre weitere Entwicklung. Der Beitrag ist direkt über wirtschaftslexikon.gabler.de/Definition/roboterethik.html abrufbar. Er wurde dem Sachgebiet „Grundlagen der Wirtschaftsinformatik“ zugewiesen. Für das Gabler Wirtschaftslexikon schreiben nach eigenen Angaben über „150 Experten aus Wissenschaft und Praxis“. Mehr als „25.000 Stichwörter stehen kostenlos“ bereit.

Artikel zum GOODBOT

Ein Artikel in der UnternehmerZeitung vom 2. Juli 2013 geht auf das GOODBOT-Projekt ein, das im Juni 2013 an der Hochschule für Wirtschaft FHNW gestartet ist. Der „moralische Chatbot“ soll auch auf Selbstmorddrohungen oder Ankündigungen von Amokläufen adäquat reagieren und überhaupt ein angenehmer Zeitgenosse (und trotzdem kein Langweiler) sein. Es werden sieben Regeln genannt, die „hinsichtlich seiner Akte und Sprechakte gegenüber dem Benutzer“ gelten sollen. Dazu gehört auch eine Transparenzregel: „Der GOODBOT macht dem Benutzer klar, dass er eine Maschine ist.“ (Regel 1) Und eine Regel zur Beobachtung: „Der GOODBOT ist kein Spitzel und wertet Gespräche mit dem Benutzer nicht aus.“ (Regel 6) Für das Projekt wurden verschiedene konzeptionelle Vorleistungen wie der Regelkatalog erbracht. Von Juni 2013 bis Januar 2014 arbeiten sich drei Studierende der Hochschule in die Maschinenethik und die Roboterethik ein und entwickeln einen Prototyp. Initiator und Leiter des Projekts ist der Philosoph und Wirtschaftsinformatiker Oliver Bendel. Der Artikel ist in der siebten Ausgabe der UnternehmerZeitung auf den Seiten 30 und 31 zu finden.

GOODBOT-Projekt gestartet

Viele Benutzer mögen Chatbots auf Websites und unterhalten sich gerne mit ihnen. Dabei spielen Produkte und Dienstleistungen meist eine untergeordnete Rolle. Man will das virtuelle Gegenüber ausfragen, mit ihm flirten, es necken und reizen. Wenn man in Schwierigkeiten steckt, will man eine Antwort erhalten, die einen nicht noch mehr entmutigt und verstört. Die meisten Bots sind in dieser Hinsicht völlig überfordert. Auf Selbstmorddrohungen oder Ankündigungen von Amokläufen reagieren sie inadäquat. In einem Projekt an der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz FHNW wird unter der Leitung von Oliver Bendel eine moralische Maschine besonderer Art, nämlich ein sogenannter GOODBOT, konzipiert und prototypisch implementiert. Zunächst werden theoretische Grundlagen im Kontext der Maschinenethik erarbeitet. Es interessiert unter anderem, welche normativen Modelle maschinell verarbeitbar sind. Dann werden ausgewählte Chatbots auf Websites sowie Sprachassistenten wie Siri analysiert und verglichen sowie Erkenntnisse zu Systemen solcher Art gewonnen. Ein vorhandener Regelkatalog soll daraufhin überprüft werden, ob er in einem regelbasierten System umgesetzt bzw. wie er angepasst werden kann. Nicht nur Top-down-, sondern auch Bottom-up-Ansätze sollen erwogen werden. Zudem ist relevant, inwieweit soziale Medien und leibhaftige Menschen moralische Referenzpunkte bilden können. Das Projekt hat im Juni 2013 begonnen. Informationen zum Initiator und Projektleiter über http://www.fhnw.ch/personen/oliver-bendel.

Abb.: (Ro-)Bots müssen gut zu Menschen sein

Können Roboter lügen?

Das Buch „Können Roboter lügen?“ von Raúl Rojas enthält „Essays zur Robotik und Künstlichen Intelligenz“, die von 2011 bis 2013 in der Online-Zeitschrift Telepolis erschienen sind. Rojas ist Professor für Künstliche Intelligenz an der Freien Universität Berlin. Im Kontext der Maschinenethik (und der Roboterethik) ist vor allem der dritte Teil interessant. Im Vorwort heißt es: „Der dritte Teil über Robotik und KI gibt einen Einblick in die Arbeit, die in den letzten Jahren auf diesem Gebiet geleistet worden ist. Wir wären froh, mit Robotern die Eleganz eines Insekts bei der Bewältigung von Hindernissen zu erreichen. Wir können aber schon heute kleine und große Roboter – z.B. autonome Fahrzeuge – mit kognitiven Architekturen ausstatten, die eine effiziente und nützliche Funktionalität erlauben. Die Kapitel über Roboter, die lügen, bzw. über das Watson-System zeigen die zwei Seiten der Medaille: Wie weit die künstliche Intelligenz gekommen ist und wie weit entfernt sie doch noch vom Ziel bleibt.“ Rojas gelangt zum Schluss: „Roboter kennen die Wahrheit nicht, deswegen können sie nicht lügen.“ Das Buch wurde Ende Mai 2013 im Heise Zeitschriften Verlag veröffentlicht und ist u.a. in der Kindle-Edition erhältlich.