Filmstudenten der Filmakademie in Ludwigsburg haben eine Abschlussarbeit vorgelegt, mit der Daimler „nicht ganz einverstanden“ (Artikel auf Spiegel Online, 23. August 2013) ist. Das Unternehmen sieht sich plötzlich in einer Diskussion innerhalb der Maschinenethik. Bereits ein Artikel in der Süddeutschen vom 3. Juli 2013 hatte Fragen aufgeworfen. Darin hieß es: „So erkennt die neue S-Klasse beispielsweise durch ein Nachtsichtgerät Tiere bei Dunkelheit, kann sie von Fußgängern unterscheiden und leitet für Menschen gegebenenfalls selbständig ein [!] Vollbremsung ein.“ Daimler (Abteilung Research & Development, Center Vehicle Concepts and Future Trends, Society and Technology Research Group) hat im August 2013 dem Betreiber dieses Blogs auf Anfrage mitgeteilt, dass das Nachtsichtsystem ein rein informierendes System sei. Bremsungen „auf detektierte Objekte“ würden nicht eingeleitet. Wenn dies doch der Fall ist, handelt es sich um eine Entscheidung mit moralischen Implikationen. In dem Video der Studenten erkennt der Mercedes, dass ein kleiner Junge eines Tages viel Unheil anrichten wird – und tötet ihn. Das ist natürlich Science-Fiction, aber man wird auf unterhaltsame Weise ins Zentrum der Maschinenethik geführt. Und wird nicht nur mit eindrücklichen Bildern, sondern auch mit dieser prägnanten Aussage konfrontiert: „Erkennt Gefahren, bevor sie entstehen.“ Der Spiegel schreibt: „Zum Schluss bleiben drei Fragen: Wie sähe die Welt wohl aus, wenn Maschinen eine Seele hätten? Wohin könnte es führen, wenn die Technik Entscheidungen über Leben und Tod trifft? Darf ein entschlusskräftiger Sechszylinder sich über Grundlagen menschlichen Zusammenlebens hinwegsetzen, um die Weltgeschichte zu ändern?“ (Spiegel Online, 23. August 2013)
Konferenz Living Machines 2013
Vom 29. Juli bis zum 2. August 2013 fand im Natural History Museum von London zum zweiten Mal die Konferenz Living Machines statt. Die Macher schreiben auf ihrer Website: „This international conference is a Convergent Science Network event and is targeted at the intersection of research on novel life-like technologies inspired by the scientific investigation of biological systems – biomimetics, and research that seeks to interface biological and artificial systems to create biohybrid systems.“ Vorgestellt wurde unter anderem ein Plantoid, ein Pflanzenroboter, der Wurzeln bildet, entwickelt von Barbara Mazzolai vom Italian Institute of Technology (IIT) in Genua. Ein möglicher Einsatzbereich ist die Überwachung der Umwelt, etwa der Bodenzusammensetzung. Ebenfalls vorgestellt wurde der Vierbeiner HyQ, der rasch auf Hindernisse reagieren und recht elegant über sie hinwegsteigen kann. Aus Sicht der Maschinenethik stellt sich die Frage, ob man Robotern, die Pflanzen und Tieren nachempfunden sind, moralische Fähigkeiten verleihen sollte. Grundsätzlich spricht nichts dagegen, zumal moralische Fähigkeiten auch in Bezug auf selbstständig fahrende Autos und Algo-Trading-Systeme diskutiert werden. Die Moral der genannten Roboter könnte sich auf die Tiere beziehen, mit denen sie interagieren. Damit wäre auch die Tierethik mit im Boot.
Abb.: Grafik vom Plakat des Projekts (Quelle: www.plantoidproject.eu)
Über die Algorithmenethik
In einem Interview mit der TAZ vom 10. August 2013 spricht Yvonne Hofstetter auch über die Moral von Algorithmen. Die Geschäftsführerin der Teramark Technologies GmbH wird gefragt: „Algorithmen sind im Grunde Roboter. Gibt es für sie eine Ethik?“ Sie antwortet: „Die Technologen beschäftigen sich mit diesen Fragen. Welche Ethik, welche Moralvorstellungen brauchen wir? Was kann man in die Maschinen hinein programmieren? Aus der philosophischen Ecke, also von denen, die sich mit gesellschaftlichen Entwicklungen beschäftigen, kommt hingegen nichts oder wenig. Die Philosophie sieht offenbar noch nicht, dass eine Sturzwelle an intelligenten Technologien auf uns zurollt.“ Nun ist die Maschinenethik in den USA, in Kanada, Australien, Japan und Holland eine weit entwickelte Disziplin, zu der KI-Experten genauso beitragen wie Philosophen. Die Informationsethik, die sich auf die moralischen Implikationen des Einsatzes von Informations- und Kommunikationstechnologien bezieht, ist gar eine traditionsreiche Disziplin, auch in Bezug auf Algorithmen und Maschinen. Es ist aber in der Tat so, dass im deutschsprachigen Raum erheblicher Nachholbedarf besteht, dass die Ethik von Lobbyorganisationen bekämpft und von Kirchen missbraucht wird. Grundsätzlich muss man unterscheiden zwischen der Maschinenethik (begriffen als Pendant zur Menschenethik) und der Informationsethik, die Computer-, Netz- und Neue-Medien-Ethik umfasst. Beide sind wichtig, wobei die eine eher technologiegestaltend, die andere eher problemanalysierend und lebensgestaltend unterwegs ist und in gewisser Weise gilt: Die Informationsethik löst die Probleme, die die Maschinenethik verursacht.
Einfache moralische Maschinen
Eine Vorabveröffentlichung des Artikels „Einfache moralische Maschinen“ von Oliver Bendel bringt der Blog des Instituts für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW. Moralische Maschinen sind nach der Meinung des Philosophen und Wirtschaftsinformatikers bereits heute möglich. Man dürfe sie nur nicht zu kompliziert denken und zu komplex gestalten. Wenn es sich um spezialisierte autonome oder teilautonome Systeme handele, könne man bei ihren Kernfunktionen ansetzen und sie mit geringfügigen Änderungen, mit wenigen zusätzlichen Komponenten in einfache moralische Maschinen verwandeln. Wie das geschehen kann, wird an vier Beispielen gezeigt, an Servicerobotern, privaten Drohnen, Chatbots und selbstständig fahrenden Autos. Der Artikel erscheint im August 2013 auf der Plattform KMU Business World.
Abb.: Daraus kann man keine moralische Maschine machen
Wie viel Moral braucht eine Maschine?
In ihrem Artikel „Wie viel Moral braucht eine Maschine?“ in der Liechtensteiner Sonntagszeitung namens Liewo gibt Stephanie Büchel einen Überblick über den Stand der Diskussion in der Maschinenethik. Im Fokus sind selbstständig fahrende Autos. Aber auch Kampf-, Operations- und Pflegeroboter sind ein Thema: „Wie bringt man einem Roboter den Unterschied zwischen Gut und Böse bei? Wer ist Schuld, wenn ein Operationsroboter einen Kunstfehler begeht?“ Nicht fehlen darf Isaac Asimov mit seinen Robotergesetzen, die zu den beliebtesten Diskussionsgegenständen in der Maschinenethik gehören. Und die Frage nach den Rechten der Roboter, die nebenbei in der Roboterethik verhandelt werden und noch lange in den Bereich der Science Fiction gehören dürften. Die zentralen Konzepte der Maschinenethik haben dagegen, das zeigt auch die Verfasserin, eine hohe Alltagsrelevanz. Ihr Artikel ist am 2. Juni 2013 erschienen. Sie hat maschinenethik.net freundlicherweise ein PDF zur Verfügung gestellt.
Ein wirklich intelligentes Haus
In den VμE-Nachrichten, die vom Fraunhofer-Verbund Mikroelektronik herausgegeben werden, erschien im Juli 2013 ein Interview zu Informations- und Maschinenethik. Oliver Bendel erklärte, was man sich unter diesen Disziplinen vorstellen kann, ging auf die Einflussmöglichkeiten von Forschern ein und wünschte sich die Stärkung der philosophischen Ethik gegenüber der theologischen bzw. theonomen. Zwei Fragen von Tina Möbius betrafen die Sicht der Informationsethik auf aktuelle Forschungsfelder von Fraunhofer-Instituten, etwa auf Telemedizin und Smart Living. Bendel sprach sich für die informationelle Autonomie von Patienten aus und warnte vor unerwünschten Datentransfers aus den eigenen vier Wänden heraus: „Ein wirklich intelligentes Haus ist eines, das mich nicht in unangenehme Situationen bringt.“ Mit dieser Aussage war man am Ende bei der Maschinenethik angelangt. Die englischsprachige Zeitschrift ist als PDF verfügbar.
Abb.: Kein wirklich intelligentes Haus
Roboterethik im Gabler Wirtschaftslexikon
Im Gabler Wirtschaftslexikon wird seit 3. Juli 2013 die Roboterethik definiert. Diese kann man sowohl der Maschinen- als auch der Menschenethik zuordnen. In der Roboterethik werde danach gefragt, ob ein Roboter ein Subjekt der Moral sein und wie man diese implementieren kann. Auch der Roboter als Objekt der Moral sowie sein Einfluss auf Menschen sei von Belang. Oliver Bendel erklärt in seinem Beitrag den Begriff der Roboterethik, nimmt die Perspektive der Robotik ein, erwähnt die Robotergesetze von Asimov und gibt eine Einschätzung der Disziplin und einen Ausblick auf ihre weitere Entwicklung. Der Beitrag ist direkt über wirtschaftslexikon.gabler.de/Definition/roboterethik.html abrufbar. Er wurde dem Sachgebiet „Grundlagen der Wirtschaftsinformatik“ zugewiesen. Für das Gabler Wirtschaftslexikon schreiben nach eigenen Angaben über „150 Experten aus Wissenschaft und Praxis“. Mehr als „25.000 Stichwörter stehen kostenlos“ bereit.
Artikel zum GOODBOT
Ein Artikel in der UnternehmerZeitung vom 2. Juli 2013 geht auf das GOODBOT-Projekt ein, das im Juni 2013 an der Hochschule für Wirtschaft FHNW gestartet ist. Der „moralische Chatbot“ soll auch auf Selbstmorddrohungen oder Ankündigungen von Amokläufen adäquat reagieren und überhaupt ein angenehmer Zeitgenosse (und trotzdem kein Langweiler) sein. Es werden sieben Regeln genannt, die „hinsichtlich seiner Akte und Sprechakte gegenüber dem Benutzer“ gelten sollen. Dazu gehört auch eine Transparenzregel: „Der GOODBOT macht dem Benutzer klar, dass er eine Maschine ist.“ (Regel 1) Und eine Regel zur Beobachtung: „Der GOODBOT ist kein Spitzel und wertet Gespräche mit dem Benutzer nicht aus.“ (Regel 6) Für das Projekt wurden verschiedene konzeptionelle Vorleistungen wie der Regelkatalog erbracht. Von Juni 2013 bis Januar 2014 arbeiten sich drei Studierende der Hochschule in die Maschinenethik und die Roboterethik ein und entwickeln einen Prototyp. Initiator und Leiter des Projekts ist der Philosoph und Wirtschaftsinformatiker Oliver Bendel. Der Artikel ist in der siebten Ausgabe der UnternehmerZeitung auf den Seiten 30 und 31 zu finden.
GOODBOT-Projekt gestartet
Viele Benutzer mögen Chatbots auf Websites und unterhalten sich gerne mit ihnen. Dabei spielen Produkte und Dienstleistungen meist eine untergeordnete Rolle. Man will das virtuelle Gegenüber ausfragen, mit ihm flirten, es necken und reizen. Wenn man in Schwierigkeiten steckt, will man eine Antwort erhalten, die einen nicht noch mehr entmutigt und verstört. Die meisten Bots sind in dieser Hinsicht völlig überfordert. Auf Selbstmorddrohungen oder Ankündigungen von Amokläufen reagieren sie inadäquat. In einem Projekt an der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz FHNW wird unter der Leitung von Oliver Bendel eine moralische Maschine besonderer Art, nämlich ein sogenannter GOODBOT, konzipiert und prototypisch implementiert. Zunächst werden theoretische Grundlagen im Kontext der Maschinenethik erarbeitet. Es interessiert unter anderem, welche normativen Modelle maschinell verarbeitbar sind. Dann werden ausgewählte Chatbots auf Websites sowie Sprachassistenten wie Siri analysiert und verglichen sowie Erkenntnisse zu Systemen solcher Art gewonnen. Ein vorhandener Regelkatalog soll daraufhin überprüft werden, ob er in einem regelbasierten System umgesetzt bzw. wie er angepasst werden kann. Nicht nur Top-down-, sondern auch Bottom-up-Ansätze sollen erwogen werden. Zudem ist relevant, inwieweit soziale Medien und leibhaftige Menschen moralische Referenzpunkte bilden können. Das Projekt hat im Juni 2013 begonnen. Informationen zum Initiator und Projektleiter über http://www.fhnw.ch/personen/oliver-bendel.
Abb.: (Ro-)Bots müssen gut zu Menschen sein
Können Roboter lügen?
Das Buch „Können Roboter lügen?“ von Raúl Rojas enthält „Essays zur Robotik und Künstlichen Intelligenz“, die von 2011 bis 2013 in der Online-Zeitschrift Telepolis erschienen sind. Rojas ist Professor für Künstliche Intelligenz an der Freien Universität Berlin. Im Kontext der Maschinenethik (und der Roboterethik) ist vor allem der dritte Teil interessant. Im Vorwort heißt es: „Der dritte Teil über Robotik und KI gibt einen Einblick in die Arbeit, die in den letzten Jahren auf diesem Gebiet geleistet worden ist. Wir wären froh, mit Robotern die Eleganz eines Insekts bei der Bewältigung von Hindernissen zu erreichen. Wir können aber schon heute kleine und große Roboter – z.B. autonome Fahrzeuge – mit kognitiven Architekturen ausstatten, die eine effiziente und nützliche Funktionalität erlauben. Die Kapitel über Roboter, die lügen, bzw. über das Watson-System zeigen die zwei Seiten der Medaille: Wie weit die künstliche Intelligenz gekommen ist und wie weit entfernt sie doch noch vom Ziel bleibt.“ Rojas gelangt zum Schluss: „Roboter kennen die Wahrheit nicht, deswegen können sie nicht lügen.“ Das Buch wurde Ende Mai 2013 im Heise Zeitschriften Verlag veröffentlicht und ist u.a. in der Kindle-Edition erhältlich.
Call für Buchprojekt „Machine Medical Ethics“
Ein Call for Chapters ist für einen Sammelband mit dem Titel „Machine Medical Ethics“ herausgekommen. Die Herausgeber sind Dr. Matthijs Pontier (The Centre for Advanced Media Research (CAMeRA), Vrije Universiteit Amsterdam) und Simon van Rysewyk (School of Humanities, University of Tasmania). Im Aufruf heißt es: „The new field of Artificial Intelligence called Machine Ethics is concerned with ensuring that the behaviour of machines towards human users and other machines is ethical. This unique edited collection aims to provide a platform for researchers in this field to present new research and developments in Machine Medical Ethics.“ Bis zum 10. Juni 2013 kann Interesse an einer Mitarbeit angemeldet werden. Der vollständige Beitrag muss bis 10. Oktober bei den Herausgebern sein. Das Buch erscheint 2014. Informationen über http://medicalhumanities.wordpress.com.
Abb.: Die Maschinenethik im Bereich der Medizin
Beratungsangebot zur Maschinenethik
Ein neues Beratungsangebot findet sich seit Anfang April 2013 auf der Website des Instituts für Wirtschaftsinformatik an der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz FHNW. Es richtet sich auf die Maschinenethik, die mit der Algorithmenethik verwandt ist und zu der die Roboterethik gehört. Die Mitarbeiterinnen und Mitarbeiter des Kompetenzschwerpunkts Digital Innovation & Learning (DIL) unter der Leitung von Prof. Dr. Oliver Bendel stellen dar, welche normativen Modelle in einem bestimmten Bereich in Frage kommen, und vermitteln Kontakte zu internationalen Forschungs- und Anwendungspartnern. Sie erarbeiten Studien, die das Potenzial der Maschinenethik sowie Chancen und Risiken für das jeweilige Geschäftsfeld aufzeigen. Die Schwerpunkte liegen in der Verbesserung von Systemen mit natürlichsprachlichen Fähigkeiten (etwa von pädagogischen Agenten, mobilen Sprachassistenten und Chatbots) in ethischer Hinsicht und in der Entwicklung von Szenarien zu kommerziellen Anwendungen von moralischen Maschinen.
„Towards a machine ethics“ von Oliver Bendel
Zur Konferenz “Technology Assessment and Policy Areas of Great Transitions” vom 13. bis 15. März 2013 in Prag ist das Book of Abstracts erschienen. Es kann über pacita.strast.cz/en/conference/documents heruntergeladen werden und hat fast 300 Seiten. Enthalten sind die Extended Abstracts der Konferenz. Am Freitag, 15. März findet die “XVII. Thematic Session: Ethical Aspects of TA” statt (Chair: Frans Brom). Sie wird im Book of Abstracts mit folgenden Worten eingeführt: “Which ethical dilemmas are evident in selecting technologies? This session dares a tour d’horizon of ethical expertise and TA and focuses on ethical questions in selecting health technologies, on autonomous machines tested as agents or robots, on conditions for gaining acceptance of technological development and on social sustainability.” Miriam I. Siebzehner schreibt über “Ethical dilemmas in selecting health care technologies in Israel”, Oliver Bendel zum Thema “Towards a machine ethics”, Petr Machleidt über “Technology assessment as applied ethics of technology in the Czech Republic” und Michael Opielka über “Ethical dimensions of TA and social sustainability: The case of participation in social and health policy”.
Abb.: Auf der Karlsbrücke in Prag
„Machine Ethics“ von Anderson/Anderson
Michael Anderson und Susan Leigh Anderson gehen als Herausgeber des 2011 in der Cambridge University Press erschienenen Buchs “Machine Ethics” der Frage nach, ob und wie autonome Systeme in moralischer Weise handeln sollen und können. Schon vor Jahrzehnten hat man in Literatur und Wissenschaft über diese Frage nachgedacht; aber eine entsprechende Disziplin ist erst in den letzten Jahren entstanden. Offensichtlich wird die Notwendigkeit gesehen, das Verhalten von Maschinen im Kontext der Moral zu reflektieren und Philosophen (vor allem Ethiker) und Vertreter der Künstlichen Intelligenz darüber nachdenken zu lassen. In der Einführung heißt es: “The subject of this book is a new field of research: Developing ethics for machines, in contrast to developing ethics for human beings who use machines.” Wir benutzen Maschinen, und Maschinen benutzen uns. Wie sollen die Maschinen mit uns umgehen, und wie sollen sie sich entscheiden in Situationen, in denen wir in unserer Identität und in unserer Existenz bedroht werden? Die Beiträge enthalten bemerkenswerte Vorschläge und verdienen eine aufmerksame Lektüre.
Abb.: Immer mehr Bücher widmen sich der Maschinenethik
Interview zur Maschinenethik
In einem Interview mit dem Institut für Wirtschaftsinformatik (Hochschule für Wirtschaft, Fachhochschule Nordwestschweiz FHNW) vom 13. November 2012 erklärt der Philosoph und Wirtschaftsinformatiker Oliver Bendel “den Begriff der Maschinenethik, in welchem Kontext diese entstanden ist und wozu wir sie brauchen” (IWI-Blog). Nathalie Baumann, die zum Team des IWI gehört und auch journalistisch tätig ist, steigt ein mit der Frage: “Oliver Bendel, fahren Sie Ihr Auto noch oder fährt Ihr Auto Sie? Oder anders gefragt: Wie intelligent ist Ihr Auto?” Nicht nur um das selbständig fahrende Auto geht es, sondern auch um Agenten, Roboter und Drohnen. Intensiv wird erörtert, inwieweit eine Maschine ein Subjekt oder ein Objekt der Moral und der Ethik sein kann. Am Schluss wird noch ein Blick auf Japan geworfen, wo faszinierende humanoide Roboter gebaut werden. Das Interview ist nachzulesen über blogs.fhnw.ch/iwi/ (Link nicht mehr gültig).
Abb.: Nicht intelligent, aber schön
Plattform zur Maschinenethik
Im Glossar zur Informationsethik von Oliver Bendel ist zu lesen: „Die Maschinenethik (‚Machine Ethics‘) hat die Moral von Maschinen zum Gegenstand, vor allem von (teil-)autonomen Systemen wie Agenten, Robotern, Drohnen, Computern im automatisierten Handel und selbstständig fahrenden Autos. Sie kann innerhalb von Informations- und Technikethik eingeordnet oder als Pendant zur Menschenethik angesehen werden. Der Begriff der Algorithmenethik wird teilweise synonym, teilweise eher in der Diskussion über Suchmaschinen und Vorschlagslisten verwendet. Die Roboterethik ist eine Keimzelle und ein Spezialgebiet der Maschinenethik. Die Maschinenethik erweist sich mehr und mehr als Prüfstein für die Ethik. Sie kann neue Subjekte und Objekte der Moral beschreiben und aufzeigen, welcher normative Ansatz jenseits der auf Menschen bezogenen Moralphilosophie sinnvoll ist. Die Anwendungsbereiche der Maschinenethik haben hochrelevante wirtschaftliche und technische Implikationen.“ Diese Plattform wurde im Frühjahr 2013 gegründet und ist der Maschinenethik und speziell auch der Roboterethik und der Algorithmenethik gewidmet.