Schlagworte: Moralische Maschinen

Roboterethik im Deutschlandfunk

Am Donnerstag, 26. Mai 2016, ist der Wirtschaftsinformatiker, Informationsethiker und Maschinenethiker Oliver Bendel im Gespräch mit Inge Breuer. Das Schwerpunktthema im Deutschlandfunk lautet „Roboterethik: Wieviel Moral brauchen intelligente Maschinen?“ Aus der Ankündigung des Senders: „Bereits heute übernehmen Roboter eine Vielzahl von Aufgaben in der Industrie, im Finanzsektor, aber zunehmend auch bei Serviceleistungen, in der Pflege und im Verkehr. Diese schlauen Maschinen werden zunehmend autonomer und können auch komplexe Entscheidungen selbst treffen. Je autonomer solche intelligenten Systeme aber handeln, desto mehr stellt sich die Grundfrage nach der moralischen Fundierung der von diesen Maschinen getroffenen Entscheidungen. Wie vermag die ‚Moral der Maschine‘ sichergestellt, wie weit kann sie ihr von Beginn an ‚einprogrammiert‘ werden? Z.B. bei einem selbstfahrenden Auto: Soll es einem Unfall ausweichen, wenn es erkennt, dass dann stattdessen ein anderer den Unfall haben wird? Sind die eigenen Insassen – und damit Kunden des Herstellers – schutzwürdiger als Dritte? Wer trägt die Verantwortung für die Entscheidungen der Maschine? Zunehmend wird auch in Deutschland die Frage gestellt, ob man (teil-)autonomen Systemen so etwas wie Moral beibringen kann.“ Die Rubrik „Aus Kultur- und Sozialwissenschaften“ wird ab 20.10 Uhr ausgestrahlt.

Walker

Abb.: Wohin geht der Robot?

Buch „Programming Machine Ethics“

Luís Moniz Pereira und Ari Saptawijaya haben ein Buch geschrieben, das den Titel „Programming Machine Ethics“ trägt. Die relativ junge Disziplin der Maschinenethik wird damit um ein weiteres Grundlagenwerk bereichert. Als Gestaltungsdisziplin ist sie darauf angewiesen, dass konkrete Vorschläge für die Umsetzung unterbreitet werden, in ihrem Falle der Umsetzung moralischer Maschinen. In der Information von Springer heißt es: „This book addresses the fundamentals of machine ethics. It discusses abilities required for ethical machine reasoning and the programming features that enable them. It connects ethics, psychological ethical processes, and machine implemented procedures. From a technical point of view, the book uses logic programming and evolutionary game theory to model and link the individual and collective moral realms. It also reports on the results of experiments performed using several model implementations.“ (Information Springer) Weiter wird erklärt: „Opening specific and promising inroads into the terra incognita of machine ethics, the authors define here new tools and describe a variety of program-tested moral applications and implemented systems. In addition, they provide alternative readings paths, allowing readers to best focus on their specific interests and to explore the concepts at different levels of detail.“ (Information Springer) Weitere Informationen und Bestellung über www.springer.com/de/book/9783319293530.

grace_hopper

Abb.: Grace Hopper aka Grandma COBOL

Noch bleiben die Hände am Steuerrad

Bruno Knellwolf berichtete am 3. März 2016 vom Auto-Salon in Genf. Der Artikel, der u.a. im St. Galler Tagblatt erschienen ist, beginnt mit den Worten: „Neben 120 Welt- und Europapremieren sind ab heute am Auto-Salon in Genf bei einigen Autoherstellern auch ihre Forschungen zum selbstfahrenden Auto zu sehen. Lotta Jakobsson von Volvo erklärt, warum wir noch einige Zeit das Lenkrad im Griff behalten werden.“ (Tagblatt, 3. März 2016) „Wenn jemand fahren will, soll er das tun können. Dafür hat er ja ein Auto“, wird die Expertin zitiert. „Doch sei es ihm auf der langen Reise auf der Autobahn langweilig, sollte er sich mit etwas anderem beschäftigen können. Das autonome Fahren sei aber noch nicht mehrheitsfähig, weil uns die Erfahrung fehle. Unsere Haltung in dieser Frage werde sich aber in fünf bis zehn Jahren ändern.“ (Tagblatt, 3. März 2016) Zu Wort kommt auch Oliver Bendel. „Darf man sein und das Leben anderer also einem Algorithmus anvertrauen? Im ‚Spiegel‘ zweifelt Oliver Bendel von der Fachhochschule Nordwestschweiz daran. Es sei fatal, Maschinen komplexe moralische Entscheidungen zu überlassen.“ Der Wirtschaftsinformatiker und Maschinenethiker spricht sich für einfache moralische Maschinen aus, die einfache moralische Entscheidungen treffen, etwa in Bezug auf Tiere, und dadurch zu deren Wohl beitragen können. Der Artikel mit dem Titel „Noch bleiben die Hände am Steuerrad“ kann hier gelesen werden.

Steuer

Abb.: Bald fehlen die Hände am Steuerrad

 

Telepolis-Buch „Die Moral in der Maschine“

Die Maschinenethik hat die Moral von Maschinen zum Gegenstand. Die meisten ihrer Vertreter und Anhänger sitzen in den USA, doch auch in Europa wächst das Interesse am Thema. Philosophen, Robotiker oder Experten für Künstliche Intelligenz stellen sich Fragen dieser Art: Können Maschinen gut oder böse sein? Kann man von einer Moral der Maschinen sprechen? Verwendet man Regeln oder Fälle? Hat die Maschinenethik eine Existenzberechtigung? Ist sie Konkurrenz oder Pendant zur Menschenethik? Letzten Endes geht es darum, ob bzw. wie man (teil-)autonomen Systemen so etwas wie Moral beibringen kann. Untersucht und erweitert werden unter anderem Chatbots, Serviceroboter, autonome Drohnen, ob zivil oder militärisch genutzt, und selbstständig fahrende Autos. Im Telepolis-Buch „Die Moral in der Maschine“ (Heise Medien), erschienen im Februar 2016, finden sich (populär-)wissenschaftliche und journalistische Beiträge von Oliver Bendel aus den Jahren 2012 bis 2016 zur Roboterethik und zur Maschinenethik. Sie sind in ganz unterschiedlichen schweizerischen und deutschen Zeitungen und Zeitschriften sowie auf einschlägigen Plattformen erschienen und widmen sich technischen Implementierungen, vor allem aber philosophischen Implikationen.

Metropolis

Abb.: Der Roboter aus „Metropolis“ vor seiner Verwandlung

Simple Moral Machines

Vom 21. bis zum 23. März 2016 findet an der Stanford University der Workshop „Ethical and Moral Considerations in Non-Human Agents“ statt, im Rahmen der AAAI Spring Symposia. Keynote-Speaker sind Ron Arkin (Georgia Institute of Technology), Maja Matarić (University of Southern California) und Luis Moriz Pereira (Universidade Nova de Lisboa). Organisiert wird der Workshop von Bipin Indurkhya (Jagiellonian University, Krakau) und Georgi Stojanov (The American University of Paris). Im Programmkomitee sitzen u.a. Peter Asaro (The New School, New York) und Patrick Lin (California Polytechnic State University). Einen der wissenschaftlichen Vorträge wird Oliver Bendel (Hochschule für Wirtschaft FHNW, Basel, Olten und Brugg-Windisch) halten. Aus dem Abstract von „Annotated Decision Trees for Simple Moral Machines“: „This article proposes an approach for creating annotated decision trees, and specifies their central components. The focus is on simple moral machines. The chances of such models are illustrated with the example of a self-driving car that is friendly to humans and animals. Finally the advantages and disadvantages are discussed and conclusions are drawn.“ Weitere Informationen über sites.google.com/site/ethicalnonhumanagents/.

policecar

Abb.: Ein als Polizeiwagen getarntes Roboterauto

Die KI in der Moral

Der Call for Papers zum Workshop ETHICS FOR ARTIFICIAL INTELLIGENCE bei der 25th International Joint Conference on Artificial Intelligence IJCAI-16 sollte Informations-, Maschinen- und Roboterethiker gleichermaßen interessieren. In der Beschreibung heißt es: „Recent progress in various subfields of AI has caused some researchers and pundits to raise concerns about the dangers that AI might ultimately pose. These concerns range from questions about the ethics of delegating to military drones the authority to decide when to attack human targets, up to fears about a possible existential risk posed by AI technologies … Much of the debate surrounding these issues has taken place in a scientific vacuum, uninformed by the experiences and insights of practicing AI researchers. Meanwhile, a wide range of other and sometimes less obvious ethical issues arise from current and proposed use of AI in diverse areas such as medicine, social care, autonomous trading agents and autonomous vehicles.“ (Website Workshop) Zum Ziel des Workshops wird gesagt: „The aim of this workshop is to bring together … AI researchers and others interested in understanding how the discipline of AI should respond to these concerns. The workshop particularly aims to foster an active exchange of ideas between attendees from different disciplinary backgrounds to gain a better understanding of the ethical issues surrounding AI.“ (Website Workshop) Die Konferenz findet vom 9. – 15. Juli 2016 in New York statt. Weitere Informationen über www.cs.ox.ac.uk/efai/call-for-papers/.

Der Lügenbot kommt auf die Welt

An der Hochschule für Wirtschaft FHNW wird ab Frühjahr 2016 im Rahmen einer Abschlussarbeit ein Lügenbot entwickelt. Der betreuende Professor, Dr. Oliver Bendel, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert, etwa „Wenn ein Chatbot zum Lügenbot wird“ (ICTkommunikation), „Können Maschinen lügen? Die Wahrheit über Münchhausen-Maschinen“ (Telepolis) und „Der Lügenbot und andere Münchhausen-Maschinen“ (MittelstandsWiki). In „Robots between the Devil and the Deep Blue Sea“ wurde zudem das sogenannte Lügenbot-Problem vorgestellt, als eines von vier Dilemmata. In den Beiträgen wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man könnte also Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student wird den Chatbot für zwei Szenarien realisieren, den Einsatz im Auftrag der Lebensmittel- und der Tourismusbranche. Bereits 2013 kam der GOODBOT als einfache moralische Maschine auf die Welt. Der Lügenbot könnte als einfache unmoralische Maschine bezeichnet werden, wobei Lügen natürlich nicht per se schlecht ist. Er ist interessant für die Maschinenethik als Gestaltungsdisziplin und für die Informationsethik als Reflexionsdisziplin. Über die Resultate des Projekts wird zur gegebenen Zeit auf maschinenethik.net informiert.

Maedchen_Chatbot

Abb.: Wagt er es, mich anzulügen, der Bot?

Tödliche Entscheidungen

„Wie Roboter über Menschenleben entscheiden“ lautet der Titel eines Artikels von Katrin Haas, der am 25. November 2015 in der Rheinischen Post erschienen ist. Im Teaser wird gesagt: „Ob im Verkehr oder in der Pflege – überall könnten in Zukunft Roboter moralische, manchmal tödliche Entscheidungen treffen.“ „Ich rate von Maschinen ab, die über Leben und Tod entscheiden“, wird der Maschinenethiker Oliver Bendel (Hochschule für Wirtschaft FHNW) zitiert, und er „wirbt dafür, nur einfache moralische Maschinen zu entwickeln“. Seine Forschung konzentriert sich stark auf Begegnungen von Maschinen mit Tieren. Und in diesem Zusammenhang ist er dafür, möglichst viel Leben zu retten. Auch Catrin Misselhorn von der Universität Stuttgart wird zitiert. Auf die Frage, wie lange es noch dauert, „bis Roboter sich um Menschen kümmern“, antwortet sie: „Vor Kurzem hätte ich gesagt, bis das umgesetzt wird, dauert es noch. Aber jetzt im Moment erlebt die Branche einen großen Auftrieb durch die Diskussion um autonom fahrende Autos.“ Die Online-Version des Artikels kann über www.rp-online.de/wirtschaft/wie-roboter-ueber-menschenleben-entscheiden-aid-1.5584750 abgerufen werden.

Nachlese zum Workshop zur Maschinenethik

Im Saal war noch ein gut gelaunter Guildo Horn (Podiumsteilnehmer im Workshop „Wie schreibt man über Menschen mit Behinderungen?“), als die Referenten hereinkamen. Er begrüßte sie mit den Worten: „Jetzt kommen schon die Nächsten – hallo!“ Die Nächsten waren die Referenten des Workshops „Maschinenethik“, nämlich Oliver Bendel („Moral für Maschinen“) und Barbara Lenz („Autonome Autos“). Bendel von der Hochschule für Wirtschaft FHNW eröffnete in fachlicher Hinsicht den Workshop und führte in die derzeit wohl meistdiskutierte Disziplin ein – und gestand, dass ihm die ganze Zeit das Lied „Guildo hat euch lieb“ des von ihm sehr geschätzten Sängers und Aktivisten durch den Kopf gehe. Lenz vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) vertiefte mit dem derzeit wohl meistgenannten Anwendungsbeispiel. Abgesagt hatte Frank Sauer, Universität der Bundeswehr München („Autonome Waffen“). Über eine halbe Stunde erstreckte sich ein lebhaftes Frage-Antwort-Spiel mit dem Moderator Ralf Krauter vom Deutschlandfunk, der den Referenten auch noch die letzten Geheimnisse (die natürlich längst publiziert waren) entlockte. Wie programmiert man moralische Maschinen? Was spricht für regelbasierte, was für fallbasierte Ansätze? Wieviel Autonomie soll der Mensch behalten? Was will die Wirtschaft, was die Wissenschaft? Die anwesenden Journalistinnen und Journalisten geizten anschließend nicht mit Fragen. Im Konferenzhotel Maritim ging es insgesamt trubelig zu im Rahmen der Veranstaltung „Wissenswerte“. In den Workshops redete man sich die Köpfe heiß über „Multimediales Storytelling“, „Science und Fiction“ und „Big Data in der Medizin“. Im Messebereich präsentierten sich die Partnerorganisationen, u.a. die Max-Planck-Gesellschaft, die Fraunhofer-Gesellschaft, die Helmholtz-Gemeinschaft, die Leibniz-Gemeinschaft und der Stifterverband. Am frühen Abend war Dr. Franz Alt im Gespräch mit Lena Ganschow. Danach klang der Abend beim Essen im Friesenhof aus.

Roboter mit Nasen

Beim Swiss ICT Symposium vom 10. bis 11. November 2015 gab es ein breites Spektrum von Vorträgen und Themen. Prof. Dr. Manfred Spitzer (Hirnforscher und Psychiater) und Sascha Lobo (SPON-Kolumnist) unterhielten als Keynoter das Publikum mit gewagten Thesen und anschaulichen Beispielen. Im gut besuchten Track „Internet der Dinge“ referierte Moritz Köhler (Director of Software Engineering, Sensirion AG). „IoT-Geräte und Mobiltelefone verschmelzen zusehends und ermöglichen völlig neue Anwendungen und Geschäftsmodelle.“ (www.swissict.ch) Was wird möglich, so fragte er sich, wenn Telefone immer mehr Kenntnis von ihrer Umwelt haben? Und lieferte „eine Einführung in die Sensorik in Mobiltelefonen und deren Bedeutung“. Smartphones, die Atem-, Stadt- und Raumluft analysieren können, lassen Behörden, Unternehmen und Privatleute aufhorchen. Auch Roboter mit Nasen werden für Staunen sorgen und nicht zuletzt bei der Tier-Maschine-Interaktion von Bedeutung sein. „Moralische Maschinen“ lautete der Titel des Vortrags von Prof. Dr. Oliver Bendel (Professor für Wirtschaftsinformatik und Ethik, Hochschule für Wirtschaft FHNW): „Autos bremsen rechtzeitig vor Menschen ab. Serviceroboter bringen Medikamente und sind nett zu uns. Manche Dinge, Roboter und (teil-)autonome Maschinen werden aber falsche oder interessengeleitete Entscheidungen treffen. Einfache moralische Maschinen könnten eine Lösung sein.“ (www.swissict.ch) Vielleicht entdeckt auch die Maschinenethik die Olfaktorik und lässt Roboter die Gerüche von Menschen analysieren und automatisch die dazu passenden Düfte ausströmen. Die Maschine wird insofern gut, als wir sie gut riechen können. Die Vortragsfolien stehen über www.swissict.ch zur Verfügung.

Tissues

Abb.: Brauchen Roboter bald Taschentücher?