In „Forschung aktuell“ (Deutschlandfunk) wurde am 25. November 2015 der Beitrag „Die Moral der Maschinen“ gesendet. Volkart Wildermuth war am Vortag während der Berliner Konferenz „Roboterethik“ im Gespräch mit Prof. Dr. Jochen Steil, Prof. Dr. Catrin Misselhorn, Prof. Dr. Alin Albu-Schäffer und Prof. Dr. Oliver Bendel. Im Vorspann wird auf Roboter in der Science-Fiction eingegangen. Die Roboter der Wirklichkeit seien fleißig dabei, ihren Kollegen nachzueifern. Dabei würden sich aber moralische Herausforderungen ergeben. Catrin Misselhorn erzählt, dass es ihrer Großmutter nicht recht gewesen sei, wenn der Pflegedienst sie im Intimbereich gewaschen habe. „Ich könnte mir vorstellen, dass ihr in diesem Fall es recht gewesen wäre, wenn ein Roboter diese Tätigkeit übernommen hätte.“ In eine ähnliche Richtung weist eine Befragung, die von der Hochschule für Wirtschaft FHNW durchgeführt wurde. Zu Roboterautos stellt der Maschinenethiker Oliver Bendel fest: „Ich denke, der Mensch sollte bestimmte Entscheidungen selbst treffen, selbst wenn sie falsch sind.“ Für ihn sind dies Entscheidungen über Leben und Tod von Menschen, wie sie in Dilemmata diskutiert werden. Er schlägt grundsätzlich vor, den normalen Verkehr und den autonomen Verkehr soweit wie möglich voneinander zu trennen und Roboterautos zu beschränken. Fußgänger und Fahrradfahrer in Städten sollten sich nicht permanent auf autonome Autos einstellen und ihr Verhalten an diese anpassen müssen. Der Beitrag kann über www.deutschlandfunk.de/forschung-aktuell.675.de.html abgerufen werden.
Abb.: Beseitigt der Pflegeroboter das Schamgefühl?
„Wie Roboter über Menschenleben entscheiden“ lautet der Titel eines Artikels von Katrin Haas, der am 25. November 2015 in der Rheinischen Post erschienen ist. Im Teaser wird gesagt: „Ob im Verkehr oder in der Pflege – überall könnten in Zukunft Roboter moralische, manchmal tödliche Entscheidungen treffen.“ „Ich rate von Maschinen ab, die über Leben und Tod entscheiden“, wird der Maschinenethiker Oliver Bendel (Hochschule für Wirtschaft FHNW) zitiert, und er „wirbt dafür, nur einfache moralische Maschinen zu entwickeln“. Seine Forschung konzentriert sich stark auf Begegnungen von Maschinen mit Tieren. Und in diesem Zusammenhang ist er dafür, möglichst viel Leben zu retten. Auch Catrin Misselhorn von der Universität Stuttgart wird zitiert. Auf die Frage, wie lange es noch dauert, „bis Roboter sich um Menschen kümmern“, antwortet sie: „Vor Kurzem hätte ich gesagt, bis das umgesetzt wird, dauert es noch. Aber jetzt im Moment erlebt die Branche einen großen Auftrieb durch die Diskussion um autonom fahrende Autos.“ Die Online-Version des Artikels kann über www.rp-online.de/wirtschaft/wie-roboter-ueber-menschenleben-entscheiden-aid-1.5584750 abgerufen werden.
Eine hochkarätig besetzte Tagung zur Roboterethik fand am 24. November in Berlin statt. Eingeladen hatten Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (ceres) und Daimler und Benz Stiftung. Vor dem eigentlichen Programm mit Beginn um 10 Uhr wurde eine Pressekonferenz mit Prof. Dr. Eckard Minx, Prof. Dr. Christiane Woopen, Prof. Dr. Alin Albu-Schäffer und Prof. Dr. Oliver Bendel durchgeführt. Im Karl-Storz-Besucher- und Schulungszentrum begann dann der wissenschaftliche Marathon. Minx begrüßte und eröffnete, Woopen führte ein, nicht in ihrer Funktion als Vorsitzende des Ethikrats, sondern als Leiterin von ceres. Die Grundlagen autonomer Systeme erklärte Albu-Schäffer in seinem Vortrag „Autonomie und Kognition für menschzentrierte Robotik“. Mit „Autonome Systeme und die Selbstbestimmung des Menschen“ war der nächste Komplex betitelt. „Roboterlernen ohne Grenzen?“ von Prof. Dr. Jochen Steil schuf weitere Robotikgrundlagen. Dann ging es tief in die Maschinenethik. Bendel referierte über „Die Moral in der Maschine“, wobei er die Designstudien CLEANINGFISH und LADYBIRD und den Prototypen GOODBOT vorstellte, Prof. Dr. Catrin Misselhorn über „Maschinen mit Moral? Theoretische Grundlagen und eine Roadmap für autonome Assistenzsysteme in der Pflege“. Nach der Mittagspause waren Prof. Dr. Hartmut Hirsch-Kreinsen und Prof. Dr. Johannes Weyer an der Reihe. Prof. Dr. Norbert Lammert, Bundestagspräsident, sprach zur Rolle der Politik. Christiane Woopen rundete mit ihrem Schlusswort die Veranstaltung ab. Der Diskussionsbedarf war groß, die Nachfrage der Journalisten nach Interviews mit den Fachexperten ebenfalls. Gegen 17 Uhr ging eine ausgesprochen gelungene Veranstaltung zu Ende.
Im Saal war noch ein gut gelaunter Guildo Horn (Podiumsteilnehmer im Workshop „Wie schreibt man über Menschen mit Behinderungen?“), als die Referenten hereinkamen. Er begrüßte sie mit den Worten: „Jetzt kommen schon die Nächsten – hallo!“ Die Nächsten waren die Referenten des Workshops „Maschinenethik“, nämlich Oliver Bendel („Moral für Maschinen“) und Barbara Lenz („Autonome Autos“). Bendel von der Hochschule für Wirtschaft FHNW eröffnete in fachlicher Hinsicht den Workshop und führte in die derzeit wohl meistdiskutierte Disziplin ein – und gestand, dass ihm die ganze Zeit das Lied „Guildo hat euch lieb“ des von ihm sehr geschätzten Sängers und Aktivisten durch den Kopf gehe. Lenz vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) vertiefte mit dem derzeit wohl meistgenannten Anwendungsbeispiel. Abgesagt hatte Frank Sauer, Universität der Bundeswehr München („Autonome Waffen“). Über eine halbe Stunde erstreckte sich ein lebhaftes Frage-Antwort-Spiel mit dem Moderator Ralf Krauter vom Deutschlandfunk, der den Referenten auch noch die letzten Geheimnisse (die natürlich längst publiziert waren) entlockte. Wie programmiert man moralische Maschinen? Was spricht für regelbasierte, was für fallbasierte Ansätze? Wieviel Autonomie soll der Mensch behalten? Was will die Wirtschaft, was die Wissenschaft? Die anwesenden Journalistinnen und Journalisten geizten anschließend nicht mit Fragen. Im Konferenzhotel Maritim ging es insgesamt trubelig zu im Rahmen der Veranstaltung „Wissenswerte“. In den Workshops redete man sich die Köpfe heiß über „Multimediales Storytelling“, „Science und Fiction“ und „Big Data in der Medizin“. Im Messebereich präsentierten sich die Partnerorganisationen, u.a. die Max-Planck-Gesellschaft, die Fraunhofer-Gesellschaft, die Helmholtz-Gemeinschaft, die Leibniz-Gemeinschaft und der Stifterverband. Am frühen Abend war Dr. Franz Alt im Gespräch mit Lena Ganschow. Danach klang der Abend beim Essen im Friesenhof aus.
Kommt bald das Auto, das ein Charakter ist bzw. einen Charakter hat? Dieser Frage geht Oliver Bendel in einem Artikel nach, der am 16. November 2015 in der ICTkommunikation erschienen ist. Der Teaser beginnt mit den Worten: „Das Auto wird rundum und inwendig erneuert. Es weist immer mehr Sensoren und Aktoren und immer mehr Fahrerassistenzsysteme auf. Diese bieten nicht nur automatische, sondern auch autonome Funktionen: Sie entscheiden selbst in kritischen Situationen.“ Der autonome PKW sei als Prototyp unterwegs, zusammen mit seinem großen Bruder, dem autonomen LKW. „Wenn das Auto seinen eigenen Kopf bekommt, dann bestimmt auch bald einen speziellen Charakter.“ Dieser Charakter wird, so der Verfasser, im Wesentlichen als auditives Ein- und Ausgabegerät realisiert werden. Aber auch visuelle Elemente können vorhanden sein. Zuletzt hat die Automobilindustrie versucht, über Frontscheinwerfer, die gefährlich oder freundlich wirken, dem Auto eine Persönlichkeit zu verleihen. Frühe Individualisten (wenn auch tierischer Art) sind Ente und Käfer. Der Beitrag mit dem Titel „Ein Auto mit Charakter“, in dem auch die Maschinenethik als Gestaltungsdisziplin erwähnt wird, kann über ictk.ch/inhalt/ein-auto-mit-charakter aufgerufen werden.
„Die Stiftung für Effektiven Altruismus (EAS; vormals GBS Schweiz) führte am heutigen Donnerstag eine Medienkonferenz zum Thema ‚Künstliche Intelligenz: Chancen und Risiken‘ durch. Anlass war das von der Stiftung verfasste politische Diskussionspapier …, das von drei der sechs Mitautoren im Technopark Zürich vorgestellt wurde.“ Dies meldet der Humanistische Pressedienst am 12. November 2015. Auf der zweiten Seite von „Künstliche Intelligenz: Chancen und Risiken“ steht geschrieben: „Wir bedanken uns bei all jenen, die uns bei der Recherche oder beim Verfassen des Diskussionspapiers behilflich waren. Besonders hervorzuheben sind hierbei Kaspar Etter und Massimo Mannino für ihre Ratschläge zum Aufbau des Papiers; Prof. Oliver Bendel für Anstöße zum Kapitel ‚Vorteile und Risiken gängiger KIs‘; und Prof. Jürgen Schmidhuber für Inputs zu den Kapiteln ‚Generelle Intelligenz und Superintelligenz‘ und ‚Künstliches Bewusstsein‘, sowie für seine Inputs zum aktuellen Forschungsstand verschiedener KI-Bereiche.“ Der Informations- und Maschinenethiker Oliver Bendel sieht sich nicht als Vertreter des effektiven Altruismus und lehnt auch Rechte für Roboter ab, die in dem Papier angedacht werden. Er begrüßt aber die Diskussion, die durch die Stiftung angestoßen wird, und findet die angestellten Überlegungen in hohem Maße interessant und wichtig. Das Diskussionspapier kann hier heruntergeladen werden.
Beim Swiss ICT Symposium vom 10. bis 11. November 2015 gab es ein breites Spektrum von Vorträgen und Themen. Prof. Dr. Manfred Spitzer (Hirnforscher und Psychiater) und Sascha Lobo (SPON-Kolumnist) unterhielten als Keynoter das Publikum mit gewagten Thesen und anschaulichen Beispielen. Im gut besuchten Track „Internet der Dinge“ referierte Moritz Köhler (Director of Software Engineering, Sensirion AG). „IoT-Geräte und Mobiltelefone verschmelzen zusehends und ermöglichen völlig neue Anwendungen und Geschäftsmodelle.“ (www.swissict.ch) Was wird möglich, so fragte er sich, wenn Telefone immer mehr Kenntnis von ihrer Umwelt haben? Und lieferte „eine Einführung in die Sensorik in Mobiltelefonen und deren Bedeutung“. Smartphones, die Atem-, Stadt- und Raumluft analysieren können, lassen Behörden, Unternehmen und Privatleute aufhorchen. Auch Roboter mit Nasen werden für Staunen sorgen und nicht zuletzt bei der Tier-Maschine-Interaktion von Bedeutung sein. „Moralische Maschinen“ lautete der Titel des Vortrags von Prof. Dr. Oliver Bendel (Professor für Wirtschaftsinformatik und Ethik, Hochschule für Wirtschaft FHNW): „Autos bremsen rechtzeitig vor Menschen ab. Serviceroboter bringen Medikamente und sind nett zu uns. Manche Dinge, Roboter und (teil-)autonome Maschinen werden aber falsche oder interessengeleitete Entscheidungen treffen. Einfache moralische Maschinen könnten eine Lösung sein.“ (www.swissict.ch) Vielleicht entdeckt auch die Maschinenethik die Olfaktorik und lässt Roboter die Gerüche von Menschen analysieren und automatisch die dazu passenden Düfte ausströmen. Die Maschine wird insofern gut, als wir sie gut riechen können. Die Vortragsfolien stehen über www.swissict.ch zur Verfügung.
Im Jahrbuch „Strassenverkehr Schweiz 2016“ geht es auch um Roboterautos. Die Wissenschaftsjournalistin Barbara Fischer hat im Technopark in Zürich den Maschinenethiker Oliver Bendel interviewt. Sie beginnt mit den Worten: „Autonome Fahrzeuge sind nichts Neues, bereits Kutschen haben so funktioniert. War der Kutscher betrunken oder eingeschlafen, blieben die Pferde vor einer Schlucht selbstständig stehen und warteten, bis der Kutscher die Steuerung wieder übernehmen konnte.“ Der Professor, der an der Hochschule für Wirtschaft FHNW arbeitet, meint: „Ein sehr schöner Vergleich. Im Grunde verfügen Kutschen über entsprechende Systeme. Das Pferd ist sozusagen der intelligente Antrieb und Fahrerassistent. Der Kutscher entspricht dem Autofahrer, er ist verantwortlich für das Gefährt. Meist sitzt er bewusst am Steuer, er kann die Führung aber auch delegieren. Ein spannendes Detail im Fall der Kutsche: Pferde haben ihren eigenen Kopf, wenn sie klug sind, bleiben sie rechtzeitig stehen, wenn sie Angst haben, rasen sie womöglich in den Abgrund.“ Im Folgenden plädiert Bendel für einfache moralische Maschinen und problematisiert komplexe moralische Maschinen wie autonome Autos, die über Leben und Tod von Menschen entscheiden. Das Jahrbuch mit dem Interview ist am 9. November 2015 erschienen. Es richtet sich an „die Gesamtheit aller Entscheidungsträger der Schweizer Verkehrsszene“ (www.kömedia.ch). Der Beitrag steht dank der freundlichen Genehmigung durch die Autorin und den Verlag auf dieser Plattform kostenlos als PDF zur Verfügung.
Abb.: Klein, leicht, wendig – ein Vorbild für das Roboterauto?
Ein Workshop in Bremen widmet sich dem Thema „Maschinenethik – wenn Roboter über Leben und Tod entscheiden“. Den Eröffnungsvortrag hält Prof. Dr. Oliver Bendel, Hochschule für Wirtschaft FHNW (Basel, Olten und Brugg-Windisch). Er führt in die Disziplin ein und stellt Methoden vor, um moralische Maschinen umzusetzen. Dabei geht er auch auf annotierte Entscheidungsbäume ein. Auf der Website www.wissenswerte-bremen.de wird erklärt: „Maschinen, die quasi als Subjekte selbst Verantwortung übernehmen – wer trifft die Entscheidungen, wer übernimmt die Verantwortung? Die technologische Entwicklung stellt die Gesellschaft vor viele Fragen und Herausforderungen; bisherige Regeln lassen sich nur schwer auf aktuelle und zukünftige Gegebenheiten übertragen.“ Der Workshop lege den Fokus auf ein hochaktuelles Problem und widme sich den ethischen Problemen bei zwei exemplarischen autonomen Systemen, nämlich bei Roboterautos (Vortrag von Prof. Dr. Barbara Lenz, Leiterin Institut für Verkehrsforschung, Deutsches Zentrum für Luft- und Raumfahrt, Berlin) und autonomen Waffensystemen (Vortrag von Dr. Frank Sauer, Senior Researcher, Institut für Politikwissenschaft, Universität der Bundeswehr München). Der Workshop ist Teil des Dialogforums WISSENSWERTE 2015 vom 16. bis 17. November 2015. Die Programmplanung obliegt u.a. der Technischen Universität Dortmund, Partner sind Helmholtz-Gemeinschaft, Leibniz-Gemeinschaft, Max-Planck-Gesellschaft, Fraunhofer-Gesellschaft und Stifterband für die deutsche Wissenschaft. Das Programmheft enthält weitere Informationen.
Wen soll das autonome Auto töten? Darf es überhaupt töten? Wen soll die Drohne töten? Der Maschinenethiker Oliver Bendel befasst sich seit mehreren Jahren mit solchen Fragen. Bei watson.ch gibt es am 4. November alte und neue Antworten. Bendel spricht sich dafür aus, die Maschine nicht über Leben und Tod von Menschen entscheiden zu lassen. Dafür muss man das Roboterauto, wenn man es zulässt, in die Schranken weisen. Auf separaten Fahrspuren, zu bestimmten Uhrzeiten und mit reduzierter Geschwindigkeit entstehen weniger Unfälle und dadurch weniger Dilemmata. Zudem werden die Fahrzeuge für Skeptiker und Gegner berechenbarer, was ihrer Akzeptanz zuträglich ist. Überhaupt muss, so fordert Bendel, die Gesellschaft miteinbezogen werden. Am Rande wird auch auf Kampfroboter eingegangen. Der Maschinenethiker sagt dazu: „Ich habe zwar den Aufruf gegen Kampfroboter mitunterschrieben, aber ich muss zugeben, dass die Sache nicht ganz so schwarz-weiss ist, wie sie auf den ersten Blick scheint. Ein Kollege stellte schon vor einiger Zeit fest: Im Gegensatz zu Soldaten vergewaltigen Killerroboter nicht, sie brandschatzen nicht, sie plündern nicht. Sympathisch sind sie mir trotzdem nicht.“ (watson.ch, 4. November 2015) Der Beitrag kann über www.watson.ch/!106690026 aufgerufen werden.
Abb.: An diesem Jagdflugzeug war noch nichts autonom
Die Universität von Uppsala in Schweden sucht zwei Doktoranden im Bereich der Mensch-Computer-Interaktion. Maschinenethik und Informationsethik spielen bei einer der Stellen eine zentrale Rolle. In der allgemeinen Beschreibung steht: „The importance of IT necessitates the integration of ethical aspects in the development of computerized artifacts. Automation and interaction with advanced technology demand new knowledge of the conditions of use. An important part of HCI is the development of theories and methods on the integration of ethical values during the design and use of IT systems.“ (Website Uppsala Universitet) Zu den Anforderungen der einen Stelle wird gesagt: „One PhD student will work on developing basic HCI theory and theory/method for the integration of ethical aspects in design and use of computerized systems and tools. Part of the work is to investigate theories empirically through the construction of prototypes and test environments.“ (Website Uppsala Universitet) Bewerbungsschluss ist der 1. Dezember 2015. Für Fragen zu den Projekten können die Professoren Anders Jansson (anders.jansson@it.uu.se) und Iordanis Kavathatzopoulos (iordanis@it.uu.se) kontaktiert werden. Weitere Informationen über www.uu.se.
„Wer soll auf den Straßen über Leben und Tod von Menschen entscheiden?“ So lautete die Frage von @Infoethik bei einer der ersten Umfragen auf Twitter. Die neue Funktion namens Twitter Polls erlaubt es, die Meinungen der Benutzer einzuholen. Auf ZDNet wird Produktmanager Todd Sherman zitiert: „Twitter Polls sei eine neue Möglichkeit, mit dem riesigen Twitter-Publikum zu interagieren und herauszufinden, was Menschen denken. Für die Teilnehmer sei es eine einfache Möglichkeit, sich Gehör zu verschaffen.“ (Website ZDNet, 22. Oktober 2015) Weiter wird erklärt: „Umfragen auf Twitter haben eine vorgegebene Laufzeit von 24 Stunden. Nutzer können über zwei mögliche Antworten zu einer Frage abstimmen lassen.“ (Website ZDNet, 22. Oktober 2015) Jeder, der angemeldet ist, kann den passenden Radiobutton auswählen; wie man abgestimmt hat, wird nicht öffentlich mitgeteilt. Die beiden Antworten „Die Fahrer“ und „Die Autos“ wurden in den ersten Minuten einige Male angeklickt. Die Autos rasten davon. Es sollen weitere Umfragen zur Maschinenethik und zur Informationsethik stattfinden.
Im November 2014 fand die Konferenz „Love and Sex with Robots“ auf Madeira statt. Auf der Website loverobots.mixedrealitylab.org stand zur Veranstaltung geschrieben: „Within the fields of Human-Computer Interaction and Human-Robot Interaction, the past few years have witnessed a strong upsurge of interest in the more personal aspects of human relationships with these artificial partners. This upsurge has not only been apparent amongst the general public, as evidenced by an increase in coverage in the print media, TV documentaries and feature films, but also within the academic community.“ Themen waren u.a. „Robot Emotions“, „Humanoid Robots“ und „Roboethics“. Eine weitere Konferenz zu Robotersex und Sexrobotern, die für November 2015 in Malaysia geplant war, musste auf Verlangen der Behörden abgesagt werden. Auf loveandsexwithrobots.org ist zu lesen: „Due to circumstances beyond our control, the Second International Congress on Love and Sex with Robots will be postponed until 2016. The conference will definitely not be held anywhere in Malaysia. We deeply apologize to any person or any authority which have felt offense in any way.“ Weitere Informationen über www.bento.de.
Prof. Dr. Mark Coeckelbergh vom Centre for Computing and Social Responsibility De Montfort University, Leicester, UK hält am 21. Oktober 2015 einen Vortrag zum Thema „Die Ethik selbstfahrender Autos“. Im Ankündigungstext heißt es: „Sollten wir völlig automatisierte, intelligent selbstfahrende Autos ohne menschliche Fahrer entwickeln und verwenden? Können solche Autos jemals sicher sein? Können sie ethisch sein? Stellen solche Autos eine Bedrohung von Menschen dar oder ist das Weglassen von Menschen als Fahrer die Lösung?“ (Website ots.at) Es geht demnach um Fragen der Technik- und Informationsethik, aber auch der Maschinenethik. Auch die Frage nach der kulturellen Adaption wird aufgeworfen: „Ein weiteres Problem könnte hinsichtlich der kulturellen Unterschiede entstehen: wenn Fahrverhalten in Gesellschaften und Kulturen verschieden ist, wie kann das beim Design solcher autonomer Systeme berücksichtigt werden?“ Der Vortrag findet am Österreichischen Forschungsinstitut für Artificial Intelligence in Wien statt und beginnt um 18.30 Uhr. Weitere Informationen über www.ots.at.
Abb.: Für die Kuh wird gebremst, ob in Indien oder in Texas
Das Programm der Tagung „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“, veranstaltet von der Daimler und Benz Stiftung sowie vom Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (ceres), wurde Mitte Oktober 2015 fertiggestellt. Es steht auch über maschinenethik.net zum Download bereit. Während der eintägigen Veranstaltung in Berlin soll, wie ceres auf seiner Website schreibt, „aus verschiedenen Blickwinkeln beleuchtet werden, wie autonome Systeme unser Leben und unsere Gesellschaft verändern und welche ethischen Spannungsfelder hierdurch in unterschiedlichen Lebensbereichen aufgeworfen werden bzw. zukünftig entstehen können“ (Website ceres). Die Leitung der Tagung, die am 24. November 2015 ab 10 Uhr stattfindet, hat Prof. Dr. Christiane Woopen inne, die Referenten sind Prof. Dr. Alin Albi Schäffer (Deutsches Zentrum für Luft- und Raumfahrt, Direktor des Instituts für Robotik and Mechatronik), Prof. Dr. Oliver Bendel (Fachhochschule Nordwestschweiz, Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik), Prof. Dr. Hartmut Hirsch-Kreinsen (Technische Universität Dortmund, früherer Inhaber des Lehrstuhls für Wirtschafts- und Industriesoziologie), Prof. Dr. Norbert Lammert (Präsident des Deutschen Bundestages), Prof. Dr. Catrin Misselhorn (Universität Stuttgart, Direktorin des Instituts für Philosophie), Prof. Dr. Jochen Steil (Universität Bielefeld, geschäftsführender Direktor des Instituts für Kognition und Robotik) und Prof. Dr. Johannes Weyer (Technische Universität Dortmund, Professor für Techniksoziologie). Die Eröffnungsrede hält Prof. Dr. Eckard Minx, Vorsitzender des Vorstands der Daimler und Benz Stiftung.
In einem Artikel im Tages-Anzeiger von Lucie Machac (11. Oktober 2015) werden auch Maschinenethik und Roboterethik gestreift. Grundlage ist ein Interview mit Rolf Pfeifer. Als Erbauer definiere er für den Roboter auch ein Wertesystem. „Er meint damit nicht ethisch-moralische Werte.“ Maschinenethik treibt er demnach nicht – wie ist es mit der Roboterethik, genauer gesagt mit dem Bereich, der nach Rechten von Maschinen fragt? Würde Pfeifer, wenn individuelle Fähigkeiten erworben wurden, den Stecker ziehen? „Zum jetzigen Zeitpunkt habe ich überhaupt keine Skrupel.“ Mit dieser Haltung ist der Robotiker nicht allein – die meisten Experten sehen keinerlei Anlass, Roboter jetzt oder in naher Zukunft wie Tiere oder Menschen zu behandeln. Dennoch wagt er einen Blick in die weitere Zukunft: „Aber stellen Sie sich vor, wenn uns Roboter einmal anflehen können, den Stecker bittebitte nicht zu ziehen … Und vielleicht weinen sie dabei sogar. Was würden Sie dann tun?“ Die meisten Experten würden antworten: Erst recht den Stecker ziehen.