Das Yps-Interview mit Oliver Bendel zu Robotik und Maschinenethik ist nun auch als PDF verfügbar, mit freundlicher Genehmigung des Chefredakteurs. Yps war jahrzehntelang das Kultheft für Kinder. Diese fieberten vor allem den Gimmicks entgegen, von denen sich einige bis heute im kollektiven Gedächtnis erhalten haben, etwa der Solarzeppelin, das Abenteuerzelt und die Maschine, mit deren Hilfe man eckige Eier macht. Eigene Produktionen, u.a. mit dem karierten Yps-Känguru, und lizensierte Comics dienten als gut bekömmliches und leichtverdauliches Lesefutter. Ein paar Jahre nach der Einstellung im Jahre 2000 erschienen Testausgaben, die sich an Erwachsene richteten. Der große Erfolg blieb zu dieser Zeit aus. Nach einer längeren Pause versuchte man es nochmals, mit einer thematischen Fokussierung auf Mode, Automobile und Technik und einem durchgehenden Bezug – so die Pressemitteilung des Verlags – „zu Karos, Kängurus oder Kohl“. Das Konzept ging auf, und so erhalten die Kinder von damals inzwischen jeden zweiten Monat eine Ausgabe. Die erste des Jahres 2016 wartete mit einem Schwerpunkt zu Robotern und Cyborgs auf. Mit www.yps.de ist das Heft auch im Web präsent.
Machine Ethics and Machine Law
In Krakau findet vom 18. bis 19. November 2016 die internationale Konferenz „Machine Ethics and Machine Law“ statt. Der Untertitel lautet „Interdisciplinary perspectives on moral and legal issues in artificial agents“. Auf der Website ist zu lesen: „AI systems have become an important part of our everyday lives. What used to be a subject of science fiction novels and movies has trespassed into the realm of facts. Our machines are tasked with ever more autonomous decisions that directly impact on the well-being of humans. This leads directly to the question: What are the ethical and legal limitations of those artificial agents? It is clear that some constraints should be imposed; both the unintended and often unforeseen negative consequences of the technological progress, as well as speculative and frightening views of the future portrayed in the works of fiction, leave no doubt that there ought to be some guidelines. The problem is to work out these constraints in a reasonable manner so that machine can be a moral and legal agent.“ (Website der Konferenz) Weitere Informationen über conference.philosophyinscience.com und machinelaw.philosophyinscience.com (Links nicht mehr gültig).
AAAI-Workshop zur Maschinenethik V
Am 23. März 2016 wurde der Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University innerhalb der AAAI Spring Symposium Series fortgeführt. Die Keynote „Programming Machine Ethics“ hielt Kumar Pandey von Aldebaran Robotics (SoftBank Group). Er war aus Krankheitsgründen über Skype zugeschaltet. Er stellte kommerzielle Produkte vor und zeigte Videos zu Pepper. Nicht nur Pepper stammt von dem französischen Unternehmen, sondern auch Nao. Beide sind darauf ausgelegt, mit Menschen zusammenzuleben. Das Feedback der Benutzer war ambivalent. Er sollte nicht oder nicht immer für mich entscheiden, lautete eine Meinung. Eine andere war: Er soll nicht das tun, was ich tun kann, damit ich nicht faul werde. Auch die Meinung der Teilnehmer war ambivalent, in Bezug auf die Visionen und die Videos. Der Referent selbst räumte ein, man spiele mit den Emotionen der Benutzer. Am Ende fragte er nach der Haftung und nach der Zertifizierung in moralischer Hinsicht und stellte die Behauptung auf, der Roboter sollte wissen, was er nicht tun darf, nicht lernen. Und er fragte, was sein wird, wenn der Roboter eines Tages einen Befehl verweigert. In der Panel Discussion arbeitete man die Erkenntnisse der letzten Tage auf, analysierte die Principles of Robotics der EPSRC aus dem Jahre 2011 und diskutierte Möglichkeiten für den weiteren Austausch.
Abb.: Salt and Pepper
AAAI-Workshop zur Maschinenethik IV
Beim Workshop „Ethical and Moral Considerations in Non-Human Agents“ war am Vormittag des 22. März eifrig vorgetragen und heftig diskutiert worden. Am Nachmittag begann Peter Asaro mit „The Liability Problem for Autonomous Artificial Agents“. Wenn der Hund, den man hält, einen Schaden anrichtet, haftet man teilweise, wenn der Tiger, der ausbricht, jemanden verletzt oder tötet, dagegen voll. Entsprechend könnte man bei Robotern einen Unterschied machen. „Patiency Is Not a Virtue: AI and the Design of Ethical Systems“ lautete der Titel des nächsten Talks. Joanna Bryson unterschied zwischen „moral agents“ und „moral patients“, erklärte den Begriff der Superintelligence und wandte ihn auf die Menschheit selbst an. Nach der Kaffeepause thematisierten Ron Artstein and Kenneth Silver eine „Ethics for a Combined Human-Machine Dialogue Agent“. Ausgangspunkt waren die in Museen arrangierten Gespräche mit Überlebenden des Holocausts. Deren Rolle soll von „dialogue agents“ übernommen werden, die mit vorher aufgezeichneten Aussagen auf die Fragen der Besucher antworten. Dabei können moralische Probleme auftreten, die mit Hilfe von ethischen Überlegungen angegangen werden können. Benjamin Kuipers wartete in „Morality and Ethics for Humans and Robots“ mit Ausschnitten aus Filmen wie „Terminator 2“ und „Robot & Frank“ auf und analysierte die Haltung der Roboter. Beim Terminator sei das Problem nicht Superintelligence, sondern Superpower. Zum Roboterauto-Problem bemerkte er, der Designer könne nicht jegliches Unheil verhindern. Das Auto müsse sich unser Vertrauen verdienen. Den Abschluss bildete „Robot Priest: Trust and Human Sciences“ von Cindy Mason. Neben ihr saß ein als Priester verkleideter WALL·E, und sie zeigte weitere Kostümierungen des Filmroboters, die jeweils unterschiedliche Erwartungen hervorrufen. Ihr ging es darum, inwieweit man Menschen und Maschinen vertrauen und wie das Aussehen damit zusammenhängen kann.
Abb.: Peter Asaro ließ den Tiger ausbrechen
AAAI-Workshop zur Maschinenethik III
Am 22. März 2016 wurde der Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University innerhalb der AAAI Spring Symposium Series fortgeführt. Die Keynote „Programming Machine Ethics“ wurde von Luís Moniz Pereira von der Universidade Nova de Lisboa gehalten. Er stellte sein Buch mit dem gleichen Titel und, damit einhergehend, ein Modell für einen moralischen Agenten vor. Bipin Indurkhya schlug in seinem Vortrag „Incorporating human dimension in autonomous decision-making on moral and ethical issues“ (das Paper entstand zusammen mit Joanna Misztal-Radecka) ein Expertensystem vor, das moralische Argumente aus unterschiedlichen Perspektiven liefert. Nach dem Coffee Break war Tony Veale über Skype zugeschaltet, mit „A Rap on the Knuckles and a Twist in the Tale: From Tweeting Affective Metaphors to Generating Stories with a Moral“. Er ließ sich von Tweets mit moralischen Aussagen inspirieren, die von Twitter-Bots stammen, und entwickelte eine Methode zum automatisierten Erzählen von moralischen Geschichten. In „Attachment Theor(ies) & Empathy: The Ethics of the Human in Sex and Love with Robots“ äußerte Kathleen Richardson, ebenfalls per Videokonferenz, ihre moralischen Bedenken gegenüber Sexrobotern, ohne eine wissenschaftliche, ethische Perspektive einzunehmen, wie die Diskutanten bemerkten. Andree Thieltges und Simon Hegelich (das Paper entstand in Zusammenarbeit mit Florian Schmidt) referierten vor Ort über „The Devil’s Triangle: Ethical considerations on developing bot detection methods“. Sie widmeten sich den Gefahren, die von Social Bots ausgehen mögen, und gingen der Frage nach, wie diese identifiziert werden können. Danach ging man in die Mittagspause.
AAAI-Workshop zur Maschinenethik II
Beim Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University war bereits am Vormittag des 21. März motiviert referiert und diskutiert worden. Am Nachmittag begann Tom Lenaerts mit „Conditions for the evolution of apology and forgiveness in populations of autonomous agents“. Das Paper stammt von ihm, Luis Martinez-Vaquero, The Anh Han und Luis Moniz Pereira. Es ging u.a. um digitale Alter Egos und wie wir ihnen vertrauen können. „Emergence of Cooperation in Group Interactions: Avoidance vs. Restriction“ von The Anh Han, Luis Moniz Pereira und Tom Lenaerts führte die Thematik fort. The Anh Han fokussierte auf Gruppeninteraktionen. Konkret benutzte er das Public Goods Game, einen Ansatz aus der Spieltheorie. „Guilt for Non-Humans“ von Luís Moniz Pereira, The Anh Han, Luis Martinez-Vaquero und Tom Lenaerts schloss den Teil vor der Kaffeepause ab. Luís Moniz Pereira versuchte das Gefühl der Schuld mit der „evolutionary game theory“ zu verbinden. Später ging es weiter mit „Simulation as a Method of Ethics: simulating agents by programming, to elucidate autonomy, agency and ethical virtues“ von Fernando Da Costa Cardoso und Luís Moniz Pereira. Der Professor aus Lissabon präsentierte eine Simulation, in der ein Roboter eine Prinzessin retten muss. Durch das Hinzufügen von (moralischen) Regeln kann man das Verhalten des Roboters beeinflussen.
Abb.: Der Roboter muss die Prinzessin retten
AAAI-Workshop zur Maschinenethik I
Beim Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University, der am 21. März 2016 im Rahmen der AAAI Spring Symposia eröffnet wurde, erklärte Ron Arkin (Georgia Institute of Technology, USA) in seiner Keynote „Robots that Need to Mislead: Biologically Inspired Machine Deception“, wie Tiere täuschen und wie man Maschinen beibringen kann, andere zu täuschen. Er ging auch auf die Möglichkeit ein, dass Roboter lügen, und stellte die Frage: „Should a robot be allowed to lie?“ Elizabeth Kinne und Georgi Stojanov thematisierten in „Grounding Drones‘ Ethical Use Reasoning“ die Chancen und Risiken von Kampfdrohnen. Sie stellten Szenarien vor, um die Probleme beim Einsatz zu vergegenwärtigen. Die Verantwortlichen könnten dazu neigen, immer mehr heikle Entscheidungen den Robotern zu überlassen. Der Vortrag „Metaethics in context of engineering ethical and moral systems“ von Michal Klincewicz und Lily Frank, bereits nach der Kaffeepause, fragte nach den grundsätzlichen Möglichkeiten und Unmöglichkeiten moralischer Systeme. Oliver Bendel ging auf das LIEBOT-Projekt ein. An der Hochschule für Wirtschaft FHNW wird 2016 im Rahmen einer Bachelor-Arbeit ein Chatbot programmiert, der konsequent die Unwahrheit sagt. Vor allem stellte der Wissenschaftler aber einen annotierten Entscheidungsbaum für eine einfache moralische Maschine vor, ein tierfreundliches Roboterauto. „The artificial autonomous moral agents (AAMA): a minimalist model“ war der letzte Vortrag vor dem Lunch. Ioan Muntean schlug in „The artificial autonomous moral agents (AAMA): a minimalist model“ einen Ansatz der Tugendethik vor, den er zusammen mit Don Howard erarbeitet hatte.
Die Moral der Roboter
Für „Der Sonntag“ vom 13. März 2016 hat René Zipperlen den Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel von der Hochschule für Wirtschaft FHNW interviewt. Sein Interesse gilt u.a. der Situation, die sich niemand wünscht: „Was ist, wenn ein autonomes Auto einen Unfall baut?“ Der Wissenschaftler führt aus: „Es klingt paradox: Für den Menschen stellt sich womöglich keine moralische Frage, weil alles viel zu schnell geht. Bei der Maschine entsteht aber vielleicht eine moralische Situation, weil sie andere Möglichkeiten nutzen kann als nur Reflexe, sie kann aufgrund einer Vielzahl von Beobachtungen und Bewertungen blitzschnell entscheiden, ob sie weiterfährt, ausweicht oder bremst.“ (Der Sonntag, 13. März 2016) Eine andere Frage ist: „Würden Sie die Autonomie von Fahrzeugen ab einem gewissen Punkt begrenzen?“ Die Antwort lautet: „Ich bin für hybride Autos, bei denen wir noch selbst eingreifen können. Google will Lenkrad und Pedal entfernen. Das halte ich für einen Fehler, denn es macht uns ohnmächtig. Ich wäre durchaus dafür, das autonome Auto zwischen Städten verkehren zu lassen, auf geraden Strecken wie der Autobahn.“ (Der Sonntag, 13. März 2016) Zipperlen: „Und im Stadtverkehr?“ Bendel: „Würde ich es im Moment verbieten. Städte sind zu kompliziert.“ (Der Sonntag, 13. März 2016) Der ganze Beitrag mit dem Titel „Die Moral der Roboter“ kann hier heruntergeladen werden.
Abb.: Fahrverbot in den Städten für das autonome Auto?
Menschenleben sind keine Rechengröße
In der Stuttgarter Zeitung vom 12. März 2016 ist ein ganzseitiges Interview – geführt hat es der Wissenschaftsjournalist Dr. Werner Ludwig – mit Prof. Dr. Oliver Bendel aus Zürich erschienen. Der Wirtschaftsinformatiker und Ethiker geht u.a. auf autonome Autos ein: „Ich bin nicht gegen das autonome Auto an sich. Ich bin ja selbst Maschinenethiker und konzipiere Maschinen, die bestimmte moralische Entscheidungen treffen. Ich bin nur der Meinung, dass das Auto eigentlich kein geeignetes System für die praktische Anwendung ist – zumindest, wenn es dabei um Menschenleben geht. Ich beschäftige mich stattdessen mit der Frage, wie man Kollisionen mit Tieren vermeiden kann. Auch das ist ja ein ethisches Problem. Ich frage mich zum Beispiel, ob man nicht Autos bauen könnte, die vor dem letzten Frosch seiner Art bremsen – natürlich nur, wenn dahinter keiner fährt. Ich halte es für schwierig und kaum akzeptabel, dass Maschinen über Menschenleben entscheiden.“ (Stuttgarter Zeitung, 12. März 2016) Das Interview mit der Überschrift „Menschenleben sind keine Rechengröße“ ist auf Seite 11 zu finden. Es kann, mit freundlicher Genehmigung des Autors und der Zeitung, hier heruntergeladen werden.
Abb.: Auch ein Bus kann autonom fahren
V-Effekt für Roboter
„Forscher arbeiten unter Hochdruck an sozialen Robotern. Sie sollen echte Gefährten werden, sogar eigene Persönlichkeit entwickeln. So schwindet die Differenz zwischen Mensch und Maschine. Das wirft ethische Fragen auf.“ (RP, 10. März 2016) Mit diesen Worten beginnt der Artikel „Soziale Roboter auf dem Vormarsch“ von Dorothee Krings, erschienen am 10. März 2016 in der Rheinischen Post. Eingegangen wird auf zwei neue Projekte in diesem Bereich: An der Uni Bielefeld wird „an einem Maschinen-Lehrer gebaut, der Einwandererkindern beim Deutschlernen helfen soll“ (RP, 10. März 2016). „Nao ist nur 60 Zentimeter groß, ein niedliches Spielzeug, aber er kann sehen, hören und bald auch die Stimmungslage seines Gegenübers einschätzen – und auf Unlust reagieren.“ (RP, 10. März 2016) In Freiburg „wird an Fritz getüftelt, einem Gestell mit Comicgesicht, das Blickkontakt aufnehmen und die Mundwinkel sinken lassen kann, wenn man sich von ihm abwendet“. Er soll „durchs Museum führen und merken, wenn seine Zuhörer sich langweilen“ (RP, 10. März 2016). „In 20 Jahren wird man Roboter haben, die wirklich unter uns leben, mit denen wir reden, die wir lieben“, wird Oliver Bendel zitiert, „einer der führenden Maschinenethiker, der in der Schweiz lehrt“ (RP, 10. März 2016). Dabei sieht er neben den Chancen die Risiken und macht Vorschläge, wie das Zusammenleben gelingen kann. Er spricht von einem V-Effekt für Roboter, „frei nach dem Theater von Brecht“; „der Roboter hält inne und betont, dass er nur eine Maschine ist“ (RP, 10. März 2016). Der Artikel kann über www.rp-online.de/politik/soziale-roboter-auf-dem-vormarsch-aid-1.5824498 abgerufen werden.
Abb.: Ich bin nur eine Maschine
Noch bleiben die Hände am Steuerrad
Bruno Knellwolf berichtete am 3. März 2016 vom Auto-Salon in Genf. Der Artikel, der u.a. im St. Galler Tagblatt erschienen ist, beginnt mit den Worten: „Neben 120 Welt- und Europapremieren sind ab heute am Auto-Salon in Genf bei einigen Autoherstellern auch ihre Forschungen zum selbstfahrenden Auto zu sehen. Lotta Jakobsson von Volvo erklärt, warum wir noch einige Zeit das Lenkrad im Griff behalten werden.“ (Tagblatt, 3. März 2016) „Wenn jemand fahren will, soll er das tun können. Dafür hat er ja ein Auto“, wird die Expertin zitiert. „Doch sei es ihm auf der langen Reise auf der Autobahn langweilig, sollte er sich mit etwas anderem beschäftigen können. Das autonome Fahren sei aber noch nicht mehrheitsfähig, weil uns die Erfahrung fehle. Unsere Haltung in dieser Frage werde sich aber in fünf bis zehn Jahren ändern.“ (Tagblatt, 3. März 2016) Zu Wort kommt auch Oliver Bendel. „Darf man sein und das Leben anderer also einem Algorithmus anvertrauen? Im ‚Spiegel‘ zweifelt Oliver Bendel von der Fachhochschule Nordwestschweiz daran. Es sei fatal, Maschinen komplexe moralische Entscheidungen zu überlassen.“ Der Wirtschaftsinformatiker und Maschinenethiker spricht sich für einfache moralische Maschinen aus, die einfache moralische Entscheidungen treffen, etwa in Bezug auf Tiere, und dadurch zu deren Wohl beitragen können. Der Artikel mit dem Titel „Noch bleiben die Hände am Steuerrad“ kann hier gelesen werden.
Abb.: Bald fehlen die Hände am Steuerrad
Verwundbare Maschinen
Ein Workshop zur Maschinenethik findet vom 21. bis 23. März 2016 an der Stanford University statt, mit dem Titel „Ethical and Moral Considerations in Non-Human Agents“, im Rahmen einer AAAI-Konferenz. Die erste Keynote hält Ron Craig Arkin, Georgia Institute of Technology. Im Anschluss daran sprechen Elizabeth Kinne and Georgi Stojanov über „Vulnerable Humans, Vulnerable Machines“. Nach dem ersten Break folgt der Vortrag „Metaethics in context of engineering ethical and moral systems“ von Michal Klincewicz und Lily Frank, danach „Annotated Decision Trees for Simple Moral Machines“ von Oliver Bendel, wobei auf ein selbstständig fahrendes Auto eingegangen wird, das für bestimmte Tiere bremst. „The artificial autonomous moral agents (AAMA): a minimalist model“ von Ioan Muntean und Don Howard schließt die Session am Morgen ab. Weitere Referenten sind u.a. Luis Moniz Pereira von der Universidade Nova de Lisboa, Portugal (der auch die zweite Keynote hält), Mark Coeckelbergh und Peter Asaro. Die abschließende Keynote am Mittwoch hält Amit Kumar Pandey, Aldebaran Robotics, Paris. Weitere Informationen zum Programm über sites.google.com/site/ethicalnonhumanagents/papers.
Abb.: Auch ein Roboter ist nur ein Mensch
Wenn Roboterautos Unfälle bauen
Der Mannheimer Morgen hat am 1. März 2016 ein Interview mit dem Maschinenethiker Oliver Bendel geführt. Auf dieser Basis ist der Artikel „Nicht alles ausprobieren lassen“ (2. März 2016) von Alexander Jungert entstanden. Er hat zudem den Unfall, den das Roboterauto von Google verursacht hat, thematisiert und analysiert, und dazu wiederum Aussagen von Experten zitiert. Im Interview äußerte sich Oliver Bendel auf die Frage „Wie beurteilen Sie in diesem Zusammenhang die optimistische Visionen der Autoindustrie, was das pilotierte Fahren angeht?“ wie folgt: „Die Automobilindustrie und andere Branchen können mit diesen Projekten sehr viel Geld verdienen, mit den einzelnen Fahrzeugen, aber auch mit der ganzen Infrastruktur. Ich habe nichts gegen autonome Autos, aber ich glaube, dass sie in bestimmte Bereiche gehören. Sie sind ideal für eine Fahrt von Mailand nach Genua, sogar auf den Autobahnen rund um Mailand. Aber im Stadtverkehr wird es schwierig durch Fahrräder und Mofafahrer, durch Menschen und Tiere, durch Signale, Schilder, Zeichen aller Art. Alles bewegt sich, alles leuchtet und blinkt, und manchmal ist jemand unterwegs, der das Auto in die Irre führen will. Die Autoindustrie treibt hier wichtige Innovationen voran. Aber wir dürfen sie nicht alles ausprobieren lassen.“ Der Artikel kann über www.morgenweb.de/nachrichten/wirtschaft/wirtschaft/nicht-alles-ausprobieren-lassen-1.2667796 abgerufen werden.
Abb.: Auch Roboterautos sind vor Unfällen nicht gefeit
Welchen Wert hat der Mensch?
„Darf das selbstfahrende Auto Menschenleben bewerten?“ Dies fragt in dem gleichnamigen Artikel in der Welt vom 25. Februar 2016 die Journalistin Barbara Schneider. Im Teaser schreibt sie: „Bald sollen selbstfahrende Autos zum Alltag gehören. Ethiker melden Bedenken an: Soll Technik zum Beispiel entscheiden dürfen, dass bei einem Unfall ein Mensch stirbt, damit viele andere überleben?“ Zu Wort kommen u.a. Catrin Misselhorn und Oliver Bendel. Ihre Positionen werden gegenübergestellt: „Die Tübinger Philosophin Catrin Misselhorn verfolgt den Ansatz, nach einem gesellschaftlichen Konsens für diese ethischen Fragen zu suchen. … Es müsse anhand von empirischen Befragungen herausgefunden werden, welches ethische Konzept der Intuition der meisten Menschen entspreche, sagt Misselhorn. Mit dieser Moral könne dann das selbstfahrende Auto ausgestattet werden.“ (Die Welt, 25. Februar 2016) Und weiter: „Der Philosoph Oliver Bendel sieht das anders. Er warnt prinzipiell davor, Maschinen wie Roboter-Autos komplexe Entscheidungen zu überlassen. ‚Die Maschine kann keine Verantwortung übernehmen‘, sagt er. Ein Roboter-Auto, das beispielsweise einen Unfall verursache, könne keine Schuld tragen.“ (Die Welt, 25. Februar 2016) Aus diesem Ansatz heraus konzipiert der Maschinenethiker einfache moralische Maschinen, etwa tierfreundliche Saugroboter oder das Recht am Bild und die Privatsphäre achtende Fotodrohnen. Der Artikel kann über www.welt.de/wissenschaft/article152649685/Darf-das-selbstfahrende-Auto-Menschenleben-bewerten.html aufgerufen werden.
Abb.: Mehr Angst vor dem bösen Auto als vor dem bösen Wolf?
Maschinenethik im SPIEGEL
Der SPIEGEL beleuchtet in seiner Titelstory der Ausgabe 9/2016 das autonome Auto („Steuer frei“). Markus Brauck, Dietmar Hawranek und Thomas Schulz lassen u.a. Daimler-Vorstand Wolfgang Bernhard, Daimler-Chef Dieter Zetsche, Google-Forscher Sebastian Thrun und Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel zu Wort kommen. „Das können wir nicht dem Google überlassen“, wird Bernhard zitiert, und gemeint ist das Geschäft mit dem Roboterauto. Das Magazin wird grundsätzlich: „Technologische Umbrüche, wie sie in der Automobilindustrie jetzt anstehen, haben schon viele Firmen hinweggefegt, die unsterblich schienen. Den Fernsehhersteller Telefunken, den Schreibmaschinenfabrikanten Triumph-Adler, die Fotofirma Kodak.“ (SPIEGEL, 27. Februar 2016) „Wir haben uns aufgemacht“, so Zetsche laut SPIEGEL, „diese Statistik zu schlagen“. „Buchstäblich Hunderte Menschen wollten mir weismachen, dass man kein fahrerloses Auto bauen kann“, sagt Thrun. Der Forscher gilt als Pionier in diesem Bereich. Bendel verbindet Maschinen- und Tierethik. Erwähnt wird seine Konzeption eines tierfreundlichen Saugroboters namens LADYBIRD, aber auch seine Arbeit zu Roboterautos. „Er ist Spezialist für Maschinenethik und setzt sich seit Jahren mit den moralischen Dilemmata auseinander, die das selbstfahrende Auto mit sich bringt. … Für Bendel hängt die Akzeptanz von selbstfahrenden Autos auch davon ab, ob diese ethischen Fragen zur Zufriedenheit der Bürger beantwortet werden. Bendel misstraut den optimistischen Visionen der Industrie. Es sei fatal, Maschinen komplexe moralische Entscheidungen zu überlassen.“ (SPIEGEL, 27. Februar 2016)
Abb.: Das Auto schaut dich an, bevor es dich tötet
Pfleger aus Silizium
„Pfleger aus Silizium und Stahl“ lautet der Titel eines Beitrags in der Zeitschrift Strom (1/2016) von Infel Corporate Media. Geschrieben hat ihn Sarah Hadorn. Interviewt hat sie Heidrun Becker, Zentrum für Technologiefolgen-Abschätzung (TA-SWISS), Oliver Bendel, Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik an der Hochschule für Wirtschaft FHNW und Margrit Lüscher, Geschäftsleiterin der Demenzabteilung im Alterszentrum Bruggwiesen in Effretikon (Zürich). Pflegeroboter unterstützen oder ersetzen – so das Wirtschaftslexikon von Gabler – menschliche Pflegekräfte bzw. Betreuerinnen und Betreuer. „Sie bringen und reichen Kranken und Alten die benötigten Medikamente und Nahrungsmittel, helfen ihnen beim Hinlegen und Aufrichten oder alarmieren den Notdienst. Manche verfügen über natürlichsprachliche Fähigkeiten, sind lernende und intelligente Systeme.“ (Gabler Wirtschaftslexikon) Es entstehen Herausforderungen, die aus der Perspektive der Ethik und der Technik angegangen werden können. Bendel sagt hierzu: „Es braucht ein Tandem: Mensch und Roboter“. Zum einen kann der Roboter nicht die menschliche Nähe und Wärme liefern, die der Mensch als Patient benötigt. Zum anderen ist der Mensch als Pfleger schnell zur Stelle, wenn der Roboter einen Fehler macht. Ein Tandem kann die Angestellten entlasten, die Kosten der Einrichtung senken und eine verträgliche Lösung für die Betreuten sein. Der Artikel kann, mit freundlicher Genehmigung der Autorin und des Verlags, hier heruntergeladen werden.
Abb.: Soll der Roboter das Fieber messen?