Die Sexroboter kommen

„Die Sexroboter kommen. Die Frage ist nur, wie sie kommen. Laut oder leise? Mit vorgetäuschten Gefühlen oder mit ermahnenden Hinweisen? Als menschenähnliche oder als funktionsorientierte Maschinen? Als Unterhaltungs- und Behandlungsmittel für die Allgemeinheit oder als Nischenprodukt für Einzelpersonen? Und die Frage ist, wann sie kommen. Sie sind bereits jetzt ein gewisses Phänomen. Aber werden sie, wie Sexspielzeug, zum allgemeinen Trend? Im vorliegenden Beitrag werden Ausführungen und Ansätze vorgestellt, vor allem aber moralphilosophische Fragen gestellt, um Entwicklungs- und Verbesserungsmöglichkeiten aufzuzeigen.“ Nach diesem Teaser werden im Artikel „Die Sexroboter kommen“ verschiedene Beispiele vorgestellt und Fragen aus der Perspektive der Maschinenethik sowie von Bereichsethiken wie Informations- und Medizinethik gestellt. Oliver Bendel gelangt zum Schluss: „Man kann Einschränkungen in Bezug auf die Entscheidungsfreiheit und das Erscheinungsbild der Sexroboter vorschlagen; man kann aber auch argumentieren, dass im geschützten Raum jede Phantasie ausgelebt werden darf, wenn niemand dabei Schaden erleidet. Letztlich dürfte nichts gegen eine gewisse Auswahl an Möglichkeiten sprechen, und jeder bzw. jede sollte für sich klären, ob ein Sexroboter richtig und gut für ihn oder sie ist.“ Der Beitrag ist am 13. Juni 2016 in Telepolis erschienen und kann über www.heise.de/tp/artikel/48/48471/1.html aufgerufen werden.

Sexspielzeug

Abb.: Eine Sexbestie oder ein Unschuldslamm?

Die Büchse der Pandora

Heike Henzmann hat im Rahmen der Serie „Walk and Talk“ für die Zeitschrift aktuelle technik (at) ein langes Gespräch mit dem Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel geführt. Gerettet hat man sich zunächst bei strömendem Regen in die Eidgenössische Technische Hochschule Zürich. Bendel hatte sich das Gebäude ausgesucht, weil er es seit 30 Jahren kennt und liebt, wie das Gebäude der Universität Zürich daneben. Und weil Einstein dort gewirkt hat, der wie er in Ulm zur Welt gekommen ist. Die Diskussion zwischen Einstein und Niels Bohr zu Kodizes für Ingenieure kennt Bendel seit dem Studium, und auch auf sie kommt die Sprache. Nachdem es aufgehört hatte zu regnen, spazierte man aus der ETHZ hinaus, an der Universität Zürich vorbei, an Luxusvillen und Zweckgebäuden, und schließlich auf Straßen und Treppen bis zum Hirschengraben hinunter, der ein Teil der mittelalterlichen Stadtbefestigung ist. Bald ging es nicht mehr nur um Maschinenethik, Informationsethik und Technologiefolgenabschätzung, sondern um Moral und Ethik im Allgemeinen und um die Rolle der Religion. Bendel betonte, dass die Grundzüge moralischer Vorstellungen wenig mit Religion zu tun hätten. Diese sei eh erst in der letzten Sekunde der Menschheitsgeschichte entstanden, zumindest in der Form, die man sie heute kennt. Zugleich könnten gewisse religiöse Vorstellungen Moral sogar korrumpieren, wie der Fundamentalismus zeigt. Der erste Teil des Interviews ist im Juni 2016 erschienen und darf mit freundlicher Genehmigung des leitenden Redakteurs hier heruntergeladen werden. Der zweite Teil wird im nächsten Heft abgedruckt und ebenfalls auf dieser Website zur Verfügung gestellt.

Pandora_Buechse

Abb.: Pandora in Erwartung ihrer Büchse

Autonomes Fahren im Bayerischen Fernsehen

Das Bayerische Fernsehen (BR Fernsehen) hat Oliver Bendel im Mai 2016 ins Verkehrszentrum des Deutschen Museums nach München eingeladen und dort ein Gespräch mit ihm geführt. „Mit über 4500 Exponaten zählen die Sammlungen des Landverkehrs zu den größten, wertvollsten und ältesten Sammlungen des Deutschen Museums.“ (Website Verkehrszentrum) Es ging um autonome Autos und den Verkehr der Zukunft. Der Philosoph und Wirtschaftsinformatiker sprach sich dafür aus, die Autobahnen dafür vorzusehen und die Städte weitgehend zu verschonen. Im Museum war ein Prototyp von Daimler ausgestellt, bei dem das autonome Fahren bereits Mitte der 90er-Jahre mit Hilfe von Fernsehkameras realisiert wurde. Im Ankündigungstext wird unter dem Titel „Auch eine Frage der Moral“ der Inhalt des Films skizziert und auf Dilemmata eingegangen: „Es gibt viele offene Fragen: Wie verhält sich ein autonomes Fahrzeug in einer Gefahrensituation? Was macht das Auto, wenn plötzlich ein kleines Mädchen vor ihm auf die Straße läuft? Was, wenn der Fahrer das Kind nur verschonen kann, indem er ausweicht, aber dadurch zum Beispiel einen Senioren gefährdet? Ist ein junges Leben mehr wert als ein älteres?“ (Website BR) Das Gespräch mit Oliver Bendel führte Patrick Lerch, ausgestrahlt wird der Beitrag voraussichtlich – ursprünglich eingeplant für den 1., dann für den 8. Juni 2016 – am 13. Juli 2016. Weitere Informationen über www.br.de.

Wie macht man Maschinen moralisch?

In einer Pressemitteilung, veröffentlicht über den Informationsdienst Wissenschaft, wird ein Seminar zur Maschinenethik auf Schloss Dagstuhl angekündigt. Dr. Roswitha Bardohl geht in ihrem Text auf die Entwicklung teilautonomer und autonomer Systeme ein und schreibt: „Wie bringt man solchen Maschinen die Moral bei?“ „Mit dieser Frage beschäftigt sich diese Woche ein internationales interdisziplinäres Seminar auf Schloss Dagstuhl. Die Teilnehmerinnen und Teilnehmer sind Wissenschaftler aus unterschiedlichen Ländern und kommen aus verschiedensten Fachbereichen: von der Informatik und der Mathematik über die Philosophie und Gesellschaftswissenschaften bis hin zu Wirtschafts- und Rechtswissenschaften.“ (Pressemitteilung IDW, 30. Mai 2016) In mehreren Arbeitsgruppen arbeiten die Teilnehmer, so die Pressemitteilung, zu den Fragestellungen „Wie macht man Maschinen moralisch?“ und „Wie überträgt man menschliche Kriterien der Moral auf künstliche Intelligenz?“ … Nach der Tagung „Roboterethik“ in Berlin und dem Workshop zur Maschinenethik in Bremen (beide 2015) mehren sich damit die Veranstaltungen zur Thematik im deutschsprachigen Raum. Weitere Informationen über idw-online.de/de/news653260.

Über die Moral der Maschinen

Ein vierteiliges Interview mit dem Maschinenethiker und Wirtschaftsinformatiker Oliver Bendel ist am 31. Mai 2016 in Telepolis erschienen. Es geht um autonome Autos, um neuartige Chatbots wie den GOODBOT und um tierfreundliche Saugroboter wie LADYBIRD. Es geht um die Forschung in der Schweiz und in den USA und das Zusammenleben mit den Maschinen. Zum Verkehr der Zukunft sagt Bendel: „Was also tun? Ich rate hartnäckig dazu, bestimmte Maschinen in offenen Welten nicht auf uns loszulassen. Es sind vermutlich tragfähige Kompromisse möglich. Man kann autonome Autos in den Städten verbieten und zwischen den Städten fahren lassen, auf bestimmten Spuren, wobei der Spurwechsel meist gut beherrscht wird, zu bestimmten Uhrzeiten, mit bestimmten Geschwindigkeiten. Eventuell auch im Entenmarsch, ein Auto fährt voran, die anderen bilden eine Kette wie die Küken hinter der Mutter. Projekte dieser Art hat es gegeben. Bei einer solchen Entflechtung des Verkehrs sind diejenigen beruhigt, die dem autonomen Auto misstrauen, und es werden kaum Unfälle mit konventionellen Fahrzeugen auftreten.“ (Telepolis, 31. Mai 2016) Der Beitrag mit dem Titel „Über die Moral der Maschinen und eine programmierte Ethik“ kann über www.heise.de/tp/artikel/48/48387/1.html abgerufen werden.

Duck

Abb.: Über den Entenmarsch staunt auch die Quietscheente

From Teledildonics to Roboethics

The second international congress on „Love and Sex with Robots“ will be taking place in London, from 19 to 20 December 2016. Topics are robot emotions, humanoid robots, clone robots, entertainment robots, teledildonics, intelligent electronic sex hardware and roboethics. In the introduction it is said: „Within the fields of Human-Computer Interaction and Human-Robot Interaction, the past few years have witnessed a strong upsurge of interest in the more personal aspects of human relationships with these artificial partners. This upsurge has not only been apparent amongst the general public, as evidenced by an increase in coverage in the print media, TV documentaries and feature films, but also within the academic community.“ (Website LSR 2016) The congress „provides an excellent opportunity for academics and industry professionals to present and discuss their innovative work and ideas in an academic symposium“ (Website LSR 2016). According to the CfP, full papers should „be no more than 10 pages (excluding references) and extended abstracts should be no more than 3 pages (excluding references)“ (Website LSR 2016). More information via loveandsexwithrobots.org.

Logo_Congress

Fig.: Logo and mascot of the congress

Roboterethik im Deutschlandfunk

Am Donnerstag, 26. Mai 2016, ist der Wirtschaftsinformatiker, Informationsethiker und Maschinenethiker Oliver Bendel im Gespräch mit Inge Breuer. Das Schwerpunktthema im Deutschlandfunk lautet „Roboterethik: Wieviel Moral brauchen intelligente Maschinen?“ Aus der Ankündigung des Senders: „Bereits heute übernehmen Roboter eine Vielzahl von Aufgaben in der Industrie, im Finanzsektor, aber zunehmend auch bei Serviceleistungen, in der Pflege und im Verkehr. Diese schlauen Maschinen werden zunehmend autonomer und können auch komplexe Entscheidungen selbst treffen. Je autonomer solche intelligenten Systeme aber handeln, desto mehr stellt sich die Grundfrage nach der moralischen Fundierung der von diesen Maschinen getroffenen Entscheidungen. Wie vermag die ‚Moral der Maschine‘ sichergestellt, wie weit kann sie ihr von Beginn an ‚einprogrammiert‘ werden? Z.B. bei einem selbstfahrenden Auto: Soll es einem Unfall ausweichen, wenn es erkennt, dass dann stattdessen ein anderer den Unfall haben wird? Sind die eigenen Insassen – und damit Kunden des Herstellers – schutzwürdiger als Dritte? Wer trägt die Verantwortung für die Entscheidungen der Maschine? Zunehmend wird auch in Deutschland die Frage gestellt, ob man (teil-)autonomen Systemen so etwas wie Moral beibringen kann.“ Die Rubrik „Aus Kultur- und Sozialwissenschaften“ wird ab 20.10 Uhr ausgestrahlt.

Walker

Abb.: Wohin geht der Robot?

Grundrechte für Primaten

Grundrechte für Primaten fordert ein Positionspapier, das im April 2016 erschienen ist. Im Abstract heißt es: „Nichtmenschliche Primaten sind hochkomplexe Wesen und besitzen ein fundamentales Interesse daran, zu leben und körperlich und geistig unversehrt zu bleiben. Die bestehenden rechtlichen Bestimmungen in der Schweiz tragen diesen Interessen aber kaum Rechnung, weshalb Primaten des Schutzes durch Grundrechte bedürfen. Um die Forderung nach Grundrechten umzusetzen, wird ein konkreter Vorschlag für eine kantonale Initiative gemacht, die die Verankerung von Grundrechten auf Leben und auf körperliche und geistige Unversehrtheit für nichtmenschliche Primaten auf kantonaler Verfassungsstufe verlangt.“ Autorinnen und Autoren sind Raffael Fasel (Sentience Politics), Charlotte Blattner (PhD-Kandidatin im Völker- und Tierrecht, Universität Basel), Adriano Mannino (Präsident von Sentience Politics) und Tobias Baumann (Leiter Strategie von Sentience Politics). Als Unterstützer werden Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft, Fachhochschule Nordwestschweiz FHNW) und Prof. Dr. Markus Wild (Universität Basel) genannt. Bendel verbindet in seiner Forschung Maschinen- und Tierethik und hat im April 2016 zur Tier-Maschine-Interaktion an der Universität Bochum vorgetragen. Wild vertritt an seiner Hochschule u.a. die Tierphilosophie, inklusive der Tierethik, sowie die Philosophie der Biologie. Das Positionspapier kann direkt über sentience-politics.org heruntergeladen werden (Link nicht mehr gültig).

Primat

Abb.: Ein Primat wie du und ich

Contributions on Machine Ethics

The proceedings of the AAAI conference 2016 have been published in March 2016 („The 2016 AAAI Spring Symposium Series: Technical Reports“). The symposium „Ethical and Moral Considerations in Non-Human Agents“ was dedicated to the discipline of machine ethics. Ron Arkin (Georgia Institute of Technology), Luís Moniz Pereira (Universidade Nova de Lisboa), Peter Asaro (New School for Public Engagement, New York) and Oliver Bendel (School of Business FHNW) spoke about moral and immoral machines. The contribution „Annotated Decision Trees for Simple Moral Machines“ (Oliver Bendel) can be found on the pages 195 – 201. In the abstract it is said: „Autonomization often follows after the automization on which it is based. More and more machines have to make decisions with moral implications. Machine ethics, which can be seen as an equivalent of human ethics, analyses the chances and limits of moral machines. So far, decision trees have not been commonly used for modelling moral machines. This article proposes an approach for creating annotated decision trees, and specifies their central components. The focus is on simple moral machines. The chances of such models are illustrated with the example of a self-driving car that is friendly to humans and animals. Finally the advantages and disadvantages are discussed and conclusions are drawn.“ The proceedings can be ordered via www.aaai.org.

Qualifizierung des Faktors Mensch

Nach dem Wunsch von Alexander Dobrindt sollen „Autopilot und Fahrer rechtlich gleichgestellt“ werden, wie die Welt am 22. Mai berichtet. Der Verkehrsminister will zudem „ethische Fragen klären lassen“ (Die Welt, 22. Mai 2016). „Denn die Automatisierung kann zu moralisch kaum lösbaren Problemen führen. So sind Situationen vorstellbar, in denen ein Fahrzeug zwar einen Unfall nicht mehr verhindern, aber noch die Entscheidung treffen kann, ob es nach links ausweicht, wo eine Gruppe Schulkinder steht oder nach rechts wo ein älterer Fußgänger gerade die Straße überquert.“ (Die Welt, 22. Mai 2016) Dobrindt wolle deshalb „unter Beteiligung von Wissenschaft, Automobilindustrie und Digitalwirtschaft eine Kommission“ gründen, „die klare Leitlinien für Algorithmen entwickelt, welche die Fahrzeugreaktionen in Risikosituationen bestimmen“ (Die Welt, 22. Mai 2016). Allerdings will der Minister schon jetzt zwei Grundsätze für die Computersteuerungen vorgeben: 1. „Ein autonomes Auto müsse sich im Zweifel immer für den Sachschaden und gegen den Personenschaden entscheiden.“ Und 2: „Eine Qualifizierung des Faktors Mensch ist unzulässig“, wie es im entsprechenden Strategiepapier heißt. Ein Minister dürfe nur so wertvoll sein „wie alle anderen Menschen“ (Die Welt, 22. Mai 2016). Die Zeitung bemerkt dazu ganz richtig: „Doch gelöst ist das Problem mit dieser Festlegung natürlich noch nicht, denn nach irgendeinem Prinzip muss das Auto schließlich entscheiden, in welche Richtung es ausweicht, wenn ein Unfall unvermeidlich ist.“ Man darf gespannt sein, wer in die Kommission berufen wird und wie unabhängig diese ist. Die Welt hat in der Vergangenheit immer wieder über autonome Autos aus Sicht der Maschinenethik berichtet, etwa in diesem Artikel von Barbara Schneider und diesem Beitrag von Philipp Vetter.

 

Yellow_Car

Abb.: Ist es so freundlich, wie es scheint?

Blechpolizisten mit Elektroschockern

Im Silicon Valley sind Überwachungsroboter von Knightscope im Einsatz. Oliver Bendel – der Autor des Artikels „Blechpolizisten mit Elektroschockern“ – begegnete einem von ihnen im Shopping Center bei der Stanford University, an der er kurz zuvor einen Vortrag über Roboterautos gehalten hatte. Fast wäre er mit ihm zusammengestoßen, als er von Tür zu Tür, von Gebäude zu Gebäude unterwegs war. Es war ein milder Frühlingstag im März 2016, und vom ewigen Regen des Vormonats war nichts mehr zu sehen. „Überwachungsroboter dieser Art markieren physische Präsenz. Sie mischen sich unter die Menschen und rollen neben den Tieren.“ (inside-it.ch, 19. Mai 2016) Wenn es leer werde auf den Straßen und Wegen, seien ihre Silhouetten und Schatten zu sehen, und in den Räumen und Gebäuden seien sie diejenigen, die das Licht ausmachen. Neben dem K5 und dem kleinen Bruder, dem K3, ist seit kurzem ein weiteres Modell auf dem Markt. In China schaut der AnBot nach dem Rechten, und wenn er einen Verdächtigen entdeckt, kann er den Elektroschocker auf ihn richten. Während er im normalen Betrieb ein autonomer Roboter ist, wird er in einem solchen Fall zum Teleroboter: Die Waffe wird von einem Menschen ferngesteuert und im Ernstfall betätigt. Der Beitrag von Oliver Bendel, in dem auch ethische Aspekte angesprochen werden, ist am 19. Mai 2016 in der Zeitschrift inside-it.ch erschienen und kann über www.inside-it.ch/post/blechpolizisten-mit-elektroschockern-20160519 aufgerufen werden.

AnBot

Abb.: Ein Verwandter von AnBot und K5 bzw. K3

The GOODBOT Project

„The GOODBOT project was realized in 2013/14 in the context of machine ethics. First the tutoring person (the author of this contribution) laid out some general considerations. Then a student practice project was tendered within the school. Three future business informatics scientists applied for the practice-related work, developed the prototype over several months in cooperation with the professor, and presented it early in 2014. The successor project LIEBOT started in 2016.“ These are the initial words of a new contribution in Germany’s oldest online magazine, Telepolis. The author, Oliver Bendel, presents the GOODBOT project which is a part of his research on machine ethics. „The GOODBOT responds more or less appropriately to morally charged statements, thereby it differs from the majority of chatbots. It recognizes problems as the designers anticipated certain emotive words users might enter. It rates precarious statements or questions and escalates on multiple levels. Provided the chat runs according to standard, it is just a standard chatbot, but under extreme conditions it turns into a simple moral machine.“ The article „The GOODBOT Project: A Chatbot as a Moral Machine“ was published on May 17, 2016 and can be opened via http://www.heise.de/tp/artikel/48/48260/1.html.

Maschinen in Entscheidungsnot

Der Beitrag „Wer ist verantwortlich, wenn die künstliche Intelligenz versagt?“ wird am 17. Mai 2016 auf Deutschlandradio Kultur wiederholt. Heiner Kiesel widmet sich erneut – wie am 12. Januar 2016 – „Maschinen in Entscheidungsnot“. Im Ankündigungstext auf der Website heißt es: „In den 30er-Jahren des letzten Jahrhunderts hat der Biochemiker und Science-Fiction-Autor Isaac Asimov drei einfache Gesetze für Roboter aufgestellt. Damit sollte die Gefährdung von Menschen durch autonome Systeme ausgeschlossen werden. In der Gegenwart nimmt die Selbstständigkeit von Robotern konkrete Züge an. Selbststeuernde Autos nehmen am Straßenverkehr teil, Pflegeroboter werden für den Einsatz in Pflegestationen getestet und das Militär forscht mit Hochdruck an Kampfrobotern, die ihre Aufträge effizient und autonom abarbeiten. Wir sind dabei, viele Entscheidungen an die dienstfertigen Maschinen zu übergeben. Es wird unser Leben verändern. Aber während die technische Entwicklung rasant voranschreitet, gibt es kaum eine Perspektive darauf, wie die Gesetze heute aussehen müssen, die die rechtlichen und gesellschaftlichen Folgen unter Kontrolle bringen.“ (Website Deutschlandradio Kultur) Der Beitrag mit Statements von Oliver Bendel und Eric Hilgendorf beginnt kurz nach 19:00 Uhr. Weitere Informationen über www.deutschlandradiokultur.de/.

calculator

Abb.: Was ist, wenn der Roboter sich verrechnet?

A Robot in the Robot

NeXus, the magazine of the student projects connectUS, Focus India, Insight China and exploreASEAN (University of Applied Sciences and Arts Northwestern Switzerland FHNW), interviewed the machine ethicist and business information systems engineer Prof. Dr. Oliver Bendel. The first question Stephen Randes asked was: „Cars are an integral part of US culture and identity. How will self-driving cars be accepted in that market?“ The answer: „Some Americans will surely miss the fun of driving. However, there is a new kind of driving enjoyment. As everyone knows who has ever tried out the autopilot of the Tesla model S. Whether the social approval will be given remains to be seen. There are certainly reasons to reject autonomous cars in particular areas.“ The next question: „What about safety concerns? What happens if an accident cannot be avoided?“ The scientist’s answer: „This is a subject that we explore in machine ethics: whom shall the autonomous car kill if it cannot brake in time? You can teach it rules or feed it with cases, and make it a complex moral machine that decides on people’s life and death. I, personally, argue in favor of simple moral machines. I am not against robot cars – I advise not to let them drive at any place and at any time. It is a question of avoiding accidents if possible.“ The last question related again to the market and the development of mobility: „Market analysts expect 10 million self-driving cars on the roads by 2020. How do you think this will change mobility (individual transport, public transport, workplace commutes)?“ Oliver Bendel declared: „I see opportunities for public transport. In the Valais, PostAuto is testing autonomous shuttles. Their speed is very low, so that there can be hardly any damage. Private autonomous cars are well suited for the traffic between cities. New forms of car sharing are possible as well. Maybe one day self-driving cars might even be sent to fetch a pizza, which, however, implies that there is a robot in the robot – except the pizza is simply thrown into the car.“ A part of the interview was published in the April issue, including further information on the person and the motivation.

Mobile_Robot

Fig.: This robot could take the pizza

The LIEBOT Project

The LIEBOT project is based on preparatory works by Prof. Dr. Oliver Bendel who already initiated the GOODBOT, a chatbot which can be considered a simple moral machine. Since 2013 he has published several articles on this subject and presented automatic strategies with a view to lying. A business informatics student of the School of Business FHNW, Kevin Schwegler, was contracted early in 2016 to implement the LIEBOT (aka LÜGENBOT) as a prototype in the scope of his graduation thesis under consideration and continuance of the preparatory works. The objective of the LIEBOT project is to give practical evidence of the potential of lies and risks of natural language systems. Online media and websites create or aggregate more and more texts automatically (robo-content) and robo-journalism is growing. Natural language dialog systems are becoming very popular. The chatbot to be programmed – the LIEBOT – shall be able to produce untruths and to respond in a morally inadequate manner. This makes it a reversion of the premise applied to the development of the GOODBOT and a continuance of the corresponding work under new auspices. A simple immoral machine is born. Further information as from autumn 2016 via luegenbot.ch and liebot.org (links no longer valid).

Fig.: From truth to lie

Maschinenethik im Kassensaal

Am 2. Mai 2016 fand in Wien eine öffentliche Sitzung der österreichischen Bioethikkommission zum Thema „Von Mensch und Maschine: Roboter in der Pflege“ statt. Wegen des großen Andrangs war sie in den Kassensaal, wo früher Geldgeschäfte getätigt wurden, verlegt worden, einen prächtigen Saal der Bundesregierung. Zunächst trafen sich die Referenten zu einem Hintergrundgespräch mit Pressevertretern im Bundeskanzleramt am Minoritenplatz. Nach einem Mittagessen im Café Landtmann ging man in den Kassensaal hinüber. Die Vorsitzende der Bioethikkommission, Christiane Druml, eröffnete die Veranstaltung. Oliver Bendel von der Hochschule für Wirtschaft FHNW referierte zu Maschinen- und Informationsethik und zu ethischen Fragen des Einsatzes von Pflegerobotern. Er ist der Meinung, dass diese die persönliche Autonomie von Patienten verbessern, aber auch deren informationelle Autonomie verletzen können. Mark Coeckelbergh, inzwischen an der Universität Wien tätig, fragte nach den Anforderungen in der Pflege und wie Pflegeroboter, auch aus Sicht der Maschinenethik, dazu passen, und Michael Decker vom KIT in Karlsruhe präsentierte ein aktuelles Projekt in diesem Bereich. Grundsätzliche Technologiekritik übte Jutta Weber von der Universität Paderborn. Markus Wohlmannstetter von der Krankenanstalt Rudolfstiftung nahm die Perspektive der Pflegerinnen und Pfleger ein. Ina Wagner, Mitglied der Bioethikkommission, fasste die Ergebnisse zusammen. Im Anschluss stellten Mitglieder der Kommission und der Öffentlichkeit eine Stunde lang ihre Fragen, wobei nicht nur teilautonome Pflege-, sondern auch autonome Kampfroboter thematisiert wurden, deren Einsatz ein älterer Österreicher forderte, während Oliver Bendel sich dagegen aussprach, obwohl sie, wie er erklärte, nicht plündern, brandschatzen oder vergewaltigen, also auch gewisse Vorteile hätten. Am Ende wurden die Referenten, die der Alpenrepublik ihre Erkenntnisse honorarfrei übermittelt hatten, mit einem kräftigen Applaus verabschiedet. Weitere Informationen und Fotos über www.ots.at/presseaussendung/OTS_20160503_OTS0014/bioethikkommission-diskutiert-den-einsatz-von-robotern-im-pflegebereich