Robotik im Bundestag

Der Ausschuss Digitale Agenda des Deutschen Bundestages führt am 22. Juni 2016 von 16.00 bis 18.00 Uhr ein öffentliches Fachgespräch zum Themenkomplex „Auswirkungen der Robotik auf Arbeit, Wirtschaft und Gesellschaft“ durch. Prof. Dr. Oliver Bendel wurde als Sachverständiger benannt. Der Fokus soll laut den Verantwortlichen nicht allein auf Robotik und Arbeitswelt liegen, sondern es sollen überhaupt die Digitalisierung der Gesellschaft und die damit einhergehenden Probleme und Herausforderungen behandelt werden. Dazu zählen etwa die Ag­gre­ga­ti­on und Verknüpfung von Daten und neue Entwicklungen wie das autonome Fahren. Mit dem Ausschuss „Digitale Agenda“ hat der Deutsche Bundestag laut Website „zum ersten Mal ein ständiges parlamentarisches Gremium, das sich den aktuellen netzpolitischen Themen widmet“ (Website Ausschuss Digitale Agenda). Es „sollen die verschiedenen Aspekte der Digitalisierung und Vernetzung fachübergreifend diskutiert und entscheidende Weichen für den digitalen Wandel gestellt werden“ (Website Ausschuss Digitale Agenda). Netzpolitik sei für den Ausschuss kein „Nischenthema“. Das Gremium sehe sich vielmehr als wichtiger Impulsgeber für die parlamentarische Arbeit. Weitere Informationen über www.bundestag.de/ada.

Goldelse

Abb.: Die Goldelse in Berlin

From Teledildonics to Roboethics

The second international congress on „Love and Sex with Robots“ will be taking place in London, from 19 to 20 December 2016. Topics are robot emotions, humanoid robots, clone robots, entertainment robots, teledildonics, intelligent electronic sex hardware and roboethics. In the introduction it is said: „Within the fields of Human-Computer Interaction and Human-Robot Interaction, the past few years have witnessed a strong upsurge of interest in the more personal aspects of human relationships with these artificial partners. This upsurge has not only been apparent amongst the general public, as evidenced by an increase in coverage in the print media, TV documentaries and feature films, but also within the academic community.“ (Website LSR 2016) The congress „provides an excellent opportunity for academics and industry professionals to present and discuss their innovative work and ideas in an academic symposium“ (Website LSR 2016). According to the CfP, full papers should „be no more than 10 pages (excluding references) and extended abstracts should be no more than 3 pages (excluding references)“ (Website LSR 2016). More information via loveandsexwithrobots.org.

Logo_Congress

Fig.: Logo and mascot of the congress

Roboterethik im Deutschlandfunk

Am Donnerstag, 26. Mai 2016, ist der Wirtschaftsinformatiker, Informationsethiker und Maschinenethiker Oliver Bendel im Gespräch mit Inge Breuer. Das Schwerpunktthema im Deutschlandfunk lautet „Roboterethik: Wieviel Moral brauchen intelligente Maschinen?“ Aus der Ankündigung des Senders: „Bereits heute übernehmen Roboter eine Vielzahl von Aufgaben in der Industrie, im Finanzsektor, aber zunehmend auch bei Serviceleistungen, in der Pflege und im Verkehr. Diese schlauen Maschinen werden zunehmend autonomer und können auch komplexe Entscheidungen selbst treffen. Je autonomer solche intelligenten Systeme aber handeln, desto mehr stellt sich die Grundfrage nach der moralischen Fundierung der von diesen Maschinen getroffenen Entscheidungen. Wie vermag die ‚Moral der Maschine‘ sichergestellt, wie weit kann sie ihr von Beginn an ‚einprogrammiert‘ werden? Z.B. bei einem selbstfahrenden Auto: Soll es einem Unfall ausweichen, wenn es erkennt, dass dann stattdessen ein anderer den Unfall haben wird? Sind die eigenen Insassen – und damit Kunden des Herstellers – schutzwürdiger als Dritte? Wer trägt die Verantwortung für die Entscheidungen der Maschine? Zunehmend wird auch in Deutschland die Frage gestellt, ob man (teil-)autonomen Systemen so etwas wie Moral beibringen kann.“ Die Rubrik „Aus Kultur- und Sozialwissenschaften“ wird ab 20.10 Uhr ausgestrahlt.

Walker

Abb.: Wohin geht der Robot?

Grundrechte für Primaten

Grundrechte für Primaten fordert ein Positionspapier, das im April 2016 erschienen ist. Im Abstract heißt es: „Nichtmenschliche Primaten sind hochkomplexe Wesen und besitzen ein fundamentales Interesse daran, zu leben und körperlich und geistig unversehrt zu bleiben. Die bestehenden rechtlichen Bestimmungen in der Schweiz tragen diesen Interessen aber kaum Rechnung, weshalb Primaten des Schutzes durch Grundrechte bedürfen. Um die Forderung nach Grundrechten umzusetzen, wird ein konkreter Vorschlag für eine kantonale Initiative gemacht, die die Verankerung von Grundrechten auf Leben und auf körperliche und geistige Unversehrtheit für nichtmenschliche Primaten auf kantonaler Verfassungsstufe verlangt.“ Autorinnen und Autoren sind Raffael Fasel (Sentience Politics), Charlotte Blattner (PhD-Kandidatin im Völker- und Tierrecht, Universität Basel), Adriano Mannino (Präsident von Sentience Politics) und Tobias Baumann (Leiter Strategie von Sentience Politics). Als Unterstützer werden Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft, Fachhochschule Nordwestschweiz FHNW) und Prof. Dr. Markus Wild (Universität Basel) genannt. Bendel verbindet in seiner Forschung Maschinen- und Tierethik und hat im April 2016 zur Tier-Maschine-Interaktion an der Universität Bochum vorgetragen. Wild vertritt an seiner Hochschule u.a. die Tierphilosophie, inklusive der Tierethik, sowie die Philosophie der Biologie. Das Positionspapier kann direkt über sentience-politics.org heruntergeladen werden.

Primat

Abb.: Ein Primat wie du und ich

Contributions on Machine Ethics

The proceedings of the AAAI conference 2016 have been published in March 2016 („The 2016 AAAI Spring Symposium Series: Technical Reports“). The symposium „Ethical and Moral Considerations in Non-Human Agents“ was dedicated to the discipline of machine ethics. Ron Arkin (Georgia Institute of Technology), Luís Moniz Pereira (Universidade Nova de Lisboa), Peter Asaro (New School for Public Engagement, New York) and Oliver Bendel (School of Business FHNW) spoke about moral and immoral machines. The contribution „Annotated Decision Trees for Simple Moral Machines“ (Oliver Bendel) can be found on the pages 195 – 201. In the abstract it is said: „Autonomization often follows after the automization on which it is based. More and more machines have to make decisions with moral implications. Machine ethics, which can be seen as an equivalent of human ethics, analyses the chances and limits of moral machines. So far, decision trees have not been commonly used for modelling moral machines. This article proposes an approach for creating annotated decision trees, and specifies their central components. The focus is on simple moral machines. The chances of such models are illustrated with the example of a self-driving car that is friendly to humans and animals. Finally the advantages and disadvantages are discussed and conclusions are drawn.“ The proceedings can be ordered via www.aaai.org.

Qualifizierung des Faktors Mensch

Nach dem Wunsch von Alexander Dobrindt sollen „Autopilot und Fahrer rechtlich gleichgestellt“ werden, wie die Welt am 22. Mai berichtet. Der Verkehrsminister will zudem „ethische Fragen klären lassen“ (Die Welt, 22. Mai 2016). „Denn die Automatisierung kann zu moralisch kaum lösbaren Problemen führen. So sind Situationen vorstellbar, in denen ein Fahrzeug zwar einen Unfall nicht mehr verhindern, aber noch die Entscheidung treffen kann, ob es nach links ausweicht, wo eine Gruppe Schulkinder steht oder nach rechts wo ein älterer Fußgänger gerade die Straße überquert.“ (Die Welt, 22. Mai 2016) Dobrindt wolle deshalb „unter Beteiligung von Wissenschaft, Automobilindustrie und Digitalwirtschaft eine Kommission“ gründen, „die klare Leitlinien für Algorithmen entwickelt, welche die Fahrzeugreaktionen in Risikosituationen bestimmen“ (Die Welt, 22. Mai 2016). Allerdings will der Minister schon jetzt zwei Grundsätze für die Computersteuerungen vorgeben: 1. „Ein autonomes Auto müsse sich im Zweifel immer für den Sachschaden und gegen den Personenschaden entscheiden.“ Und 2: „Eine Qualifizierung des Faktors Mensch ist unzulässig“, wie es im entsprechenden Strategiepapier heißt. Ein Minister dürfe nur so wertvoll sein „wie alle anderen Menschen“ (Die Welt, 22. Mai 2016). Die Zeitung bemerkt dazu ganz richtig: „Doch gelöst ist das Problem mit dieser Festlegung natürlich noch nicht, denn nach irgendeinem Prinzip muss das Auto schließlich entscheiden, in welche Richtung es ausweicht, wenn ein Unfall unvermeidlich ist.“ Man darf gespannt sein, wer in die Kommission berufen wird und wie unabhängig diese ist. Die Welt hat in der Vergangenheit immer wieder über autonome Autos aus Sicht der Maschinenethik berichtet, etwa in diesem Artikel von Barbara Schneider und diesem Beitrag von Philipp Vetter.

 

Yellow_Car

Abb.: Ist es so freundlich, wie es scheint?

Blechpolizisten mit Elektroschockern

Im Silicon Valley sind Überwachungsroboter von Knightscope im Einsatz. Oliver Bendel – der Autor des Artikels „Blechpolizisten mit Elektroschockern“ – begegnete einem von ihnen im Shopping Center bei der Stanford University, an der er kurz zuvor einen Vortrag über Roboterautos gehalten hatte. Fast wäre er mit ihm zusammengestoßen, als er von Tür zu Tür, von Gebäude zu Gebäude unterwegs war. Es war ein milder Frühlingstag im März 2016, und vom ewigen Regen des Vormonats war nichts mehr zu sehen. „Überwachungsroboter dieser Art markieren physische Präsenz. Sie mischen sich unter die Menschen und rollen neben den Tieren.“ (inside-it.ch, 19. Mai 2016) Wenn es leer werde auf den Straßen und Wegen, seien ihre Silhouetten und Schatten zu sehen, und in den Räumen und Gebäuden seien sie diejenigen, die das Licht ausmachen. Neben dem K5 und dem kleinen Bruder, dem K3, ist seit kurzem ein weiteres Modell auf dem Markt. In China schaut der AnBot nach dem Rechten, und wenn er einen Verdächtigen entdeckt, kann er den Elektroschocker auf ihn richten. Während er im normalen Betrieb ein autonomer Roboter ist, wird er in einem solchen Fall zum Teleroboter: Die Waffe wird von einem Menschen ferngesteuert und im Ernstfall betätigt. Der Beitrag von Oliver Bendel, in dem auch ethische Aspekte angesprochen werden, ist am 19. Mai 2016 in der Zeitschrift inside-it.ch erschienen und kann über www.inside-it.ch/articles/43886 aufgerufen werden.

AnBot

Abb.: Ein Verwandter von AnBot und K5 bzw. K3

The GOODBOT Project

„The GOODBOT project was realized in 2013/14 in the context of machine ethics. First the tutoring person (the author of this contribution) laid out some general considerations. Then a student practice project was tendered within the school. Three future business informatics scientists applied for the practice-related work, developed the prototype over several months in cooperation with the professor, and presented it early in 2014. The successor project LIEBOT started in 2016.“ These are the initial words of a new contribution in Germany’s oldest online magazine, Telepolis. The author, Oliver Bendel, presents the GOODBOT project which is a part of his research on machine ethics. „The GOODBOT responds more or less appropriately to morally charged statements, thereby it differs from the majority of chatbots. It recognizes problems as the designers anticipated certain emotive words users might enter. It rates precarious statements or questions and escalates on multiple levels. Provided the chat runs according to standard, it is just a standard chatbot, but under extreme conditions it turns into a simple moral machine.“ The article „The GOODBOT Project: A Chatbot as a Moral Machine“ was published on May 17, 2016 and can be opened via http://www.heise.de/tp/artikel/48/48260/1.html.

Maschinen in Entscheidungsnot

Der Beitrag „Wer ist verantwortlich, wenn die künstliche Intelligenz versagt?“ wird am 17. Mai 2016 auf Deutschlandradio Kultur wiederholt. Heiner Kiesel widmet sich erneut – wie am 12. Januar 2016 – „Maschinen in Entscheidungsnot“. Im Ankündigungstext auf der Website heißt es: „In den 30er-Jahren des letzten Jahrhunderts hat der Biochemiker und Science-Fiction-Autor Isaac Asimov drei einfache Gesetze für Roboter aufgestellt. Damit sollte die Gefährdung von Menschen durch autonome Systeme ausgeschlossen werden. In der Gegenwart nimmt die Selbstständigkeit von Robotern konkrete Züge an. Selbststeuernde Autos nehmen am Straßenverkehr teil, Pflegeroboter werden für den Einsatz in Pflegestationen getestet und das Militär forscht mit Hochdruck an Kampfrobotern, die ihre Aufträge effizient und autonom abarbeiten. Wir sind dabei, viele Entscheidungen an die dienstfertigen Maschinen zu übergeben. Es wird unser Leben verändern. Aber während die technische Entwicklung rasant voranschreitet, gibt es kaum eine Perspektive darauf, wie die Gesetze heute aussehen müssen, die die rechtlichen und gesellschaftlichen Folgen unter Kontrolle bringen.“ (Website Deutschlandradio Kultur) Der Beitrag mit Statements von Oliver Bendel und Eric Hilgendorf beginnt kurz nach 19:00 Uhr. Weitere Informationen über www.deutschlandradiokultur.de/.

calculator

Abb.: Was ist, wenn der Roboter sich verrechnet?

A Robot in the Robot

NeXus, the magazine of the student projects connectUS, Focus India, Insight China and exploreASEAN (University of Applied Sciences and Arts Northwestern Switzerland FHNW), interviewed the machine ethicist and business information systems engineer Prof. Dr. Oliver Bendel. The first question Stephen Randes asked was: „Cars are an integral part of US culture and identity. How will self-driving cars be accepted in that market?“ The answer: „Some Americans will surely miss the fun of driving. However, there is a new kind of driving enjoyment. As everyone knows who has ever tried out the autopilot of the Tesla model S. Whether the social approval will be given remains to be seen. There are certainly reasons to reject autonomous cars in particular areas.“ The next question: „What about safety concerns? What happens if an accident cannot be avoided?“ The scientist’s answer: „This is a subject that we explore in machine ethics: whom shall the autonomous car kill if it cannot brake in time? You can teach it rules or feed it with cases, and make it a complex moral machine that decides on people’s life and death. I, personally, argue in favor of simple moral machines. I am not against robot cars – I advise not to let them drive at any place and at any time. It is a question of avoiding accidents if possible.“ The last question related again to the market and the development of mobility: „Market analysts expect 10 million self-driving cars on the roads by 2020. How do you think this will change mobility (individual transport, public transport, workplace commutes)?“ Oliver Bendel declared: „I see opportunities for public transport. In the Valais, PostAuto is testing autonomous shuttles. Their speed is very low, so that there can be hardly any damage. Private autonomous cars are well suited for the traffic between cities. New forms of car sharing are possible as well. Maybe one day self-driving cars might even be sent to fetch a pizza, which, however, implies that there is a robot in the robot – except the pizza is simply thrown into the car.“ A part of the interview was published in the April issue, including further information on the person and the motivation.

Mobile_Robot

Fig.: This robot could take the pizza