Kategorie: Maschinenethik

Jyllands-Posten zur Zukunft der Liebe

Sarah Kott von der dänischen Zeitung Morgenavisen Jyllands-Posten stellte Oliver Bendel im Mai 2017 einige Fragen zu Sexrobotern und Robotersex. So wollte sie wissen, wie sehr dieser dem Zusammensein mit Menschen ähnelt. Die Antwort lautete: „It depends on what we will do with the robots and in which situations. In the twilight, provided a fertile imagination, stimulation and penetration could be similar. There are promising approaches and experiments with artificial flesh and artificial skin … some love dolls are extremely lifelike, and they could pass a ‚daylight test‘ without any problems. Therefore, tactile and optical requirements can be met. The voice seems to be a bigger problem. But in recent years, scientists and engineers have achieved major progress in the field of speech synthesis. 10 – 20 minutes of speech samples are enough, at least according to the promises, to imitate an individual voice in any kind of statement. Individual voices could be implanted in sex robots. During longer absences of a partner they might substitute the partner also acoustically. Furthermore, popular voices of film and porn stars could be used.“ Statements aus dem Interview sind in dem Artikel „Hvor havner dine hemmelige sexfantasier, når den fortrolige er en robot?“ enthalten, der am 9. Juli 2017 erschienen ist (auch online verfügbar).

Abb.: Über die Zukunft der Liebe wird allerorten diskutiert

Virtuelle Realität und maschinelle Moral

Seit ca. zehn Jahren werden moralische Maschinen intensiv erforscht. Auch autonome Autos waren früh im Fokus der zuständigen Disziplin, der Maschinenethik. 2012 wurde unter der Betreuung von Oliver Bendel eine Formel entwickelt, mit deren Hilfe autonome Autos in theoretischen Dilemmasituationen qualifizieren und quantifizieren können (Möglichkeiten, die er auf der TA-Konferenz in Prag Anfang 2013 kritisch diskutiert hat), später kamen Mittel wie annotierte Entscheidungsbäume hinzu. Forscher der Universität Osnabrück haben nun einen weiteren Ansatz vorgelegt, der autonome Autos als selbstlernende Systeme vorsieht. Josephine Lütke vom NDR fasst die Studie „Using Virtual Reality to Assess Ethical Decisions in Road Traffic Scenarios“ wie folgt zusammen: „Die Forscher haben eine Autofahrt auf einer Straße in der virtuellen Realität simuliert. Etwas mehr als 100 Probanden setzten sich eine spezielle Brille auf, die ihnen das Gefühl gab, tatsächlich Auto zu fahren.“ (Website NDR, 5. Juli 2017) Sie mussten nun – dies erinnert an die Moral Machine des MIT – in Dilemmasituationen entscheiden. „Mit diesen Ergebnissen der Versuche fütterten die Wissenschaftler dann einen Computer. Allerdings bekam die Maschine nicht alle Informationen. Etwa zehn Prozent der moralischen Entscheidungen, die die Menschen getroffen hatten, enthielten die Forscher der Maschine vor. Stattdessen musste der Computer die Versuche selbst machen. Und: Er hatte gelernt und entschied auch in den Fällen, die er noch nicht kannte, fast immer so, wie es auch die Menschen in den Versuchen gemacht hatten.“ (Website NDR, 5. Juli 2017) Weitere Informationen über www.ndr.de und journal.frontiersin.org.

Abb.: Virtuelle Realität und maschinelle Moral

Kollaborationsroboter im Wirtschaftslexikon

Am 4. Juli 2017 ist im Wirtschaftslexikon von Springer Gabler ein neuer Beitrag von Oliver Bendel erschienen. Es geht um Kooperations- und Kollaborationsroboter, also um moderne Industrieroboter, die mit uns Schritt für Schritt an einem gemeinsamen Ziel (Kooperationsroboter) bzw. Hand in Hand an einer gemeinsamen Aufgabe arbeiten, wobei wiederum ein bestimmtes Ziel gegeben ist (Kollaborationsroboter). „Sie nutzen dabei ihre mechanischen und sensorischen Fähigkeiten und treffen Entscheidungen mit Blick auf Produkte und Prozesse im Unternehmen bzw. in der Einrichtung. Co-Robots, wie sie gelegentlich genannt werden, können in Einzelfällen auch als Serviceroboter auftreten, etwa im medizinischen und pflegerischen Bereich. Die intensive Beschäftigung mit kooperativen und kollaborativen Robotern begann bereits in den 1990er-Jahren. In den 2010er-Jahren begannen sie sich durchzusetzen und in der Produktion zu verbreiten.“ (Gabler Wirtschaftslexikon) Die Roboter kommen uns näher, im Alltag und bei der Arbeit, sie unterstützen und ersetzen uns. In dem Beitrag werden auch ethische Aspekte dieser Entwicklung angesprochen. Er ist über wirtschaftslexikon.gabler.de/Definition/kollaborationsroboter.html aufrufbar.

Wer gibt, wer nimmt uns Lebenszeit?

Die Juli-Ausgabe der Zeitschrift National Geographic bringt den ersten Teil einer dreiteiligen Serie zur Künstlichen Intelligenz. Auf 14 Seiten widmet man sich der Arbeit von Oliver Bendel. Der Informations- und Maschinenethiker lebt und arbeitet in der Schweiz. Er stand dem Chefredakteur Florian Gless und der Redakteurin Ines Bellinger Rede und Antwort. Zudem gibt es eine Graphic Novel zu aktuellen Entwicklungen und den entsprechenden Überlegungen von Oliver Bendel. Ein Glossar zur KI rundet den Beitrag ab. Die Fotos stammen von Elias Hassos, der u.a. Hans Magnus Enzensberger und Martin Walser porträtiert hat. „Wir können in der Hängematte liegen“ – so lautet die Überschrift des Beitrags. Oliver Bendel ist der Meinung, dass uns Roboter unterstützen und entlasten können. Dass Menschen die besten Jahre des Lebens und die besten Stunden des Tages einem Unternehmen schenken, das ihnen womöglich nicht einmal sympathisch ist, hält er für eine Ideologie, die man hinterfragen kann. Vielleicht reichen vier Stunden am Tag für den Lebensunterhalt, wenn ein Grundeinkommen dazukommt. Denn die Gewinne werden weiter erzielt, mit Hilfe von Robotik und Künstlicher Intelligenz auch ohne die Arbeiter und Angestellten. Sie müssen nur gerecht verteilt werden. Weitere Informationen über www.nationalgeographic.de.

Abb.: Wer gibt, wer nimmt uns Lebenszeit?

Es gibt keine Lösung

Im Technoseum in Mannheim diskutierten am 21. Juni 2017 ab 18 Uhr Dr. Thomas Meyer, KIT-Zentrum für Mobilitätssysteme, und Prof. Dr. Oliver Bendel, Hochschule für Wirtschaft FHNW, zunächst zu technischen und rechtlichen Fragen rund um das automatisierte Fahren und das autonome Auto. Es moderierte Prof. Dr. Kurt Möser vom KIT. Oliver Bendel machte schon am Anfang seine Position klar: Vollautomatisiertes und autonomes Fahren gehört auf die Autobahn, nicht in den Stadtverkehr, außer man führt eine starke Geschwindigkeitsbeschränkung und spezielle Fahrspuren ein, was vor allem für Shuttles ein probates Mittel ist. Als die Abteilungsleiterin Öffentlichkeitsarbeit, Dr. Stefanie Roth, nach der Lösung für moralische Dilemmata fragte, wurde das im Titel der Veranstaltung versprochene ethische Thema aufgegriffen. Wen soll das Auto bei einem Unfall töten, wen nicht? Oliver Bendel konnte als Maschinenethiker den Kreis mit einem klaren Statement schließen: Es gibt keine Lösung. Das Auto sollte klassische und unklassische Dilemmata und überhaupt Situationen, in denen es um Leben und Tod mehrerer Menschen geht, nicht aufzulösen versuchen, weder durch Qualifizieren noch durch Quantifizieren. Genau deshalb gehört es auf die Autobahn, wo Fußgänger und Fahrradfahrer fehlen und wo man dank der integrierten und kommunizierenden Systeme für höchste Sicherheit sorgen kann. In der Stadt ist technisches und moralisches Scheitern vorprogrammiert. Dr. Thomas Meyer konnte aus der eigenen Arbeit am KIT und von den Einstellungen und Erwartungen der Ingenieure berichten. Erst gegen 20 Uhr löste sich die Veranstaltung ganz auf.

Abb.: Wenn sich die Kreuzung belebt, wird es schwierig

Dobrindts Kommission legt Bericht vor

Die „Ethikkommission“, die Alexander Dobrindt eingesetzt hat, hat nach neun Monaten ihren Bericht vorgelegt. Einerseits ging es um datenschutzrechtliche und informationsethische, andererseits um maschinenethische Fragen im Kontext des automatisierten Fahrens. Die Kommission war, wie üblich in Deutschland, vor allem mit Vertretern von Interessengruppen besetzt, etwa von ADAC und Kirche. Philosophische Ethiker blieben in der Minderzahl. Laut finanznachrichten.de müssten Fahrzeughalter und -nutzer „grundsätzlich über Weitergabe und Verwendung ihrer anfallenden Fahrzeugdaten“ entscheiden dürfen. Die Zulassung von automatisierten Systemen sei nur vertretbar, „wenn sie im Vergleich zu menschlichen Fahrleistungen zumindest eine Verminderung von Schäden im Sinne einer positiven Risikobilanz verspricht“. „So müssten Sach- und Tierschäden bei Unfällen immer Vorrang vor dem Personenschaden haben.“ (finanznachrichten.de, 20. Juni 2017) Dies war bereits eine Vorgabe von Alexander Dobrindt gewesen. Grundsätzlich müssten, so die Zeitung, die Systeme so programmiert sein, dass es nicht zu Unfällen kommt. Genau dies ist aber nicht möglich, und nicht nur die Software ist das Problem, sondern auch die Hardware im weitesten Sinne. „Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen … strikt untersagt. Eine Aufrechnung von Opfern ist untersagt. Eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden kann vertretbar sein. Die an der Erzeugung von Mobilitätsrisiken Beteiligten dürfen Unbeteiligte nicht opfern“, heiße es in dem Bericht (finanznachrichten.de, 20. Juni 2017). Das Qualifizieren wird also abgelehnt (dies war auch eine Vorgabe des Bundesverkehrsministers), das Quantifizieren nicht grundsätzlich.

Roboterliebe am Goldsmiths

Der „Third International Congress on Love and Sex with Robots“ findet am 19. und 20. Dezember 2017 in London (Goldsmiths, University of London) statt. Damit wurde der selbe Ort wie 2016 gewählt, ein ungewöhnlicher, anziehender Ort, wo Kunst und Wissenschaft zusammenkommen. In einer Information vom 8. Juni 2017 heißt es: „Within the fields of Human-Computer Interaction and Human-Robot Interaction, the past few years have witnessed a strong upsurge of interest in the more personal aspects of human relationships with these artificial partners. This upsurge has not only been apparent amongst the general public, as evidenced by an increase in coverage in the print media, TV documentaries and feature films, but also within the academic community. The International Congress on Love and Sex with Robots provides an excellent opportunity for academics and industry professionals to present and discuss their innovative work and ideas in an academic symposium.“ (Information LSR 2017, 8. Juni 2017) Papers sollen mindestens sieben Seiten umfassen und sich Themen wie „Entertainment Robots“, „Robot Personalities“, „Teledildonics“ und „Intelligent Electronic Sex Hardware“ widmen. Auch Informations- und Roboterethik sind mögliche Perspektiven. Das Buch mit den Beiträgen der letzten Konferenz ist Ende April 2017 bei Springer erschienen. Weitere Informationen über loveandsexwithrobots.org.

Abb.: Eine der goldenen Jungfrauen von Hephaistos?

Schlafen im Auto

Nele Würzbach von Noizz.de hat mit Oliver Bendel ein Interview zu autonomen Autos geführt, das am 5. Juni 2017 in dem Magazin aus Berlin veröffentlicht wurde. Eine Frage lautete, ob wir eines Tages während der Fahrt schlafen können. Die Antwort des Informations- und Maschinenethikers lautete: „Wenn wir das teil- und hochautomatisierte Fahren hinter uns gelassen haben und zum vollautomatisierten bzw. autonomen Fahren gekommen sind, können wir in der Tat während der Fahrt schlafen. Das Innenleben des Autos müsste entsprechend gestaltet werden, es bräuchte Liegesitze, verdunkelbare Scheiben etc. Es bräuchte zudem Konzepte für Gefahrensituationen. Vom Tiefschlaf bis zur vollen Denk- und Urteilsfähigkeit kann es eine Weile dauern. Ich denke, dass diese Vision bei PKW frühestens in zehn Jahren umgesetzt werden kann, und auch nur auf der Autobahn. Es sind übrigens nicht nur technische, sondern ebenso psychologische Aspekte zu bedenken. Man müsste ein Zutrauen zu den Fahrzeugen fassen, das dem Zutrauen zu Flugzeugen entspricht. Man müsste lernen, in einer Situation zu schlafen, die bisher unsere höchste Aufmerksamkeit beansprucht hat.“ Der Beitrag mit dem Titel „Kann man bald am Steuer schlafen?“ – davon, dass es auch künftig noch ein Steuer gibt, kann ausgegangen werden – kann über noizz.de/motor/wie-realistisch-ist-autonomes-fahren-wirklich/cd96p7y aufgerufen werden.

Abb.: In diesem Auto konnte man schon früher schlafen

Die Co-Robots kommen

Kooperation ist Zusammenarbeit, insbesondere auf wissenschaftlichem, politischem oder wirtschaftlichem Gebiet. Typisch ist ein hoher Grad an Arbeitsteilung bei gleichzeitigem Vorliegen eines gemeinsamen Ziels. Bei Kollaboration ist ein hoher Grad an unmittelbarer Zusammenarbeit gegeben. Die Tätigkeiten greifen ineinander und bauen aufeinander auf. Mit Blick auf die Industrie spricht man von Kooperations- oder Kollaborationsrobotern, abkürzend und verallgemeinernd von Co-Robots und Cobots. Die Bedeutungsunterschiede nimmt man mal mehr, mal weniger ernst. In der Regel sind Kooperation und Kollaboration mit Menschen gemeint. Auch unter Maschinen können sie stattfinden, aber dort sind sie auf einem gewissen Niveau üblich und verbreitet, während die enge Zusammenarbeit zwischen Industrierobotern und Mitarbeitern neuartig und gewinnbringend für beide Seiten ist. In seinem Artikel „Co-Robots und Co. – Entwicklungen und Trends bei Industrierobotern“ in der Netzwoche 9/2017 geht Oliver Bendel auf den Einsatz von Kooperations- und Kollaborationsrobotern ein, nennt konkrete Produkte und skizziert Chancen und Risiken.

Abb.: Wenn Maschinen und Geräte zusammenkommen

Bremsen für Haus- oder für Wildtiere?

„Klett News Ethik und Philosophie“, der Newsletter des Schulbuchverlags, untersucht in der aktuellen Ausgabe (Mai 2017) „Die Moral in der Maschine“. Das Buch mit dem gleichlautenden Titel von Prof. Dr. Oliver Bendel kam 2016 bei Heise Medien heraus. Der Newsletter enthält Material aus diesem Buch und anderen Quellen, etwa aus dem Massachusetts Institute of Technology (MIT). Es wird vor allem auf autonomes Fahren aus Sicht der Maschinenethik eingegangen. Entstanden sind drei Arbeitsblätter für die Klassen 10 bis 12/13 und eine Unterrichtsidee zur „moral machine“ der Hochschule in Cambridge. Zudem sind Links – z.B. zu maschinenethik.net – und Literaturhinweise (etwa zur Kurzgeschichte „Sally“ von Isaac Asimov) enthalten. Im Vorwort spricht Dr. Peter Ley auch die Forschung von Oliver Bendel zu Maschinen und Tieren im Rahmen von Maschinenethik und Tierethik sowie der Mensch-Maschine-Interaktion an und skizziert ein spezielles Problem: „Was bedeutet es, wenn das Programm das Bremssystem für unsere geliebten Haustiere aktiviert, nicht aber für Fuchs und Hase?“ Weitere Informationen über www.klett.de.

Abb.: Schutz von Haus- oder von Wildtieren?