KI & Autonomes Fahren

„Die Digitalisierung hat längst alle Bereiche unseres Lebens durchdrungen und macht auch vor dem menschlichen Gehirn nicht Halt. Die neuen Möglichkeiten bringen Visionen von großen Entwicklungen in Wirtschaft, Forschung und natürlich auch der Hirnforschung mit sich, gleichzeitig gibt es weitreichende Diskussionen, ob alle möglich erscheinenden Entwicklungen ethisch vertretbar sind. Neuronale Netze, künstliche Intelligenz (KI), autonome Systeme – die Digitalisierung ist angewiesen auf neurowissenschaftliche Erkenntnisse. Neurowissenschaftler wiederum versprechen sich neue Wege für Forschung und Behandlung durch die rasanten Fortschritte der Digitalisierung.“ (Website GHS) Gemeinsam mit der Frankfurter Allgemeinen Zeitung veranstaltet die Gemeinnützige Hertie-Stiftung diese Reihe, die laut Eigenaussage in Übersichtsvorträgen, Podiumsdiskussionen und Gesprächen in hochkarätiger Besetzung das „Gehirn der Zukunft“ umkreist. Bei der Veranstaltung „KI & Autonomes Fahren“ am 13. Mai 2019 tragen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Dr. Corinna Bernarding (Universität des Saarlandes), Prof. Dr. Andreas Geiger (Max-Planck-Institut für intelligente Systeme) und Dr. Sebastian Söhner (Porsche AG) über automatisches und autonomes Fahren vor und diskutieren auf dem Podium miteinander. Weitere Informationen über www.ghst.de/gehirn/erforschen/veranstaltungen/#c11097.

Abb.: Welche ethischen Probleme wirft autonomes Fahren auf?

Pflegerobotik im Parlamentsfernsehen

Das öffentliche Fachgespräch zu Pflegerobotern am 20. Februar 2019 im Deutschen Bundestag zog zahlreiche Besucher an. Auch Politiker von SPD, Bündnis 90/Die Grünen und FDP waren durchgehend anwesend. Robotikerin Dr. Birgit Graf sprach über „Potenziale und Grenzen der Robotik für die Pflege – Stand der Technik und Anwendung, Herausforderungen für Forschung und Entwicklung“, Pflegewissenschaftler Prof. Dr. Manfred Hülsken-Giesler nahm eine „Einordnung und Bewertung aus Sicht der Pflegewissenschaft“ vor. „Ethisch-normative Herausforderungen der Pflegerobotik“ war der Titel des Vortrags von Prof. Dr. Oliver Bendel. Der Informations- und Maschinenethiker stellte Prototypen und Produkte vor und vor diesem Hintergrund verschiedene Überlegungen aus Sicht von Informationsethik und Maschinenethik an. Auch auf den moralisierten Nao von Michael Anderson, Susan L. Anderson und Vincent Berenz ging er ein. Das Programm kann hier nachgelesen, ein Bericht hier abgerufen werden. Das Parlamentsfernsehen strahlte die Aufzeichnung des Fachgesprächs am 22. Februar 2019 von 9.00 bis 11.45 Uhr aus.

Abb.: Kamera läuft

Über den Einsatz von Pflegerobotern

„Noch ist nicht ausgemacht, wohin, fest aber steht: Im Zuge der Digitalisierung verschieben sich Grenzen.“ So beginnt die Einführung von Andreas Vierecke in der neuen Ausgabe der Blätter der Wohlfahrtspflege (1/2019). „Was … zunächst einmal ansteht, ist die Notwendigkeit, uns in irgendeiner Weise zu den mit der Digitalisierung unabweisbar einhergehenden Herausforderungen zu verhalten und eine Strategie für die eigene Organisation zu entwickeln.“ (BdW 1/2019) Identifiziert werden müssen die konkreten Technologien, die konkreten Anwendungsfelder und die konkreten Herausforderungen. Das Spektrum ist breit, von einfachen Warnsystemen bis hin zu komplexen Robotern. „Über ethische Aspekte des Einsatzes von Pflegerobotern … hat sich Oliver Bendel Gedanken gemacht, von denen er in diesem Heft einige mit uns teilt.“ (BdW 1/2019) Weitere Informationen über www.nomos-elibrary.de/10.5771/0340-8574-2019-1/bdw-blaetter-der-wohlfahrtspflege-jahrgang-166-2019-heft-1.

Abb.: Eine menschliche Hand wird gereicht

„Perspektiven“-Podcast zur Maschinenethik

„Perspektiven“ ist eine Gesprächsreihe zu Themen der Wirtschaftsinformatik, die Perspektiven auf Forschung und Entwicklung, Studium und Lehre und Einblicke in die Praxis behandelt. Unterstützt wird sie durch den Fachbereich Wirtschaftsinformatik der Gesellschaft für Informatik. „Wirtschaftsinformatik ist eine Wissenschaft, die Informationssysteme, ihre Gestaltung und Nutzung in organisatorischen Handlungssystemen untersucht … und damit vielschichtige Bezüge zu anderen Wissenschaften aufweist: Dabei ist nicht nur an die Informatik und Betriebswirtschaftslehre zu denken, sondern auch an die Ingenieurwissenschaften, die Soziologie und die Philosophie, insbesondere die Sprachphilosophie.“ (Website Perspektiven) In den Gesprächen dieser Reihe unterhält sich Stefan Strecker mit seinen Gästen „über ihre Perspektiven auf Themenfelder und Fragestellungen der Wirtschaftsinformatik und Bezüge zu angrenzenden Wissenschaften“ (Website Perspektiven). Am 12. Februar 2019 ist der Podcast mit Oliver Bendel zur Maschinenethik erschienen. Er kann über perspektivenpodcast.podigee.io/12-maschinenethik-gesprach-mit-oliver-bendel aufgerufen werden.

Abb.: Mikrofone warten auf die Aufnahme

Kriegsroboter und Maschinenethik

Im „Handbuch Maschinenethik“, seit 2016 von Prof. Dr. Oliver Bendel herausgegeben, ist der 17. Beitrag erschienen, mit dem Titel „Autonome Waffensysteme/Kriegsroboter“. Autorin ist Prof. Dr. Catrin Misselhorn. Aus dem Abstract: „Kriegsroboter sind der kontroverseste Anwendungsbereich der Maschinenethik. Viele namhafte Vertreter der KI-Forschung und prominente Wissenschaftler fordern sogar ein Verbot letaler autonomer Waffensysteme. Dieser Beitrag setzt sich mit dem Versuch auseinander, autonome Waffensysteme im Rahmen der Maschinenethik mit einem Ethikmodul auszustatten. Die moralischen Grundprinzipien leiten sich aus dem Völkerrecht ab, welches auf der traditionellen Theorie des gerechten Kriegs beruht. Argumente zugunsten von Kriegsrobotern mit einem Ethikmodul werden ebenso behandelt wie die Kritik daran. Die drei wichtigsten Gegenargumente betreffen das Entstehen einer Verantwortungslücke, den Wert der Möglichkeit, anders zu handeln, sowie die Annahme einer Pflicht zu töten, welche der Einsatz autonomer Waffensysteme voraussetzt. Zum Schluss wird kurz auf mögliche Parallelen zum autonomen Fahren eingegangen.“ Die nächsten fünf Beiträge, u.a. von Prof. Dr. Julian Nida-Rümelin, Prof. Dr. Dr. Eric Hilgendorf und Prof. Dr. Armin Grunwald, erscheinen in den nächsten Wochen. Dann kommt die gedruckte Ausgabe auf den Markt. Alle bisherigen Beiträge sind über link.springer.com/referencework/10.1007/978-3-658-17484-2 verfügbar.

Abb.: Eine fremdartige Waffe

Roboterphilosophie bei den Freidenkern

„Die Freidenker-Vereinigung der Schweiz setzt sich für die Anliegen der Konfessionsfreien ein. Sie tritt ein für die Trennung von Staat und Kirche und für eine weltlich-humanistische Ethik, in der die Menschenrechte eine zentrale Rolle einnehmen. Und sie vertritt ein wissenschaftlich plausibles Weltbild.“ (Website Freidenker Schweiz) Eingeladen haben die Freidenkenden Mittelland den Roboterphilosophen und Freidenker Oliver Bendel aus Zürich. Er spricht am 11. Februar 2019 im Jugendstilsaal des Atrium-Hotels Blume in Baden zum Thema „Der Roboter entdeckt die Philosophie“. Er wird die Zuhörer laut Programm auf eine Reise mitnehmen. „Bei einer Station geht er der Frage nach, ob Roboter Rechte haben oder haben werden.“ Einer solchen Frage widmet sich traditionell die Roboterethik. Bendel ist der Meinung, dass Roboter und KI-Systeme bis auf weiteres keine Rechte haben und haben sollten. Bei einer nächsten – nun geht es um Maschinenethik – „wird er darstellen, wie man Entwickler und ihre Geschöpfe für die Philosophie gewinnt und wie man Roboterautos, Serviceroboter und Chatbots zu moralischen und unmoralischen Maschinen machen kann“ (Programm). Der Flyer zur Veranstaltung kann hier heruntergeladen werden.

Abb.: Das Zeichen für Atheismus

Podcast zur Maschinenethik

In seinem Vortrag „Die Entdeckung der Philosophie – ethische Dimensionen der Robotik“ am 9. Januar 2019 im Haus Huth am Potsdamer Platz in Berlin erklärte Prof. Dr. Oliver Bendel, wie man Roboterautos, Serviceroboter und Chatbots zu moralischen oder zu unmoralischen Maschinen machen kann. Der Vortrag fand vor vollbesetztem Haus statt und rief lebhafte Diskussionen hervor. Bei der Daimler und Benz Stiftung, die die Reihe verantwortet, ist nun ein Podcast zum Vortrag erschienen. Er kann hier abgerufen werden. Zur Vortragsreihe heißt es auf der Website: „Am Potsdamer Platz in Berlin lädt die Daimler und Benz Stiftung regelmäßig zur akademischen Debatte, die die rhetorische Form pflegt. So ist das inhaltliche Portfolio dieser offenen Veranstaltungsreihe im historischen Haus Huth weit gefächert: In Plädoyers, Lamenti, Antithesen oder anderen Formaten vertreten Wissenschaftler engagiert ihren Standpunkt und begründen ihn mit den Erkenntnissen ihrer Forschung.“ (Website Daimler und Benz Stiftung)

Über moralische und unmoralische Maschinen

„Moralische Maschinen sind mehr oder weniger autonome Systeme, die über moralische Fähigkeiten verfügen. Entwickelt werden sie von der Maschinenethik, einer Gestaltungsdisziplin im spezifischen Sinne. ‚Maschinelle Moral‘ ist ein Terminus technicus wie ‚künstliche Intelligenz‘. Man spielt auf ein Setting an, das Menschen haben, und man will Komponenten davon imitieren bzw. simulieren. So kann man etwa moralische Regeln adaptieren. Moralische und unmoralische Maschinen sind nicht gut oder böse, sie haben keinen freien Willen und kein Bewusstsein, keine Intuition und keine Empathie.“ So beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Es werden mehrere Beispiele für moralische Maschinen genannt, etwa spezifische Pflegeroboter und spezifische Chatbots. Am Ende heißt es: „Gerade bei komplexen moralischen Maschinen, die über Leben und Tod befinden sollen, ist Vorsicht angezeigt. Das autonome Auto könnte Menschen quantifizieren und qualifizieren, aber es gibt gute Gründe gegen den Versuch, ihm dies beizubringen.“ Der Beitrag ist Ende Januar 2019 erschienen und kann über wirtschaftslexikon.gabler.de/definition/moralische-maschinen-119940 aufgerufen werden.

Abb.: Autos sollten nicht über Leben und Tod von Menschen entscheiden

Diskussion über autonome Kampfroboter

Die Heinrich-Böll-Stiftung kündigt eine Veranstaltung zu autonomen Kampfrobotern an: „Künstliche Intelligenz (KI) ist das große Glücksversprechen des 21. Jahrhunderts und wird viele Lebensbereiche moderner Industriegesellschaften dramatisch verändern, von der Mobilität zur industriellen Fertigung oder der Krankenpflege. KI wird auch die Sicherheits- und Verteidigungspolitik verändern. Sie wird dazu führen, dass moderne Waffensysteme zunehmend autonom agieren und die menschlichen Eingriffsmöglichkeiten auf ein Minimum reduzieren.“ (Information HBS) Dies werfe, so die Stiftung, ethische Fragen auf, insbesondere dann, wenn zukünftig Kampfroboter ihre Ziele autonom auswählen und bekämpfen. „Doch wie realistisch ist dieses Szenario? Wieviel Autonomie steckt schon heute in modernen Waffensystemen und welche Entwicklungstendenzen zeichnen sich ab?“ (Information HBS) Diese Fragen will man mit Noel Sharkey, „einem führenden Experten für Ethik und Robotik“, einer Vertreterin des Auswärtigen Amtes und einem Mitglied des Bundestags diskutieren. Die Veranstaltung findet am 23. Januar 2019 von 19.00 bis 20.30 Uhr bei der Heinrich-Böll-Stiftung in Berlin statt.

Abb.: Der will nur spielen

Beitrag „Algorithmen, Daten und Ethik“

Im „Handbuch Maschinenethik“, seit 2016 von Prof. Dr. Oliver Bendel herausgegeben, ist der 16. Beitrag erschienen, mit dem Titel „Algorithmen, Daten und Ethik: Ein Beitrag zur Papiermaschinenethik“ … Der Autor ist Dr. Stefan Ullrich, Forschungsgruppenleiter am Weizenbaum-Institut für die vernetzte Gesellschaft. Aus dem Abstract: „Die informationstechnischen Realisierungen von Algorithmen sind längst in alle Lebensbereiche des modernen Menschen vorgedrungen. Algorithmen werden als Allheilmittel angepriesen oder als Hauptschuldige der ‚Digitalen Unmündigkeit‘ gesehen. Zunächst werden wir Algorithmen ganz ohne Digitaltechnik betrachten, also auf bestimmte Arten von Texten eingehen, die auf den menschlichen Geist eine Art Zwang ausüben, die so genannten Paper Machine Codes. Die Betrachtungen zur Ethik der Algorithmen wird mit einer ethischen Betrachtung der (Eingabe-)Daten verbunden, besonderes Augenmerk liegt auf der Signatur einer Person. Es folgen dann Ausführungen zu Geistesmaschinen und nutzlosen Maschinen, um mit einem Ausblick auf die Bedingungen zur Möglichkeit der Mündigkeit im Zeitalter der Internet of Things zu schließen.“ Alle Beiträge sind über link.springer.com/referencework/10.1007/978-3-658-17484-2 verfügbar.

Abb.: Algorithmen, Daten und Ethik

Ein Chatbot mit Gesichtserkennung

Der BESTBOT ist eine unmoralische Maschine in einer moralischen. Er ähnelt einer Matrjoschka, der Holzpuppe, in der weitere Holzpuppen stecken. Dies betonte Oliver Bendel in einem Gespräch mit dem Tages-Anzeiger. In die offene Welt würde er den Chatbot deshalb nicht entlassen. Dieser bleibt im Labor der Maschinenethik. Der BESTBOT wurde 2018 an der Hochschule für Wirtschaft FHNW entwickelt. Bereits im März 2018 stellte der Informations- und Maschinenethiker im Rahmen der AAAI Spring Symposia sein Paper „From GOODBOT to BESTBOT“ vor, das die Grundlage für das Projekt legte. David Studer programmierte den Chatbot in Java. Der BESTBOT ist ein vernetztes System, das Suchmaschinen und Lexika benutzt. Er analysiert die Texteingaben des Benutzers mit textbasierter Emotionserkennungssoftware. Zugleich wird Gesichtserkennung eingesetzt, wiederum mit Emotionserkennung. Wenn der Benutzer zum Beispiel angibt, dass es ihm gut geht, sein Gesicht aber anderes verrät, spricht der Chatbot diesen Widerspruch an. Dieser erkennt sowohl kleine als auch große Sorgen. Dies ist ohne Zweifel von hohem Nutzen, gerade wenn der Benutzer sich etwas antun will. Zugleich kann Gesichtserkennung, vor allem im Zusammenhang mit Emotionserkennung, hochproblematisch sein. Oliver Bendel rät davon ab, solche Systeme bei der automatisierten Kommunikation und im öffentlichen Raum einzusetzen. Der ganzseitige Artikel im Tages-Anzeiger zum BESTBOT ist am 12. Dezember 2018 erschienen und kann hier heruntergeladen werden.

Abb.: Was erkennt der Chatbot im Gesicht?

Der Roboter entdeckt die Philosophie

Die Ideen- und Entwicklungsgeschichte ist reich an künstlichen Kreaturen. Mythos und Fiktion bringen Pandora und Talos hervor, die Geschöpfe des Hephaistos, die Automatenmenschen des Daidalos, die Skulptur des Pygmalion, die eiserne Jungfrau des Nabis. Die Realität war zunächst verbunden mit der Illusion. Von ca. 1500 bis 1850 wurden tier- und menschenähnliche (Pseudo-)Automaten erdacht bzw. vorgeführt, die körnerschluckende Ente, die kunstvollen Androiden, der doppelbödige Schachtürke. Dann, nach weiteren 150 Jahren, streifte die Realität die Illusion mehr und mehr ab, wobei sie die Simulation in den meisten Fällen bei sich behielt. Es werden Systeme und Roboter erschaffen, die den Menschen nicht nur zum Verwechseln ähnlich sehen, sondern sogar, auch mit Hilfe künstlicher Intelligenz, selbst Optionen wählen und Aktionen ausführen, unter Umständen mit weitreichenden Folgen. Sie werden von sozialer Robotik und Maschinenethik gezähmt, dressiert, zivilisiert und moralisiert. Auch tierähnliche und dinghafte Artefakte scheinen plötzlich Eigenschaften zu haben, die man bisher Menschen zugeschrieben hat. Oliver Bendel wird in seinem Vortrag am 9. Januar 2019 im Haus Huth in Berlin erklären, was Roboterphilosophie und Roboterethik und was soziale Robotik und Maschinenethik sind. Er wird darstellen, wie man Entwickler und ihre Geschöpfe für die Philosophie gewinnt und wie man Roboterautos, Serviceroboter und Chatbots zu moralischen und unmoralischen Maschinen machen kann. Und wie man dabei in manchen Fällen die Büchse der Pandora öffnet. Weitere Informationen über die Website der Daimler und Benz Stiftung.

Abb.: Die Philosophie entdeckt den Roboter

Moralische Maschinen mit maschinellem Lernen

Michael und Susan Leigh Anderson stellen beim Berliner Kolloquium 2019 ihre neuesten Ergebnisse aus der Disziplin der Maschinenethik vor. Üblicherweise werden sogenannten moralischen Maschinen starre Regeln gegeben, an die sie sich sozusagen sklavisch halten. Dies hat einige Vorteile, aber auch ein paar Nachteile, denen man mit Hilfe von maschinellem Lernen entgegentreten kann. Genau diesen Ansatz haben die Andersons zusammen mit einem Forscher vom Max-Planck-Institut für Intelligente Systeme verfolgt, wobei die Altenpflege als Kontext diente: „Contrary to those who regard such a goal as unattainable, Michael and Susan Leigh Anderson … and Vincent Berenz … have succeeded in programming a SoftBank Nao robot with a set of values that determines its behavior while aiding a person in a simulated eldercare environment. This unprecedented accomplishment uses machine learning to enable the robot to discern how each of its actions would satisfy or violate its ethical duties in the current situation and decide the best action to take.“ (Machine Ethics) Die Ergebnisse werden 2019 in den Proceedings of the IEEE publiziert. Der wissenschaftliche Leiter des 23. Berliner Kolloquiums zu Pflegerobotern ist Oliver Bendel. Die Anmeldung erfolgt über die Website der Daimler und Benz Stiftung.

Abb.: Ein Nao-Roboter (Foto: SoftBank/Philippe Dureuil, CC-BY-SA-4.0)

Mensch, Maschine und Verantwortung

Im Oktober 2018 ist ein neuer Beitrag im „Handbuch Maschinenethik“ erschienen. Er stammt von Julian Nida-Rümelin und Fiorella Battaglia und trägt den Titel „Mensch, Maschine und Verantwortung“. Im Abstract heißt es: „Verantwortung ist eine der größten Fragen, wenn nicht gar die Frage in der Ethik der Maschinen. In diesem Artikel werden wir für begriffliche Klärung sorgen. Damit wollen wir eine philosophische Auseinandersetzung mit der Frage nach der Verantwortung der Maschinen ermöglichen.“ Seit Ende 2016 sitzen renommierte Wissenschaftlerinnen und Wissenschaftler an ihren Kapiteln zum „Handbuch Maschinenethik“, das von Oliver Bendel herausgegeben wird. Anfang 2019 soll das gedruckte Werk auf den Markt kommen. Mit dabei sind etwa Luís Moniz Pereira aus Lissabon, einer der bekanntesten Maschinenethiker der Welt, und Roboterethikerin Janina Loh, die in Wien mit Mark Coeckelbergh zusammenarbeitet, zudem Catrin Misselhorn, die vor kurzem ihr Grundlagenwerk zur Maschinenethik bei Reclam veröffentlicht hat. Eine Übersicht über die Beiträge, die laufend elektronisch veröffentlicht werden, findet sich über link.springer.com/referencework/10.1007/978-3-658-17484-2

Abb.: Können Maschinen Verantwortung tragen?

 

Der fröhliche Roboter

„Können Roboter fröhlich sein?“ So lautet der Titel eines Beitrags im neuen Aufbruch, der im Herbst 2018 erschienen ist. Das Google-Magazin ist seit wenigen Jahren auf dem Markt und wird von einer Agentur der Süddeutschen Zeitung produziert. „Künstliche Intelligenz“ ist der Titel der aktuellen Ausgabe, die u.a. dem Spiegel beiliegt. Die Antwort auf die genannte und die eine oder andere Frage gibt der Informations- und Maschinenethiker Oliver Bendel. Er ist der Meinung, dass Roboter bzw. KI-Systeme keine Gefühle haben und haben können. Der Forschung dazu will er sich dennoch nicht verschließen. So plant er, das Symposium „Towards Conscious AI Systems“ im Rahmen der AAAI 2019 Spring Symposium Series an der Stanford University zu besuchen. Wer oder was Bewusstsein hat, kann Gefühle entwickeln, so könnte man postulieren. Ein fröhlicher Roboter könnte ein Gewinn sein, ein trauriger ein Problem. Selbst wenn solche Maschinen nie erschaffen werden können – wir werden im Rahmen der Forschung viel über die Gefühle von Menschen erfahren. Das Interview kann hier heruntergeladen werden.

Abb.: Ein fröhlicher Mensch

Wie sollen Roboter gestaltet sein?

In einem Interview mit dem Schweizer Fernsehen, das in Ausschnitten am 6. September 2018 in 10vor10 ausgestrahlt wurde, wurde der Informations- und Maschinenethiker Oliver Bendel gefragt, ob es überhaupt und wozu es humanoide Roboter brauche. Er wies zunächst darauf hin, dass die Schaffung künstlicher Kreaturen ein Menschheitstraum sein. Man denke an Galatea von Pygmalion oder an Pandora und Talos von Hephaistos. Dann erklärte er, solche Roboter seien ein Spiegel des Menschen. Diese erblickten darin das, was sie sind und nicht sind, und sie verstünden, wie kompliziert ein Lächeln ist, wie schwer zu konstruieren. Nicht zuletzt gibt es Anwendungsbereiche, in denen humanoide Roboter sinnvoll sind, etwa die Hotelrezeption oder ein Bordell. Andere Bereiche eignen sich nicht oder nur bedingt. So muss der Pakethersteller nicht von seiner maschinellen Kopie ersetzt werden – es genügt ein kleiner, abstrakt gestalteter Roboter. Dass dieser dann zur Stolperfalle werden kann, ist ein anderes Thema. Der Beitrag, in dem Oliver Bendel zu Wort kommt, geht auf Sophia von Hanson Robotics und die Frage der Gestaltung von Robotern ein. Er kann hier aufgerufen werden.

Abb.: Sollen Roboter humanoid sein?