Interview im Magazin ti&m zur Maschinenethik

Oliver Bendel war ab 2012 einer der ersten Maschinenethiker in Europa und ist bis heute einer wenigen weltweit, die laufend Prototypen – sogenannte moralische Maschinen – erstellen und erforschen, vor allem Chatbots und Sprachassistenten sowie tierfreundliche Maschinen. Seine Beschäftigung mit Roboter- und Maschinenethik begann in den 1990er-Jahren, als er sich mit der Verantwortung und den Rechten und Pflichten von Systemen beschäftigte, auf der Grundlage der Arbeiten von William Bechtel und James H. Moor. Er ist bis heute der Überzeugung, dass Computer und Roboter keine Verantwortung tragen und keine Rechte und Pflichten haben können. Man kann ihnen lediglich Verpflichtungen auferlegen, oder noch schwächer ausgedrückt, Aufgaben geben, die sie als unsere Werkzeuge und Diener abzuarbeiten haben, und moralische Regeln, an die sie sich halten müssen – eben das ist Aufgabe der Maschinenethik. Im Kundenmagazin ti&m special vom Januar 2024 ist ein Interview mit Oliver Bendel erschienen. Darin geht es um autonome Maschinen, von deren Einsatz er in manchen Bereichen abrät, und um die Disziplin der Maschinenethik. Der Beitrag mit dem Titel „In manchen Kontexten sollten wir keine autonomen Systeme einsetzen“ kann hier heruntergeladen werden oder über die Website des Unternehmens bezogen werden.

Abb.: Roboterkopf (Bild: DALL-E 3)

Weder Rechte noch Pflichten

Das Sonntagsblatt hat mit Prof. Dr. Oliver Bendel ein Interview zu KI und Sozialer Robotik geführt. Unter anderem ging es um Roboter als Subjekte und Objekte der Moral. Der Informations- und Maschinenethiker hält nichts davon, Robotern moralische Rechte zuzugestehen. Er knüpft solche an Empfindungs- und Leidensfähigkeit bzw. Bewusstsein. Nach seiner Ansicht verläuft ein tiefer Graben zwischen Lebewesen und Dingen, und es sei gefährlich, diesen einebnen zu wollen. Auch von Pflichten möchte er nicht sprechen, höchstens von Verpflichtungen, die wir Robotern auferlegen, noch besser von Aufgaben, die sie erledigen müssen, unter Beachtung moralischer Regeln. Sogenannte moralische Maschinen sind neue, merkwürdige, unvollständige Subjekte der Moral. Sie haben kein Bewusstsein, keine Intuition, keine Empathie, keinen freien Willen, aber sie können – als autonome Maschinen alleingelassen in geschlossenen, halboffenen oder offenen Welten – verschiedene Optionen erwägen und eine von ihnen auswählen. Dies ist eine funktionale Moral, die allenfalls mit der Moral mit Fundamentalisten zu tun hat – aber in der Maschinenwelt kann sie eine Bereicherung darstellen, vor allem wenn Maschinen auf Menschen oder Tiere treffen, etwa als soziale Roboter. Das Interview kann in schriftlicher Form über www.sonntagsblatt.de/artikel/maschinenethiker-oliver-bendel-gpt3-pflegeroboter nachgelesen werden. Zudem gibt es einen Podcast von 45 Minuten Länge.

Abb.: Nicht einmal WALL-E hat moralische Rechte und Pflichten

 

Pflegeroboter in Alten- und Pflegeheimen

Roboter in der Pflege und speziell Pflegeroboter sind ein Thema, das in den letzten Jahren enorm an Aufmerksamkeit gewonnen hat. Um Chancen und Risiken bewerten und ethische Überlegungen anstellen zu können, müssen die existierenden Systeme im Detail gekannt werden. Darüber hinaus ist es wichtig, den Kontext zu verstehen. Im Moment werden Pflegeroboter in Alten- und Pflegeheimen getestet, etwa in der Schweiz, in Deutschland und in Skandinavien. Pflegebedürftige und -kräfte sollen unterstützt werden. Es gibt kein Projekt und kein Szenario, in dem die Pflegeroboter die Pflegekräfte verdrängen sollen. Die Pflegebedürftigen können – darauf deuten die ersten Erfahrungen hin – persönliche Autonomie gewinnen und zugleich informationelle Autonomie verlieren. Es gilt demnach, Pflegeroboter zu bauen, die Intim- und Privatsphäre wahren. Michael Früh, CFO der Firma F&P Robotics, und Prof. Dr. Oliver Bendel, Informations- und Maschinenethiker, haben mit dem Chefredakteur von medAmbiente, Matthias Erler, gesprochen. Herausgekommen ist ein mehrseitiges Interview mit Fotos und Abbildungen. Das ganz Heft kann hier heruntergeladen werden.

Abb.: Mehr persönliche Autonomie

Das Auto ein bisschen dumm lassen

In der Februarausgabe von P.M. Magazin ist ein langes Interview mit Oliver Bendel abgedruckt. Am 9. September trafen sich der Redakteur Rüdiger Barth und der Wissenschaftler auf dem Campus Brugg-Windisch der FHNW und sprachen über Maschinenethik, Künstliche Intelligenz und Robotik. P.M. ist eine populärwissenschaftliche Zeitschrift und hat eine Auflage von ca. 163.000 Exemplaren. Der Titel des sechsseitigen Beitrags – neben dem Interview finden sich noch Informationen zu Oliver Bendel und zu den Robotikgesetzen von Isaac Asimov – lautet „Ich würde das Auto ein bisschen dumm lassen“. Der Informationsethiker und Maschinenethiker kann sich vorstellen, dass Autos klug genug sind, für bestimmte Tiere zu bremsen, wenn die Luft rein ist, sie aber zu dumm dafür sind, Menschen zu qualifizieren, auf ihre Eigenschaften zu schauen, um sie dann bei einem Unfall zu verschonen oder nicht zu verschonen, was man wiederum als klug bezeichnen könnte, da es keine befriedigenden Lösungen für solche Entscheidungen gibt. Auch das Quantifizieren ist, zumindest bei kleinen Zahlen, nicht angemessen. Warum sollte jemand getötet werden, nur weil zwei Passanten in der Nähe stehen? Kaum jemand würde das akzeptieren, der Betroffene nicht, die Familie nicht, die Freunde nicht. Die zwei Passanten wären natürlich aufgeschlossener für solche Abwägungen, aber auch nur, wenn sie zusammen unterwegs sind und nicht alleine, was wiederum die Ungerechtigkeit zeigt. Solche Gedankenspiele dürfen nicht mit der Wirklichkeit verwechselt werden. Sie sind aber ein klassisches Mittel, um Grundannahmen und Widersprüche zu erkennen und am Ende die Wirklichkeit auch gestalten zu können.

Abb.: Wie entscheidet das Auto, wenn man es lässt?

Am Vergewaltigen kein emotionales Interesse

Ein langes Interview mit dem Informations- und Maschinenethiker Oliver Bendel hat Jennifer Appel von der internationalen Agentur Maisberger geführt. Die erste Frage lautet: „Roboter werden immer intelligenter. Wie sehen Sie diese Entwicklung? Wird unser Leben leichter oder müssen wir am Ende doch befürchten, dass uns das Ruder aus der Hand genommen wird?“ Die Antwort: „Roboter können uns unterstützen, etwa bei schweren körperlichen Tätigkeiten, und damit unserer Gesundheit zuträglich sein. Beispielsweise drücken sie bereits heute als Leichtbauroboter in einem Autowerk in Spartanburg die Türdichtung in eine Autotür, übrigens direkt neben dem Arbeiter, der leichteren Aufgaben nachgehen darf und dessen Handgelenk geschont wird, oder helfen dem Pfleger, einen Patienten umzubetten. Roboter können uns auch ersetzen. Die Industrie 4.0 baut geradezu auf die möglichst vollständige Substitution von Menschen in der Produktion. Das Ruder in der Hand behält der Manager. Aus der Hand nehmen es uns manche Softwareroboter und KI-basierte Programme, die uns als Verdächtige einstufen oder unsere Kreditwürdigkeit beurteilen. Dass Roboter die Weltherrschaft übernehmen, wie manche glauben, dürfte unwahrscheinlich sein.“ Auch um den Kampfroboter geht es; bereits in der Überschrift heißt es über ihn: „… am Vergewaltigen hat er zumindest kein emotionales Interesse“. Dennoch lehnt Oliver Bendel seinen Einsatz ab. Das ganze Interview kann seit Dezember 2016 über http://www.maisberger.de nachgelesen werden.

ritter

Abb.: Ritter oder Roboter?

Interview zur Maschinenethik

In einem Interview mit dem Institut für Wirtschaftsinformatik (Hochschule für Wirtschaft, Fachhochschule Nordwestschweiz FHNW) vom 13. November 2012 erklärt der Philosoph und Wirtschaftsinformatiker Oliver Bendel “den Begriff der Maschinenethik, in welchem Kontext diese entstanden ist und wozu wir sie brauchen” (IWI-Blog). Nathalie Baumann, die zum Team des IWI gehört und auch journalistisch tätig ist, steigt ein mit der Frage: “Oliver Bendel, fahren Sie Ihr Auto noch oder fährt Ihr Auto Sie? Oder anders gefragt: Wie intelligent ist Ihr Auto?” Nicht nur um das selbständig fahrende Auto geht es, sondern auch um Agenten, Roboter und Drohnen. Intensiv wird erörtert, inwieweit eine Maschine ein Subjekt oder ein Objekt der Moral und der Ethik sein kann. Am Schluss wird noch ein Blick auf Japan geworfen, wo faszinierende humanoide Roboter gebaut werden. Das Interview ist nachzulesen über blogs.fhnw.ch/iwi/ (Link nicht mehr gültig).

Abb.: Nicht intelligent, aber schön