Schlagworte: Verantwortung

Die Frage der Verantwortung

Das Wissenschaftsjahr 2019 widmet sich der Künstlichen Intelligenz. In diesem Kontext führte Vision Kino ein Interview mit dem Informations- und Maschinenethiker Oliver Bendel. Zuerst wurde er danach gefragt, welche Themen im Zusammenspiel von Künstlicher Intelligenz und Ethik er aktuell für besonders wichtig hält. Er antwortete: „In der Informationsethik ist das Thema Überwachung im Augenblick sehr zentral, hier insbesondere Gesichts- und Emotionserkennung. Sehr problematisch wird es, wenn das mit der so genannten Physiognomik kombiniert wird, einer Pseudowissenschaft. Beispielsweise will man aus Gesichtsmerkmalen und -ausdrücken kriminelle Absichten ableiten.“ Später ging es dann um Fragen der Verantwortung. Nach Oliver Bendel kann ein Computer oder Roboter keine Verantwortung tragen, höchstens in einem sehr rudimentären Sinne, indem er eine Aufgabe übernimmt. Es ergibt nach ihm auch keinen Sinn, ihn in moralischer Hinsicht zur Verantwortung zu ziehen. Das Interview kann über wissenschaftsjahr-2019.visionkino.de/thematisches-unterrichtsmodul-zum-thema-kuenstliche-intelligenz/arbeitsmaterialien-zum-film/b-13-maschinen-koennen-keine-verantwortung-tragen-interview-mit-oliver-bendel/ nachgelesen werden.

Abb.: Können Roboter Verantwortung tragen?

Wer ist verantwortlich, wenn ein Roboter tötet?

Im „Tatort“ vom 16. September 2018 war der Roboter der Mörder. Wobei, er war eher das Werkzeug der Mörderin, die ihm eine neue Armbewegung beibrachte. Tatsächlich lassen sich Roboter dieser Art ganz einfach trainieren, indem man ihren Arm führt und die Bewegung abspeichert. Diese muss dann nur noch zur richtigen Zeit ablaufen. Im Krimi tat sie das, und das Opfer war so freundlich, sich genau so zu positionieren, dass sie – der Greifer umfasste eine metallene Spitze, die eigentlich zu anderen Zwecken diente – tödlich war. Die Frankfurter Allgemeine Zeitung vom selben Tag machte den Faktencheck. Sie hatte Oliver Bendel nach der Verantwortung gefragt. Nach seiner Meinung kann ein autonomer Roboter (oder ein KI-System) kaum eine moralische Verantwortung haben. Man könnte allenfalls sagen, dass er, indem er eine Aufgabe übernimmt, eine Verantwortung trägt. Dies wäre eine sehr schwache Form der Primärverantwortung. Man kann ihn nicht zur Verantwortung ziehen (Sekundärverantwortung), und wenn, dann gleitet man schon in die rechtliche Perspektive hinüber (Tertiärverantwortung). Wenn man einem Roboter Verantwortung überträgt, wird diese in gewisser Weise zerstört. Das macht dann nichts, wenn es sich um eine einfache Aufgabe ohne ernsthafte Konsequenzen handelt. Der Faktencheck kann über www.faz.net/aktuell/feuilleton/medien/tatort/der-neue-tatort-aus-berlin-im-faktencheck-15787708.html aufgerufen werden.

Abb.: Der Tod im „Tatort“ war nicht schön