Schlagworte: Roboterphilosophie

Wer ist verantwortlich, wenn ein Roboter tötet?

Im „Tatort“ vom 16. September 2018 war der Roboter der Mörder. Wobei, er war eher das Werkzeug der Mörderin, die ihm eine neue Armbewegung beibrachte. Tatsächlich lassen sich Roboter dieser Art ganz einfach trainieren, indem man ihren Arm führt und die Bewegung abspeichert. Diese muss dann nur noch zur richtigen Zeit ablaufen. Im Krimi tat sie das, und das Opfer war so freundlich, sich genau so zu positionieren, dass sie – der Greifer umfasste eine metallene Spitze, die eigentlich zu anderen Zwecken diente – tödlich war. Die Frankfurter Allgemeine Zeitung vom selben Tag machte den Faktencheck. Sie hatte Oliver Bendel nach der Verantwortung gefragt. Nach seiner Meinung kann ein autonomer Roboter (oder ein KI-System) kaum eine moralische Verantwortung haben. Man könnte allenfalls sagen, dass er, indem er eine Aufgabe übernimmt, eine Verantwortung trägt. Dies wäre eine sehr schwache Form der Primärverantwortung. Man kann ihn nicht zur Verantwortung ziehen (Sekundärverantwortung), und wenn, dann gleitet man schon in die rechtliche Perspektive hinüber (Tertiärverantwortung). Wenn man einem Roboter Verantwortung überträgt, wird diese in gewisser Weise zerstört. Das macht dann nichts, wenn es sich um eine einfache Aufgabe ohne ernsthafte Konsequenzen handelt. Der Faktencheck kann über www.faz.net/aktuell/feuilleton/medien/tatort/der-neue-tatort-aus-berlin-im-faktencheck-15787708.html aufgerufen werden.

Abb.: Der Tod im „Tatort“ war nicht schön

Haben Maschinen Bewusstsein?

VRODO hat ein Interview mit dem Roboterphilosophen, Informations- und Maschinenethiker Oliver Bendel geführt. Es ging um moralische Maschinen und am Rande auch um die Frage, ob Maschinen eines Tages Bewusstsein oder Selbstbewusstsein haben können. Für Oliver Bendel gehört zum Bewusstsein, dass eine innere Stimme ausruft: Ah, das ist ja die Welt! Diese innere Stimme kann seiner Meinung auch ein Tier haben. Jeder Igel, jede Kröte hat Bewusstsein. Zum Selbstbewusstsein gehört, dass die innere Stimme ausruft: Ah, das bin ja ich! Ein Affe hat Selbstbewusstsein. Der Roboterphilosoph denkt nicht, dass man ein echtes Bewusstsein von Maschinen wird schaffen können. Auf jeden Fall werde der Roboter nie mit seiner inneren Stimme ausrufen: Ah, das bin ja ich, der Roboter! „I, Robot“ – das sei Science-Fiction. Die Forschung über maschinelles Bewusstsein hält Oliver Bendel dennoch für wichtig. Bei einem der Symposien der AAAI Spring Symposia an der Stanford University wird es um dieses Thema gehen. Das Interview wurde von Maximilan Schreiner geführt und kann über vrodo.de/was-ein-roboterphilosoph-ueber-maschinenmoral-denkt/ nachgelesen werden.

Abb.: Menschen haben Bewusstsein

Wozu brauchen wir die Maschinenethik?

Im „Handbuch Maschinenethik“ ist im August 2018 der Beitrag „Wozu brauchen wir die Maschinenethik?“ von Oliver Bendel erschienen. Die Zusammenfassung: „Die Maschinenethik ist eine junge, dynamische Disziplin. Es ist einfach, ihren Gegenstand zu bestimmen, die Moral in der Maschine, und es fanden zahlreiche begriffliche Klärungen statt. Dennoch gibt es immer wieder Verwechslungen und Missverständnisse. Diese erinnern an die Diskussionen der ersten 40, 50 Jahre der Künstlichen Intelligenz. Dieser wurde vorgehalten, keine Fortschritte zu erzielen, ihr wurde vorgeworfen, dass Systeme nicht intelligent sein können, und es wurde von manchen nicht realisiert oder akzeptiert, dass man metaphorisch oder intentional sprechen kann, mit in die Zukunft gerichteten Absichten. Der vorliegende Beitrag will Grundlagen der Maschinenethik erarbeiten, ohne andere Grundlagenartikel und -bücher nachzuzeichnen und zusammenzufassen. Vielmehr wird, nachdem der Begriff der Maschinenethik erörtert wurde, die Frage beantwortet, warum wir eine solche Disziplin brauchen, zunächst aus philosophischer, dann aus praktischer Perspektive.“ Die Beiträge des von Oliver Bendel herausgegebenen Springer-Handbuchs erscheinen laufend und werden über link.springer.com/referencework/10.1007/978-3-658-17484-2 aufgeführt.

Abb.: Wie wird die Entscheidung ausfallen?

Tiere haben Rechte, Roboter nicht

Der Artikel „Haben Roboter Rechte?“ von Oliver Bendel aus der Zeitschrift Edison (Ausgabe 2/2018) kann hier heruntergeladen werden. Die zuständige Disziplin für diese Frage ist die Roboterethik (bzw. die Roboterphilosophie). Während sich die Maschinenethik auf die maschinelle Moral und damit allenfalls verbundene Pflichten oder Verpflichtungen konzentriert, interessiert sich die Roboterethik auch für moralische Rechte von Maschinen, insbesondere von Robotern. Schon vor Jahrzehnten hat man über diese Frage nachgedacht, doch in letzter Zeit gibt es diesbezügliche Überlegungen und Forderungen, denen man als Ethiker etwas entgegensetzen muss. Denn Oliver Bendel ist der Meinung, dass Roboter keine Rechte haben, haben werden und haben sollen. In seinen Ausführungen zieht er Vergleiche mit Menschen, Tieren und Pflanzen (Tiere haben Rechte, Pflanzen nicht). Er erwähnt in „Haben Roboter Rechte?“ auch Sophia, den humanoiden Roboter, dem in Saudi-Arabien die Staatsbürgerschaft verliehen wurde. Ihr wird in Edison zudem ein eigener Beitrag gewidmet.

Abb.: Tiere haben Rechte

Interview zu Cobots

In der Netzwoche 10/2018 findet sich ein ganzseitiges Interview mit Oliver Bendel zu Kooperations- und Kollaborationsrobotern, auch Co-Robots oder Cobots genannt. Der Informations- und Maschinenethiker hält die Teams oder Tandems aus Mensch und Maschine für nützlich und hilfreich. Mensch und Maschine spielen jeweils ihre Stärken aus. Der Mensch wird entlastet. Ein Problem könnte in Zukunft allerdings die Überwachung sein. Die Maschine kommt uns sehr nahe, und mit Hilfe ihrer Sensoren und ihrer Software könnte sie uns ausspionieren. Dies hat Oliver Bendel in einem anderen Interview, mit der SonntagsZeitung, betont. Im Moment überwiegen für ihn klar die Vorteile. Interessant findet er zudem, dass Kooperations- und Kollaborationsroboter nicht nur in Produktion und Logistik, sondern auch in Pflege und Therapie eingesetzt werden. Damit schlagen sie eine Brücke zwischen Industrie- und Servicerobotern. Das Interview kann mit freundlicher Genehmigung der Zeitschrift als PDF hier heruntergeladen oder auch online gelesen werden.

Cara nimmt Gestalt an

Die Arbeiten am Kurzfilm „Ignarus“ (Hochschule der Medien, Director: Lutz Marquardt, Producer: Cornelius Herzog, VFX Producer: Nico Hoerz, DOP: Tatjana Huck) schreiten voran. Es wurden Bilder veröffentlicht, die die gestalterische Arbeit an der künstlichen Intelligenz Cara zeigen, die mit John, einem Wissenschaftler, in einem abgeschotteten Forschungsbunker festsitzt. Obwohl Cara nur ein Hologramm und ein Programm sei, verfüge sie über äußerst menschliche Züge und Charaktereigenschaften. Sie weiß „mit John umzugehen und ihn in einer cleveren Weise zu beeinflussen und zu lenken, wie es die Mission – und am Ende auch Cara – von ihm verlangt“ (Projektbeschreibung STUDIOPRODUKTION VFX SS18). „Mit diesem Verhalten schafft es Cara, sich John durch subtile Anstöße zum Werkzeug zu machen. Ihre Ziele und Absichten scheinen jedoch stets verborgen und so wirkt sie zum Teil unvorhersehbar und fast schon tückisch. Ihre Art lässt dadurch oft zweifeln, ob sie so programmiert wurde oder sich bereits eigene Eigenschaften angeeignet hat und eine unerwartete Art der Entwicklung durchläuft.“ (Projektbeschreibung STUDIOPRODUKTION VFX SS18) Der Film wird von maschinenethik.net unterstützt und feiert am 5. Juli 2018 bei der MediaNight seine Weltpremiere.

Abb.: Wie wird Cara am Ende aussehen?

Der BESTBOT in der Netzwoche

An der Hochschule für Wirtschaft FHNW sind seit 2013 im Kontext der Maschinenethik mehrere Hardware- und Softwareroboter entstanden. 2018 widmet man sich dem BESTBOT, einem Chatbot, der Probleme des Benutzers auf unterschiedliche Weise registrieren kann. Auf diesen geht Oliver Bendel in seinem Beitrag für die Netzwoche 9/2018 ein. Das vierte Artefakt soll demonstrieren, dass man bestimmte Probleme mit einer moralischen Maschine wie dem BESTBOT lösen kann, bestimmte Probleme durch diese aber auch erst entstehen. Man kann im Extremfall das eine oder andere Leben retten, aber man hat bis dahin Menschen observiert und analysiert, und zwar mit Hilfe von Gesichtserkennung. Sicherheit oder Freiheit, das ist auch hier die Frage. Ein Anforderungskatalog wurde bereits erstellt. Im Moment wird der Quellcode von GOODBOT und LIEBOT ausgewertet. Beide Systeme sollen verschmelzen und mit Gesichtserkennung ergänzt werden. Die Konzeption wurde Ende März an der Stanford University vorgestellt. Im Spätsommer liegen die Ergebnisse vor. Der Beitrag kann hier abgerufen werden.

Abb.: Der BESTBOT

Ein Ethiker muss nicht moralisch handeln

„Verfügen intelligente Maschinen über Emotionen, können sie moralisch handeln und haben sie womöglich Rechte?“ Nein, ja, nein, könnte man die Antworten von Oliver Bendel zusammenfassen. Teachtoday sprach mit ihm „über die Moral intelligenter Maschinen und das weite Feld der Maschinenethik“. Den Einstieg des Interviews bildet eine persönliche Frage: „Herr Bendel, wann haben Sie das letzte Mal etwas aus Ihrer Sicht Unmoralisches getan?“ Die Antwort: „Ich tue oft etwas Unmoralisches, aus der Sicht anderer und aus meiner Sicht. Man muss sein Leben nicht der Moral unterordnen, nicht als Individuum, nicht als Gruppe, nicht als Gesellschaft und auch nicht als Unternehmen. Aber natürlich gibt es Verhaltensweisen, die ich unmoralisch finde und die ich grundsätzlich vermeide.“ Und weiter: „Ein Ethiker muss auch nicht moralisch handeln. Er muss nicht gut sein. Ein Mediziner muss auch nicht gesund sein. Man beschäftigt sich einfach professionell mit einem Thema. Man erforscht einen Gegenstand.“ Das Interview kann hier aufgerufen werden.

Haben Roboter Gefühle?

Können Roboter bald selbstständig Gefühle wie Hass oder Liebe entwickeln? Dies hat der WDR im April 2018 den Informations- und Maschinenethiker Oliver Bendel gefragt. Der Kontext war die Angst, die wir vor Maschinen haben oder haben können. Er antwortete: Maschinen werden solche Gefühle meines Erachtens nicht entwickeln können, da diese biologisch-chemische und genetisch-hormonelle Grundlagen brauchen. Die Vorstellung, dass sie solche Gefühle haben, kann natürlich Angst machen. Und emotionale Roboter wie Pepper zeigen Gefühle – aber haben eben keine. Eine wichtige Frage ist, ob sie überhaupt Gefühle zeigen sollen. Und ob sie uns weismachen sollen, dass sie Menschen oder ähnlich wie Menschen sind.“ Uns ist in Europa die Angst vor künstlichen Kreaturen gleichsam eingepflanzt. Diese dachten wir uns bereits vor tausenden Jahren aus. Bei Homer und Ovid finden sich Schreckensgestalten wie Talos und Pandora, wobei die künstliche Frau in der Literatur einige Wandlungen erlebt hat. Später ging es ähnlich weiter, mit der Eisernen Jungfrau, dem Golem, Frankensteins Monster. Auch Ausnahmen gibt es, bereits in der Antike, wie Galatea, von Pygmalion erschaffen und von Aphrodite zum Leben erweckt. Das Interview kann über www1.wdr.de/wissen/technik/roboter-maschinenethik-interview-100.html nachgelesen werden.

Abb.: Haben Roboter Gefühle?

Sollen Roboter haften?

Haben Roboter Rechte bzw. soll man sie mit Rechten ausstatten? Die eine Frage ist ethisch, die andere rechtlich deutbar. Oliver Bendel hält als Ethiker nichts von Rechten für Roboter. Dies können weder empfinden noch leiden, sie haben kein Bewusstsein, sie sind keine echten Personen, aber auch keine echten Lebewesen. Im Zivilrecht kann man, so seine Meinung, ohne weiteres eine elektronische Person konstruieren, die man verklagen kann und die dann haften muss (etwa über ein Budget, das sie hat, oder einen Fonds, mit dem sie verbunden ist). Einerseits ist das die Lösung für das Problem, dass sich in vielen Fällen kaum mehr eindeutig verantwortliche natürliche oder juristische Personen ausmachen lassen. Andererseits eben nicht, denn woher sollte das Geld kommen – wenn nicht von natürlichen und juristischen Personen, die mit dem Roboter in irgendeiner Verbindung stehen? Und bei selbstlernenden Systemen wie Tay wird es vollends kompliziert, wobei dieser Fall ins Strafrechtliche hineinreicht. Eine Gruppe von KI-Forschern, Philosophen, Theologen und Rechtswissenschaftlern hat sich in einem offenen Brief gegen die Schaffung des Status einer elektronischen Person gewandt, wie eine Arbeitsgruppe des Europäischen Parlaments sie dieses Jahr vorgeschlagen hat. Der Artikel „Streit um Rechte von Robotern“ stellt die unterschiedlichen Positionen dar. Er ist am 21. April 2018 in der Aargauer Zeitung erschienen und kann über www.aargauerzeitung.ch/leben/forschung-technik/streit-um-rechte-von-robotern-wer-haftet-wenn-etwas-schief-geht-132457958 aufgerufen werden.

Abb.: Wie gestaltet man eine elektronische Person?