Kategorie: Roboterphilosophie

Therapie und Robotik

„Therapieroboter unterstützen therapeutische Maßnahmen oder wenden selbst, häufig als autonome Maschinen, solche an. Sie sind mit ihrem Aussehen und in ihrer Körperlichkeit wie traditionelle Therapiegeräte präsent, machen aber darüber hinaus selbst Übungen mit Gelähmten, unterhalten Betagte und fordern Demente und Autisten mit Fragen und Spielen heraus. Manche verfügen über mimische, gestische und sprachliche Fähigkeiten und sind in einem bestimmten Umfang denk- und lernfähig (wenn man diese Begriffe auf Computersysteme anwenden will).“ Mit diesen Worten beginnt der Beitrag „Therapieroboter“ von Oliver Bendel für das Wirtschaftslexikon von Springer Gabler, erschienen im November 2018. Auch die Perspektive der Ethik wird eingenommen: „Der Frage der Verantwortung widmen sich Informationsethik und Medizinethik sowie Roboterethik. Der Hersteller (respektive der Entwickler) muss, zusammen mit dem Heim oder der Anstalt bzw. einer sonstigen Einrichtung, die Verantwortung tragen und die Haftung übernehmen. Allerdings kann er sich darauf berufen, dass die Effekte insgesamt positiv sein mögen, und darauf beharren, dass Einzelfälle mit negativen Implikationen in Kauf zu nehmen und zu verkraften seien.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/therapieroboter-100563 abgerufen werden.

Abb.: Massagetherapie

The Effects of Voices

The University of Potsdam dedicates its current research to voices. The scientists – among them Dr. Yuefang Zhou and Katharina Kühne – are studying the first impression during communication. The survey website says: „The current study will last approximately 20 minutes. You will be asked some questions about the voice you hear. Please answer them honestly and spontaneously. There are no right or wrong answers; we are interested in your subjective perception. Just choose one out of the suggested alternatives.“ Prof. Dr. Oliver Bendel, FHNW School of Business, has produced three of the samples and participates in the project. „Your responses will be treated confidentially and your anonymity will be ensured. Your responses cannot be identified and related to you as an individual, if you choose to leave your e-mail address at the end of the study this cannot be linked back to your responses. All responses will be compiled together and analysed as a group.“ The questionnaire can be accessed via www.soscisurvey.de/impress/.

Fig.: The effects of voices

Über Liebespuppen in der Schweiz

Unter der Überschrift “Die Maschine als Gespielin” berichtete die SonntagsZeitung am 21. Oktober 2018 über den zunehmenden Gebrauch von Liebespuppen und die Weiterentwicklung von Sexrobotern. Ein ähnlicher Artikel war bereits am 29. September des Jahres in der Süddeutschen Zeitung erschienen. Oliver Bendel und Christian Weber hatten sich im Münchner Excelsior am Hauptbahnhof getroffen und waren von dort in Gedanken nach Dortmund gereist, wo sich das Bordoll befindet, und nach Barcelona und Moskau. Auch in der Schweiz, erzählte der Informations- und Maschinenethiker aus Zürich, legt sich das eine oder andere Etablissement eine Liebespuppe zu. Beispiele sind das Studio Elite in Luzern, die OltenGirls in Olten und der Lust-Tempel in Wohlen. Die Bereitstellung und Nutzung von Liebespuppen muss nach seiner Meinung erforscht werden, wie auch die Frage, ob man sie in Pflege und Therapie einsetzen kann. Der Beitrag in der SonntagsZeitung kann hier heruntergeladen werden.

Abb.: Auch in der Schweiz verbreiten sich Liebespuppen

Die Liebe zu Elfen

Unter der Überschrift „AI love you“ berichtete die Süddeutsche Zeitung am 29. September 2018 über den zunehmenden Gebrauch von Liebespuppen und die Weiterentwicklung von Sexrobotern. Vorausgegangen war ein einstündiges Interview mit Oliver Bendel, der als Informations- und Maschinenethiker dieses Phänomen erforscht. Der Journalist und er trafen sich im Münchner Excelsior am Hauptbahnhof und reisten von dort in Gedanken nach Dortmund, wo sich das Bordoll befindet, und nach Barcelona und Moskau. Auch in der Schweiz, erzählte der Ethiker, legt sich das eine oder andere Etablissement eine Liebespuppe zu. So weit wie das Bordoll, wo es keine Menschen mehr gibt, die Besitzerin und die Kunden ausgenommen, treibt es aber noch niemand. Im Bordoll interessieren sich die meist jungen Männer auch für Fantasyfiguren, für Elfen und Manga- und Animemädchen. So etwas muss erforscht werden, wie auch die Frage, ob man Liebespuppen in Pflege und Therapie einsetzen kann. Dieser Frage widmet sich wiederum ein aktueller Beitrag von Oliver Bendel in der IT for Health. Der Beitrag in der Süddeutschen kann hier kostenpflichtig abgerufen werden.

Abb.: Die Liebe zu Elfen

Der fröhliche Roboter

„Können Roboter fröhlich sein?“ So lautet der Titel eines Beitrags im neuen Aufbruch, der im Herbst 2018 erschienen ist. Das Google-Magazin ist seit wenigen Jahren auf dem Markt und wird von einer Agentur der Süddeutschen Zeitung produziert. „Künstliche Intelligenz“ ist der Titel der aktuellen Ausgabe, die u.a. dem Spiegel beiliegt. Die Antwort auf die genannte und die eine oder andere Frage gibt der Informations- und Maschinenethiker Oliver Bendel. Er ist der Meinung, dass Roboter bzw. KI-Systeme keine Gefühle haben und haben können. Der Forschung dazu will er sich dennoch nicht verschließen. So plant er, das Symposium „Towards Conscious AI Systems“ im Rahmen der AAAI 2019 Spring Symposium Series an der Stanford University zu besuchen. Wer oder was Bewusstsein hat, kann Gefühle entwickeln, so könnte man postulieren. Ein fröhlicher Roboter könnte ein Gewinn sein, ein trauriger ein Problem. Selbst wenn solche Maschinen nie erschaffen werden können – wir werden im Rahmen der Forschung viel über die Gefühle von Menschen erfahren. Das Interview kann hier heruntergeladen werden.

Abb.: Ein fröhlicher Mensch

Roboter gegen den Pflegenotstand?

Am 10. September 2018 wurde die Sendung „Pflege – Was kann sie leisten, was muss sich ändern?“ in Bayern 2 ausgestrahlt. Zu Wort kommt Oliver Bendel, Informations- und Maschinenethiker aus Zürich. Er beschäftigt sich seit mehreren Jahren mit Robotern in der Pflege. Er ist nicht der Meinung, dass diese den Pflegenotstand beheben können. Dafür braucht es andere Maßnahmen. Sie können aber die Pflegekraft unterstützen. Oliver Bendel hält es für wichtig, diese Perspektive einzunehmen und nicht ausschließlich auf den Patienten zu schauen. Natürlich ist dieser ebenso wichtig, und er ist sozusagen der Ausgangspunkt aller einschlägigen Strukturen und Prozesse. Für ihn bedeuten Pflegeroboter sowohl Vor- als auch Nachteile. Einerseits stärken sie seine persönliche Autonomie, machen ihn unabhängiger und beweglicher. Andererseits schwächen sie seine informationelle Autonomie. Manche der Roboter, die sich in Pflegeheimen und Krankenhäusern finden, verfügen über Kameras und Mikrofone und damit zusammenhängend über Gesichts- und Stimmerkennung. Das ist ebenso nützlich wie gefährlich. Der Podcast kann hier angehört werden.

Wer ist verantwortlich, wenn ein Roboter tötet?

Im „Tatort“ vom 16. September 2018 war der Roboter der Mörder. Wobei, er war eher das Werkzeug der Mörderin, die ihm eine neue Armbewegung beibrachte. Tatsächlich lassen sich Roboter dieser Art ganz einfach trainieren, indem man ihren Arm führt und die Bewegung abspeichert. Diese muss dann nur noch zur richtigen Zeit ablaufen. Im Krimi tat sie das, und das Opfer war so freundlich, sich genau so zu positionieren, dass sie – der Greifer umfasste eine metallene Spitze, die eigentlich zu anderen Zwecken diente – tödlich war. Die Frankfurter Allgemeine Zeitung vom selben Tag machte den Faktencheck. Sie hatte Oliver Bendel nach der Verantwortung gefragt. Nach seiner Meinung kann ein autonomer Roboter (oder ein KI-System) kaum eine moralische Verantwortung haben. Man könnte allenfalls sagen, dass er, indem er eine Aufgabe übernimmt, eine Verantwortung trägt. Dies wäre eine sehr schwache Form der Primärverantwortung. Man kann ihn nicht zur Verantwortung ziehen (Sekundärverantwortung), und wenn, dann gleitet man schon in die rechtliche Perspektive hinüber (Tertiärverantwortung). Wenn man einem Roboter Verantwortung überträgt, wird diese in gewisser Weise zerstört. Das macht dann nichts, wenn es sich um eine einfache Aufgabe ohne ernsthafte Konsequenzen handelt. Der Faktencheck kann über www.faz.net/aktuell/feuilleton/medien/tatort/der-neue-tatort-aus-berlin-im-faktencheck-15787708.html aufgerufen werden.

Abb.: Der Tod im „Tatort“ war nicht schön

Wie sollen Roboter gestaltet sein?

In einem Interview mit dem Schweizer Fernsehen, das in Ausschnitten am 6. September 2018 in 10vor10 ausgestrahlt wurde, wurde der Informations- und Maschinenethiker Oliver Bendel gefragt, ob es überhaupt und wozu es humanoide Roboter brauche. Er wies zunächst darauf hin, dass die Schaffung künstlicher Kreaturen ein Menschheitstraum sein. Man denke an Galatea von Pygmalion oder an Pandora und Talos von Hephaistos. Dann erklärte er, solche Roboter seien ein Spiegel des Menschen. Diese erblickten darin das, was sie sind und nicht sind, und sie verstünden, wie kompliziert ein Lächeln ist, wie schwer zu konstruieren. Nicht zuletzt gibt es Anwendungsbereiche, in denen humanoide Roboter sinnvoll sind, etwa die Hotelrezeption oder ein Bordell. Andere Bereiche eignen sich nicht oder nur bedingt. So muss der Pakethersteller nicht von seiner maschinellen Kopie ersetzt werden – es genügt ein kleiner, abstrakt gestalteter Roboter. Dass dieser dann zur Stolperfalle werden kann, ist ein anderes Thema. Der Beitrag, in dem Oliver Bendel zu Wort kommt, geht auf Sophia von Hanson Robotics und die Frage der Gestaltung von Robotern ein. Er kann hier aufgerufen werden.

Abb.: Sollen Roboter humanoid sein?

Haben Maschinen Bewusstsein?

VRODO hat ein Interview mit dem Roboterphilosophen, Informations- und Maschinenethiker Oliver Bendel geführt. Es ging um moralische Maschinen und am Rande auch um die Frage, ob Maschinen eines Tages Bewusstsein oder Selbstbewusstsein haben können. Für Oliver Bendel gehört zum Bewusstsein, dass eine innere Stimme ausruft: Ah, das ist ja die Welt! Diese innere Stimme kann seiner Meinung auch ein Tier haben. Jeder Igel, jede Kröte hat Bewusstsein. Zum Selbstbewusstsein gehört, dass die innere Stimme ausruft: Ah, das bin ja ich! Ein Affe hat Selbstbewusstsein. Der Roboterphilosoph denkt nicht, dass man ein echtes Bewusstsein von Maschinen wird schaffen können. Auf jeden Fall werde der Roboter nie mit seiner inneren Stimme ausrufen: Ah, das bin ja ich, der Roboter! „I, Robot“ – das sei Science-Fiction. Die Forschung über maschinelles Bewusstsein hält Oliver Bendel dennoch für wichtig. Bei einem der Symposien der AAAI Spring Symposia an der Stanford University wird es um dieses Thema gehen. Das Interview wurde von Maximilan Schreiner geführt und kann über vrodo.de/was-ein-roboterphilosoph-ueber-maschinenmoral-denkt/ nachgelesen werden.

Abb.: Menschen haben Bewusstsein

Wozu brauchen wir die Maschinenethik?

Im „Handbuch Maschinenethik“ ist im August 2018 der Beitrag „Wozu brauchen wir die Maschinenethik?“ von Oliver Bendel erschienen. Die Zusammenfassung: „Die Maschinenethik ist eine junge, dynamische Disziplin. Es ist einfach, ihren Gegenstand zu bestimmen, die Moral in der Maschine, und es fanden zahlreiche begriffliche Klärungen statt. Dennoch gibt es immer wieder Verwechslungen und Missverständnisse. Diese erinnern an die Diskussionen der ersten 40, 50 Jahre der Künstlichen Intelligenz. Dieser wurde vorgehalten, keine Fortschritte zu erzielen, ihr wurde vorgeworfen, dass Systeme nicht intelligent sein können, und es wurde von manchen nicht realisiert oder akzeptiert, dass man metaphorisch oder intentional sprechen kann, mit in die Zukunft gerichteten Absichten. Der vorliegende Beitrag will Grundlagen der Maschinenethik erarbeiten, ohne andere Grundlagenartikel und -bücher nachzuzeichnen und zusammenzufassen. Vielmehr wird, nachdem der Begriff der Maschinenethik erörtert wurde, die Frage beantwortet, warum wir eine solche Disziplin brauchen, zunächst aus philosophischer, dann aus praktischer Perspektive.“ Die Beiträge des von Oliver Bendel herausgegebenen Springer-Handbuchs erscheinen laufend und werden über link.springer.com/referencework/10.1007/978-3-658-17484-2 aufgeführt.

Abb.: Wie wird die Entscheidung ausfallen?