Die Maschinenethik und die Soziale Robotik

Die Studie „Soziale Roboter, Empathie und Emotionen“, erschienen am 8. November 2021, nimmt die Perspektiven von Informations-, Roboter- und Maschinenethik ein. Verantwortlich für diesen Teil waren Prof. Dr. Oliver Bendel und Jeanne Kreis. Die Perspektive der Informationsethik – vor allem das Konzept der informationellen Autonomie – hilft dabei, die Überwachungsmöglichkeiten und die Verletzungen von Privat- und Intimsphäre durch soziale Roboter kritisch zu reflektieren. Sie kann mithelfen, ethische Leitlinien zu entwickeln und ethische Kommissionen aufzusetzen. Es resultiert bei Verwendung der diskursiven Methode ein Interessenausgleich der verschiedenen Parteien, etwa ein Konsens zu dem, was bei Gesichts- und Stimmerkennung zu tun und was zu unterlassen ist. Mit Hilfe der Roboterethik kann die Frage nach den moralischen Rechten von sozialen Robotern abschlägig beantwortet werden, da solche Rechte Empfindungs- und Leidensfähigkeit bzw. Bewusstsein voraussetzen. Ein ergiebigeres Forschungsfeld findet die Disziplin in Bezug auf die Folgen des Einsatzes sozialer Roboter. Diese sollten keine Mittel für Betrug und Täuschung darstellen, da diese Rechte des Gegenübers beschädigen können. Zugleich ist es vertretbar, die Nutzer für eine Weile in einer Illusion zu belassen, wenn sie dazu in geeigneter Weise ihre Zustimmung gegeben haben und der Nutzen den Schaden überwiegt. Sie sollten aber, soweit es ihnen zugänglich und möglich ist, über die Hintergründe aufgeklärt worden sein und zu jedem Zeitpunkt wiederum Wahlfreiheit haben. Es ist vor allem stets zu überlegen, ob das Simulieren von Empathie und Emotionen notwendig und zielführend ist oder ob hier unnötigerweise Beziehungen und Bindungen etabliert werden, die sich für die Betroffenen als problematisch oder die Menschenwürde verletzend herausstellen können. Ethics by Design, Responsible AI und Maschinenethik können dazu beitragen, dass soziale Roboter sozial und moralisch adäquat agieren und reagieren. Die Entwicklerinnen und Entwickler werden mit Blick auf Betrug und Täuschung oder die Gefahr von Verzerrungen und Vorurteilen sensibilisiert, und sie werden in die Lage versetzt, den Maschinen passende Regeln und Grenzen einzupflanzen. So entstehen soziale Roboter als moralische Maschinen, die zumindest in geschlossenen und halboffenen, übersichtlichen Räumen mit voraussehbaren Prozessen und Situationen zu einem guten Leben beitragen können. Die Studie ist über zenodo.org/record/5554564 verfügbar.

Abb.: Eine Pose von Ameca (Photo: Engineered Arts)