Maschine und Moral

„Sind Maschinen das Ende der Menschheit?“ So lautet der Titel eines Ende Oktober bis Anfang November 2022 erschienenen Dossiers in der Zeitschrift „Der Pragmaticus“. Diese wurde u.a. vom Red-Bull-Chef Dietrich Mateschitz gegründet. Er ist vor kurzem gestorben, und es handelt sich um das erste Dossier, dessen Veröffentlichung er nicht mehr erlebt hat. Enthalten ist ein Beitrag von Prof. Dr. oec. HSG Oliver Bendel mit dem Titel „Brauchen Computer eine Moral?“ … Im Teaser der Redaktion ist zu lesen: „In Form von Chatbots, Rasenrobotern und autonomen Autos sind die Computer heute überall. Je mehr die Maschinen können, umso dringlicher scheint es, ihnen unter Einbezug der Ethik Regeln zu geben.“ Der Artikel des Informations- und Maschinenethikers aus Zürich ist am 1. November 2022 freigeschaltet worden und kann über www.derpragmaticus.com/r/maschinenethik/ aufgerufen werden.

Abb.: Maschine und Moral

Maschinenethik und Pflegerobotik

SRF 1 Trend hat in seinem Beitrag „Künstliche Intelligenz und die Moral“ vom 8. Januar 2021 diverse Fragen von Roboterpsychologie, Roboterethik und Maschinenethik behandelt. „Die Fähigkeiten von künstlichen Intelligenzen werden besser und besser. Und das wirft Fragen auf. Sollen die Maschinen auch ethische und moralische Entscheide fällen dürfen? Und wenn ja, welche und nach welchen Regeln? Verschiedene Länder arbeiten an ethischen Standards. Doch das ist gar nicht so einfach. Ethische und moralische Vorstellungen können weit auseinander gehen. Künstliche Intelligenz und die Moral: ‚Trend‘ erläutert die Problematik und begleitet den Roboter Lio, der in einem Altersheim ein Pflege-Praktikum absolviert und dabei viel zu lernen hat.“ Zu Wort kommen u.a. Alina Gasser von F&P Robotics und Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. Zusammen mit Joel Siebenmann (ebenfalls F&P Robotics) hatten sie vor einiger Zeit das Paper „Co-Robots as Care Robots“ verfasst, das beim AAAI 2020 Spring Symposium „Applied AI in Healthcare: Safety, Community, and the Environment“ angenommen wurde. Der Radiobeitrag kann über www.srf.ch abgerufen werden.

Abb.: Am Ende muss es für die Patienten stimmen

Brauchen Roboter eigentlich Moral?

In der neuen Ausgabe der Zeitschrift cooperativ (2/18) widmet man sich der Frage, ob Roboter Moral brauchen. Oliver Bendel zeigt seit einigen Jahren, wie maschinelle Moral entsteht, aus der Maschinenethik heraus, in Zusammenarbeit mit Künstlicher Intelligenz und Robotik. Ob Roboter Moral brauchen, muss von Fall zu Fall entschieden werden. Es bieten sich Stellvertretermaschinen mit einer Stellvertretermoral an, die der Besitzer oder Benutzer mit Hilfe eines Moralmenüs erzeugen kann, mit einer gewissen Freiheit, die auf der einen Seite von Voreinstellungen, auf der anderen Seite von Verordnungen und Gesetzen eingeschränkt wird. Stellvertretermaschinen dieser Art können in geschlossenen oder halboffenen Umgebungen unterwegs sein, etwa als Staubsaugerroboter im Haushalt oder als Sicherheitsroboter auf dem Betriebsgelände. Oliver Bendel kommt in dem Beitrag von Hermann Fritzl ebenso zu Wort wie Matthias Scheutz von der Tufts University School of Engineering und Bertram F. Malle von der Brown University. Der Artikel mit dem Titel „Brauchen Roboter Moral?“ kann über issuu.com/cooperativ_oegv/docs/cooperativ_02_18_web aufgerufen werden. Zudem steht er hier als PDF zur Verfügung.

Abb.: Roboter in Aktion

Tiere haben Rechte, Roboter nicht

Der Artikel „Haben Roboter Rechte?“ von Oliver Bendel aus der Zeitschrift Edison (Ausgabe 2/2018) kann hier heruntergeladen werden. Die zuständige Disziplin für diese Frage ist die Roboterethik (bzw. die Roboterphilosophie). Während sich die Maschinenethik auf die maschinelle Moral und damit allenfalls verbundene Pflichten oder Verpflichtungen konzentriert, interessiert sich die Roboterethik auch für moralische Rechte von Maschinen, insbesondere von Robotern. Schon vor Jahrzehnten hat man über diese Frage nachgedacht, doch in letzter Zeit gibt es diesbezügliche Überlegungen und Forderungen, denen man als Ethiker etwas entgegensetzen muss. Denn Oliver Bendel ist der Meinung, dass Roboter keine Rechte haben, haben werden und haben sollen. In seinen Ausführungen zieht er Vergleiche mit Menschen, Tieren und Pflanzen (Tiere haben Rechte, Pflanzen nicht). Er erwähnt in „Haben Roboter Rechte?“ auch Sophia, den humanoiden Roboter, dem in Saudi-Arabien die Staatsbürgerschaft verliehen wurde. Ihr wird in Edison zudem ein eigener Beitrag gewidmet.

Abb.: Tiere haben Rechte

Mädchen und Frauen unter den Rock schauen

Die Schweizerische Post erprobt Lieferroboter, die Pakete zustellen sollen. Auf dem Gelände des Unternehmens in Wankdorf bei Bern hatte der Betreiber dieser Plattform im September 2016 die Gelegenheit, das Produkt der Starship Technologies unter die Lupe zu nehmen. Die Tester wiesen auf die Kameras mit 360-Grad-Aufnahmetechnik hin und auf das Ultraschallsystem. Sie öffneten die Klappe und erlaubten den Blick auf die Last. Bis zu zehn Kilogramm können auf den sechs Rädern bis zu sechs Kilometer weit befördert werden. Das hauptsächliche Problem der Paketroboter ist, dass sie neuartige Verkehrsteilnehmer darstellen, die die Gehsteige bevölkern und die Straßen überqueren. Das eine tun sie in der Regel autonom, das andere wird in den meisten Ländern, in denen sie getestet werden, von einem Operator unterstützt. Wenn es viele Lieferroboter dieser Art gibt, werden Innen- und Vorstädte noch komplexer für die etablierten Verkehrsteilnehmer. Unabhängig von der Zahl stellen sie Stolperfallen dar. Die Paketroboter sind wie herrenlose Hunde, können aber nicht so gut wie diese ausweichen und sind auch nicht so schnell. Skater, Radfahrer und Fußgänger können über sie stürzen, was durch die geringe Höhe begünstigt wird. Selbst wenn sie an die Leine gelegt und durch wenig frequentierte Gebiete navigiert werden, ist die Gefahr nicht ganz gebannt. Ein nicht ganz nebensächliches Problem ist, dass der Lieferoboter mit seinen Kameras auch Personen erfassen und womöglich Mädchen und Frauen unter den Rock schauen kann – ein weites Feld für Informations- und Technikethik. Es wird sich zeigen, wie hoch die Akzeptanz von Kunden und Passanten ist und welche Erfahrungen in den verschiedenen Ländern gemacht werden.

girlskirt

Abb.: Was sieht der kleine Roboter?

Maschine und Moral, Roboter und Recht

„Maschine und Moral, Roboter und Recht“ ist der Titel eines Beitrags von Hansjörg Schmid und Virginie Jaquet, der im August 2016 in der APUNTO (3/2016) erschienen ist, der Zeitschrift für die Angestellten in der Schweiz. Im Teaser heißt es: „Maschinen und Roboter durchdringen unser Leben immer mehr. Das Zusammenwirken von Mensch und Maschine ist aber, gerade in der Schweiz, noch erstaunlich wenig geregelt, wie Rechtsexperten und Ethiker feststellen.“ (APUNTO, August 2016) Zu Wort kommen Prof. Dr. Isabelle Wildhaber, Professorin für Privat- und Wirtschaftsrecht unter besonderer Berücksichtigung des Arbeitsrechts an der Universität St. Gallen und Expertin für Roboterrecht, Nicolas Capt, Rechtsanwalt bei Barreaux de Genève & Paris und Spezialist für neue Technologien, und Prof. Dr. Oliver Bendel, Wirtschaftsinformatiker, Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Der Artikel liegt in der selben Ausgabe in französischer Sprache vor, unter dem Titel „Machines et morale, robots et droit“. Der Teaser lautet dort: „Les robots envahissent toujours plus notre vie. Pourtant, la cohabitation entre l’homme et la machine est très peu réglée en Suisse, comme le constatent des experts en droit et un éthicien.“ Das gesamte Heft kann über angestellte.ch/assets/Apunto/apunto-3-16-GzD-low.pdf heruntergeladen werden.

roboter_maid

Abb.: Ist dieses Robotermädchen schon moralisiert?

Kann man Robotern Moral beibringen?

„Kann man Robotern Moral beibringen?“ Zu dieser Frage ist Liane von Billerbeck vom Deutschlandradio Kultur im Gespräch mit Janina Sombetzki, Philosophin an der Christian-Albrechts-Universität Kiel. Anlass ist deren Vortrag beim Internationalen Festival der Philosophie phil.COLOGNE im Mai 2015. Im Gespräch geht es u.a. um Serviceroboter und spezieller um Pflegeroboter. Von Billerbeck führt an einer Stelle aus: „Da ist ein Roboter im Haushalt eines pflegebedürftigen Menschen, um ihr oder ihm Hilfe zu leisten, das Leben zu erleichtern. Er ist auf bestimmte Arbeiten programmiert, jemanden füttern beispielsweise. Was aber, wenn der Betreute nicht mehr essen will und der Roboter aber sein Programm durchzieht?“ (Deutschlandradio, 27. Mai 2015) Auch Grundsätzliches wird erörtert, etwa die Frage der Autonomie. Die Philosophin plädiert für einen Begriff „im starken Sinne“: „Autonomie ist überall dort, wo wir unserem Handeln Gründe setzen. Bei Menschen ist das relativ einfach, da sagt man: wie kommen wir zu unseren guten Gründen? Durch Erziehung beispielsweise, durch Bildung, durch Kommunikation. Und bei Maschinen müssten wir dann sagen: Die guten Gründe stellen sozusagen die Programmierung dar.“ (Deutschlandradio, 27. Mai 2015) Das ganze Interview ist nachzuhören und nachzulesen über www.deutschlandradiokultur.de.

Auto mit Moral

In einem ganzseitigen Artikel über selbstständig fahrende Autos mit dem Titel „Auto mit Moral“ stellt der Autor, Michael Baumann, promovierter Wissenschaftler an der ZHAW, die Einschätzungen von zwei Experten gegenüber. Oliver Bendel, Informations- und Maschinenethiker von der Hochschule für Wirtschaft FHNW, hat nichts gegen Autos dieser Art. Er will ihnen aber bestimmte Zonen zuweisen, etwa umfunktionierte Standstreifen auf der Autobahn, und bestimmte Uhrzeiten, etwa die Stunden der Nacht. Zudem hält er eine Geschwindigkeitsbegrenzung für notwendig. Frank M. Rinderknecht, Gründer und CEO der Autokonzeptschmiede Rinspeed, will die Autos immer und überall sehen. Die Einstellung der Gesellschaft ihnen gegenüber müsse sich ändern. Die Gesellschaft ist auch für Oliver Bendel zentral. Er geht im Moment davon aus, dass sie maschinelle Entscheidungen über Leben und Tod von menschlichen Verkehrsteilnehmern kaum hinnehmen wird. Als Maschinenethiker ist er an solchen Entscheidungen durchaus interessiert. Allerdings konzentriert er sich in seiner Forschung auf das Tierwohl. Dabei sind ebenfalls moralische Urteile relevant; nur sind die Risiken bei der Umsetzung viel geringer und die Chancen offensichtlicher. Der Artikel ist am 17. Mai 2015 in der Wochenzeitung Schweiz am Sonntag erschienen und als PDF verfügbar.

Schild

Abb.: Was soll das Auto tun?

Artikel zum GOODBOT

Ein Artikel in der UnternehmerZeitung vom 2. Juli 2013 geht auf das GOODBOT-Projekt ein, das im Juni 2013 an der Hochschule für Wirtschaft FHNW gestartet ist. Der „moralische Chatbot“ soll auch auf Selbstmorddrohungen oder Ankündigungen von Amokläufen adäquat reagieren und überhaupt ein angenehmer Zeitgenosse (und trotzdem kein Langweiler) sein. Es werden sieben Regeln genannt, die „hinsichtlich seiner Akte und Sprechakte gegenüber dem Benutzer“ gelten sollen. Dazu gehört auch eine Transparenzregel: „Der GOODBOT macht dem Benutzer klar, dass er eine Maschine ist.“ (Regel 1) Und eine Regel zur Beobachtung: „Der GOODBOT ist kein Spitzel und wertet Gespräche mit dem Benutzer nicht aus.“ (Regel 6) Für das Projekt wurden verschiedene konzeptionelle Vorleistungen wie der Regelkatalog erbracht. Von Juni 2013 bis Januar 2014 arbeiten sich drei Studierende der Hochschule in die Maschinenethik und die Roboterethik ein und entwickeln einen Prototyp. Initiator und Leiter des Projekts ist der Philosoph und Wirtschaftsinformatiker Oliver Bendel. Der Artikel ist in der siebten Ausgabe der UnternehmerZeitung auf den Seiten 30 und 31 zu finden.