„Sind Maschinen das Ende der Menschheit?“ So lautet der Titel eines Dossiers in der Zeitschrift „Der Pragmaticus“. Diese wurde u.a. vom Red-Bull-Chef Dietrich Mateschitz gegründet. Er ist vor kurzem gestorben, und es handelt sich um das erste Dossier, dessen Veröffentlichung er nicht mehr erlebt hat. Darin heißt es: „KI hat unser Leben bereits jetzt in vielerlei Hinsicht unter Kontrolle. Sie lesen diesen Text vielleicht auf einem Smartphone in der U-Bahn, und dank Google Maps wissen Sie schon, ob Sie den Anschlussbus nach Hause erreichen werden. Vielleicht sitzen Sie auch am Schreibtisch, ein desorientierter Staubsaugerroboter fährt schon wieder gegen den Sessel und reißt Sie aus dem Lesefluss, genervt sagen Sie: ‚Alexa, stopp!‘ KI hat es sich längst, oft unbemerkt, in unserem Alltag bequem gemacht, in Form von Smartphones, virtuellen Assistenten oder Saugrobotern.“ Zu Wort kommen u.a. Sepp Hochreiter, Professor für Machine Learning in Linz, und Georg Dorffner, Professor für KI an der Medizinischen Universität in Wien, zudem Oliver Bendel, Professor für Wirtschaftsinformatik und Ethik an der Hochschule für Wirtschaft FHNW. Maschinen sind, so seine Meinung, nicht das Ende der Menschheit, ganz im Gegenteil. Das Dossier kann über www.derpragmaticus.com/d/roboter/ aufgerufen werden.
„Der Begriff der digitalen Ethik (‚digital ethics‘) ist ebenso erfolgreich wie uneindeutig. Die einen verweisen damit auf einen Teilbereich der Informationsethik, die anderen – mit dem Ziel einer Neubenennung – auf die Gesamtheit dieser Bereichsethik, womöglich unter Einbeziehung der Medienethik. Wieder andere fassen darunter ein zu konstruierendes normatives System, das für die Informationsgesellschaft oder auch speziell für die Wirtschaft (nicht nur für KI-, IT- und Internetfirmen) zu gelten habe, was mit Aussagen wie ‚Wir brauchen eine digitale Ethik‘ verbunden wird. Nicht zuletzt kann die Moral der Informationsgesellschaft gemeint sein, wobei dann – wie es häufig im Englischen der Fall ist – die Begriffe von Ethik und Moral nicht scharf getrennt werden.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der im Dezember 2020 im Gabler Wirtschaftslexikon erschienen ist. Es wird die Beziehung zu verschiedenen Bereichsethiken und zur Maschinenethik hergestellt, der Hintergrund (samt der Entwicklung) des Begriffs dargestellt und am Ende nochmals dessen Potenzial bzw. Problematik erläutert. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/digitale-ethik-121185 aufgerufen werden.
Abb.: Auch VR kann man innerhalb der Ethik behandeln
In many cases it is important that an autonomous system acts and reacts adequately from a moral point of view. There are some artifacts of machine ethics, e.g., GOODBOT or LADYBIRD by Oliver Bendel or Nao as a care robot by Susan Leigh and Michael Anderson. But there is no standardization in the field of moral machines yet. The MOML project, initiated by Oliver Bendel, is trying to work in this direction. In the management summary of his bachelor thesis Simon Giller writes: „We present a literature review in the areas of machine ethics and markup languages which shaped the proposed morality markup language (MOML). To overcome the most substantial problem of varying moral concepts, MOML uses the idea of the morality menu. The menu lets humans define moral rules and transfer them to an autonomous system to create a proxy morality. Analysing MOML excerpts allowed us to develop an XML schema which we then tested in a test scenario. The outcome is an XML based morality markup language for autonomous agents. Future projects can use this language or extend it. Using the schema, anyone can write MOML documents and validate them. Finally, we discuss new opportunities, applications and concerns related to the use of MOML. Future work could develop a controlled vocabulary or an ontology defining terms and commands for MOML.“ The bachelor thesis will be publicly available in autumn 2020. It was supervised by Dr. Elzbieta Pustulka. There will also be a paper with the results next year.
Fig.: Skeleton of the top elements (Illustration: Simon Giller)
Laut NZZ und anderen Medien soll Genf „ein Ethikzentrum für die digitale Gesellschaft werden“ (NZZ, 15. August 2019). Am 2. September soll beim Swiss Global Digital Summit eine neue „Plattform“ gegründet werden, präsidiert von der ehemaligen Bundesrätin Doris Leuthard (CVP), heute u.a. Verwaltungsrätin der Bell Food Group AG, einer Fleischverarbeiterin. Führungsleute von „namhaften Unternehmen“ hätten sich angemeldet, unter ihnen „die CEO von Adecco, Credit Suisse, UBS, Migros, Roche, SwissRe, Zurich Insurance, Swisscom und SBB“ (NZZ, 15. August 2019). Mit dabei seien auch die Präsidenten der Hochschulen ETHZ und EPFL sowie Vertreter aus den Chefetagen von Google, Huawei, IBM, Microsoft, Uber und Siemens. Die Grundhaltung und Stoßrichtung wird offenbar klar und deutlich vorgegeben. Es geht laut NZZ „darum, im optimistischen Geist des technischen Fortschritts ethische Standards zu formulieren, um die heiklen Aspekte der rasanten Entwicklung zu meistern“. „Stichworte dafür sind künstliche Intelligenz, die Automatisierung sowie die Ansammlung und Verwendung persönlicher Daten. Dafür sollen Lösungen im marktwirtschaftlich-freiheitlichen Sinn gefunden werden, die eine internationale Strahlkraft entwickeln.“ (NZZ, 15. August 2019) Wie auf EU-Ebene besteht die Gefahr der Instrumentalisierung der Ethik und der Vereinnahmung der Wissenschaft durch politische und wirtschaftliche Kräfte. Als Moralphilosoph wird man der Einrichtung eher skeptisch gegenüberstehen.
„Ein Hacker hat auf knapp 30.000 Kundenkonten von zwei GPS-Tracker-Apps zugreifen können. Neben umfangreichen Einblicken hätte er bei manchen Fahrzeugen auch den Motor während der Fahrt ausschalten können – per App oder Webclient.“ (Golem, 26. April 2019) Dies schreibt Moritz Tremmel in einem Artikel, der am 26. April 2019 in Golem erschienen ist. „Ich hätte für massive Verkehrsprobleme auf der ganzen Welt sorgen können“, sagte der Hacker gegenüber dem Onlinemagazin. „Ich habe die volle Kontrolle über Hunderttausende Fahrzeuge und kann deren Motoren per Touch stoppen.“ (Golem, 26. April 2019) Das Hacken von Automobilen wird als eines der vielen Probleme gesehen, mit dem das teil-, hoch- und vollautomatisierte Fahren konfrontiert ist und sein wird. Ein anderes ist, dass Kameras, Radar- und Ultraschallsysteme von außen manipuliert werden können, zum Teil mit einfachsten Mitteln. Bereits mit ein paar Kaugummis und einer Sprühdose kann man das Auto fahruntüchtig machen. Darauf geht ein Artikel von Oliver Bendel ein, der am 6. März 2018 in der ICTkommunikation erschienen ist.
Abb.: Das Hacken von Fahrzeugen kann gefährlich sein
Im „Handbuch Maschinenethik“, seit 2016 von Prof. Dr. Oliver Bendel herausgegeben, ist der 16. Beitrag erschienen, mit dem Titel „Algorithmen, Daten und Ethik: Ein Beitrag zur Papiermaschinenethik“ … Der Autor ist Dr. Stefan Ullrich, Forschungsgruppenleiter am Weizenbaum-Institut für die vernetzte Gesellschaft. Aus dem Abstract: „Die informationstechnischen Realisierungen von Algorithmen sind längst in alle Lebensbereiche des modernen Menschen vorgedrungen. Algorithmen werden als Allheilmittel angepriesen oder als Hauptschuldige der ‚Digitalen Unmündigkeit‘ gesehen. Zunächst werden wir Algorithmen ganz ohne Digitaltechnik betrachten, also auf bestimmte Arten von Texten eingehen, die auf den menschlichen Geist eine Art Zwang ausüben, die so genannten Paper Machine Codes. Die Betrachtungen zur Ethik der Algorithmen wird mit einer ethischen Betrachtung der (Eingabe-)Daten verbunden, besonderes Augenmerk liegt auf der Signatur einer Person. Es folgen dann Ausführungen zu Geistesmaschinen und nutzlosen Maschinen, um mit einem Ausblick auf die Bedingungen zur Möglichkeit der Mündigkeit im Zeitalter der Internet of Things zu schließen.“ Alle Beiträge sind über link.springer.com/referencework/10.1007/978-3-658-17484-2 verfügbar.
Das Handelsblatt titelt am 26. August 2018 mit den Worten „Wenn Algorithmen den Menschen diskriminieren“. Im Teaser des Beitrags von Hannah Steinharter und Michael Maisch heißt es: „Die Finanzbranche setzt enorme Hoffnungen auf die künstliche Intelligenz. Aber die Herrschaft der Maschinen führt zu ernsten ethischen Problemen.“ Und im Haupttext: „Künstliche Intelligenz (KI) rechnet in der Finanzbranche nicht nur Versicherungsbeiträge aus. Mithilfe von Algorithmen überprüfen Banken und andere Finanzdienstleister die Kreditwürdigkeit ihrer Kunden, forschen nach Betrug und automatisieren quasi jeden Geschäftsbereich – von der Vermögensverwaltung bis zur Kontoeröffnung.“ (Handelsblatt, 26. August 2018) Befragt wurden zu dem Thema u.a. Raúl Rojas aus Berlin und Oliver Bendel aus Zürich. Der Artikel kann über www.handelsblatt.com/finanzen/banken-versicherungen/kuenstliche-intelligenz-wenn-algorithmen-den-menschen-diskriminieren/22949674.html abgerufen werden.
Das AAAI Spring Symposium „AI for Social Good“ wurde am 27. März 2017 nach der Kaffeepause um 11.00 Uhr fortgeführt. Eric Rice (USC School of Social Work) und Sharad Goel (Stanford University) referierten in ihren Keynotes zum Thema „AI for the Social Sciences“. Ihr Ausgangspunkt: „While the public frets over a future threat of killer robots or the dream of a driverless car, computer scientists and social scientists can engage in novel solutions to vexing social problems today.“ (Website AISOC) Eric Rise ist Mitbegründer des USC Center for Artificial Intelligence in Society. Er stellte zuerst sein eigenes Forschungsfeld dar, die Sozialarbeit, und ging dann auf das Phänomen der Obdachlosen in den USA ein. Künstliche Intelligenz kann auch in diesem Feld angewandt werden, etwa indem man Netzwerke und ihre Mitglieder sichtbar macht und dann Personen dazu ermuntert, bestimmte Funktionen – etwa eines Anführers oder Vorbilds – zu übernehmen. Der Vortrag von Sharad Goel trug den Titel „Algorithms to assist judicial decision-making“. Der Assistenzprofessor am Department of Management Science & Engineering der Stanford University betonte, dass in diesem Bereich einfache, interpretierbare Regeln wichtig sind; die Urteile müssen nach seiner Meinung „fast, frugal and clear“ sein. Der Wissenschaftler gab ein Ende ein Versprechen „of greater efficiency, equity, and transparency“.
„Kann ein Roboter meinen Job machen?“ Diese Frage soll man mit dem Job-Futuromat beantworten können, der für eine ARD-Themenwoche entstanden ist. „Finden Sie heraus, welche Tätigkeiten Ihres Berufes heute schon eine Maschine erledigen kann – und welche nur ein Mensch.“ (Website Job-Futuromat) Die Eingabe von „Professor/in – Fachhochschule“ ergibt drei Tätigkeitsfelder, nämlich „Lehrtätigkeit (Hochschule)“, „Didaktik“ und „Methodik“. Wofür „Methodik“ in diesem Zusammenhang steht, bleibt unklar. Der Job-Futuromat scheint sich auf Deutschland zu beziehen. Sowohl dort als auch in der Schweiz und in Österreich wird an Fachhochschulen geforscht. Man ist in EU-Forschungsprojekte und Projekte auf nationaler Ebene involviert. Zudem ist man in A-, B- und C-Journals aller Disziplinen vertreten. Die Tätigkeit „Forschung“ taucht aber gar nicht auf, anders als bei „Professor/in – Universitäten/gleichgestellte Hochschulen“. Der Job-Futuromat spuckt folgendes Ergebnis aus: „0 % der Tätigkeiten in diesem Beruf könnten schon heute Maschinen übernehmen.“ Welche Maschinen sind gemeint? Die Prozentzahl beschreibt, so die Website, den Grad der Automatisierbarkeit dieses Berufs und entspricht dem Anteil an wesentlichen Aufgaben (den Tätigkeiten), „die theoretisch schon heute von Maschinen, Robotern oder Computerprogrammen ausgeführt werden könnten“ (Website Job-Futuromat). Die erwähnte Lehrtätigkeit wäre aber, wenn man an Computer-based Trainings, Web-based Trainings und MOOCs denkt, zumindest teilweise automatisierbar in diesem Sinne: Sie würde von Computerprogrammen übernommen, die in einzelnen Kursen bis zu 100.000 Lernende auf einmal bedienen. Auch andere Tests weisen darauf hin, dass der Job-Futuromat nur ein fragwürdiges Spielzeug ist, kein ernstzunehmendes Analyseinstrument.
„Algorithmische Auswahl- und Entscheidungsprozesse prägen unseren Alltag, unsere Wahrnehmung der Welt und unser tägliches Handeln. Ihre Bedeutung steigt in einer durch Automatisierung und Big Data gekennzeichneten digitalen Gesellschaft in sämtlichen Lebensbereichen rasant an. Damit werden sowohl die Frage nach der Machtausübung mittels Algorithmen als Instrumente als auch jene nach der Macht von Algorithmen als eigenständige Akteure virulent. Inwieweit handeln Algorithmen autonom, selbstbestimmt und intentional? Sind sie kontrollier- und ihre Ergebnisse vorhersehbar? Können Algorithmen moralisch handeln? Welche gesellschaftlichen Herausforderungen ergeben sich aus einer ethischen Perspektive und wie können diese bewältigt werden?“ So ein Flyer zu einer Veranstaltung, die den Titel „Die Macht der Algorithmen: Werkzeuge oder Akteure?“ trägt und am 22. November 2016 von 18:15 – 19:45 Uhr an der Universität Zürich stattfindet. Und weiter: „Nach einer thematischen Einführung durch Prof. Dr. Michael Latzer (IPMZ – Abt. Medienwandel & Innovation, UZH) folgen Inputreferate zur Einschätzung der Macht der Algorithmen aus technischer und ethischer Perspektive durch Prof. Dr. Thomas Hofmann (Data Analytics Lab, Departement Informatik, ETH Zürich) und Prof. Dr. Oliver Bendel (Institut für Wirtschaftsinformatik, Hochschule für Wirtschaft, FHNW).“
„Der Algorithmus als Richter“ lautet der Titel eines Beitrags von Katharina Schuchmann für politik-digital.de vom 21. Juli 2016. „Automatisierte Justiz – ein Projekt aus den Niederlanden zeigt, wie es gehen kann und hat damit Erfolg. Der Robo-Richter ist wohl nur eine Frage der Zeit. Sind Justizirrtümer damit eine Sache der Vergangenheit?“ (politik-digital.de, 21. Juli 2016) Die Verfasserin geht auf ein Pilotprojekt in den Niederlanden ein, das System Rechtwijzer, nach ihren Worten ein automatisierter Streitschlichtungsservice. „Derzeit bietet das Portal Lösungen in Scheidungsangelegenheiten und bei Beschwerden zu Online-Käufen an.“ Zudem wirft sie einen Blick in die Zukunft, über Schlichtung und Scheidung hinaus. Es scheine nur eine Frage der Zeit zu sein, „bis lernende Algorithmen in der Lage sind, Urteile über weniger eindeutige Verhältnisse zu fällen“ (politik-digital.de, 21. Juli 2016). Vorstellbar sei, dass mittelfristig eine Umkehr der Verhältnisse stattfinde und der Algorithmus nicht mehr den Juristen unterstütze, sondern dieser den Algorithmus, ihn mit Meinungen und menschlichen Einschätzungen füttere und ansonsten walten (und schalten) lasse. Wie bei verschiedenen anderen Automatisierungsbestrebungen – etwa bei Banken und Versicherungen – wäre es freilich auch hier wichtig, dass der Mensch das letzte Wort behält. Zwar kann man Befangenheit und Gefühligkeit ein Stück weit durch maschinelle Verfahren ausgleichen; aber Empathie und Intuition sind meist essentielle Bestandteile rationaler Entscheidungsprozesse. Obwohl es nicht um moralische Urteile geht, sondern um rechtliche, kann die Maschinenethik zur Gestaltung von „Richtersystemen“ beitragen und durch die Konzeption und Implementierung auch die Grenzen der „Maschinenrichter“ aufzeigen.
Nach dem Wunsch von Alexander Dobrindt sollen „Autopilot und Fahrer rechtlich gleichgestellt“ werden, wie die Welt am 22. Mai berichtet. Der Verkehrsminister will zudem „ethische Fragen klären lassen“ (Die Welt, 22. Mai 2016). „Denn die Automatisierung kann zu moralisch kaum lösbaren Problemen führen. So sind Situationen vorstellbar, in denen ein Fahrzeug zwar einen Unfall nicht mehr verhindern, aber noch die Entscheidung treffen kann, ob es nach links ausweicht, wo eine Gruppe Schulkinder steht oder nach rechts wo ein älterer Fußgänger gerade die Straße überquert.“ (Die Welt, 22. Mai 2016) Dobrindt wolle deshalb „unter Beteiligung von Wissenschaft, Automobilindustrie und Digitalwirtschaft eine Kommission“ gründen, „die klare Leitlinien für Algorithmen entwickelt, welche die Fahrzeugreaktionen in Risikosituationen bestimmen“ (Die Welt, 22. Mai 2016). Allerdings will der Minister schon jetzt zwei Grundsätze für die Computersteuerungen vorgeben: 1. „Ein autonomes Auto müsse sich im Zweifel immer für den Sachschaden und gegen den Personenschaden entscheiden.“ Und 2: „Eine Qualifizierung des Faktors Mensch ist unzulässig“, wie es im entsprechenden Strategiepapier heißt. Ein Minister dürfe nur so wertvoll sein „wie alle anderen Menschen“ (Die Welt, 22. Mai 2016). Die Zeitung bemerkt dazu ganz richtig: „Doch gelöst ist das Problem mit dieser Festlegung natürlich noch nicht, denn nach irgendeinem Prinzip muss das Auto schließlich entscheiden, in welche Richtung es ausweicht, wenn ein Unfall unvermeidlich ist.“ Man darf gespannt sein, wer in die Kommission berufen wird und wie unabhängig diese ist. Die Welt hat in der Vergangenheit immer wieder über autonome Autos aus Sicht der Maschinenethik berichtet, etwa in diesem Artikel von Barbara Schneider und diesem Beitrag von Philipp Vetter.
Heutige Roboter vermögen selbstständig Entscheidungen zu treffen, die erhebliche Konsequenzen nach sich ziehen, in sozialer und moralischer Hinsicht. Die teilautonomen und autonomen Maschinen werden von sozialer Robotik und Maschinenethik gezähmt, dressiert und zivilisiert. Autos erkennen Menschen und Tiere und bremsen rechtzeitig vor ihnen ab. Industrieroboter bewegen sich mit schlafwandlerischer Sicherheit durch die Fabrikhallen und behandeln uns in Kooperationszellen wie rohe Eier. Pflegeroboter bringen uns Medikamente und betten uns um. Auch Computer an der Börse – Stichwort „Algorithmic Trading“ – wären ein möglicher Gegenstand für das „Moralisieren“. In seinem Vortrag an der wichtigsten unabhängigen Börse Europas (SIX Swiss Exchange) am 17. Februar 2016 ging Oliver Bendel – nach einem kurzen Blick in die Ideen- und Entwicklungsgeschichte – auf aktuelle Entwicklungen in Robotik und KI und auf die Disziplin der Maschinenethik ein und stellte einfache moralische Maschinen vor, mitsamt den annotierten Entscheidungsbäumen für ihre Umsetzung. Auch komplexe moralische Maschinen und mit ihnen zusammenhängende Dilemmata wurden erwähnt und veranschaulicht. Der Forscher plädierte zuletzt nicht nur für eine Erweiterung, sondern auch für eine Beschränkung der Maschinen.
„Interaktive Werbeflächen sind Plakate, Terminals, Säulen etc., die sich automatisch auf Passanten, Besucher, Kunden und Interessierte einstellen und mit diesen in eine Interaktion treten. Teilweise werden Bewegungsmelder sowie Bild- und Mustererkennung zur Bestimmung von Geschlecht, Größe und Alter verwendet.“ So beginnt ein neuer Beitrag von Oliver Bendel für das Wirtschaftslexikon von Springer Gabler. Die interaktiven Werbeflächen zeigen Männern und Frauen, Großen und Kleinen, Jungen und Alten unterschiedliche Werbung. Dabei werden natürlich auch Klischees bedient. Am Ende wird die Perspektive der Ethik eingenommen: „Interaktive Werbeflächen können in die Privatsphäre eingreifen, selbst in öffentlichen Bereichen, und das Persönlichkeitsrecht verletzen sowie die informationelle Autonomie beschädigen. Dies ist Thema der Informationsethik. Die Maschinenethik fragt nach moralisch adäquaten Entscheidungen der Plakate und Terminals, die Medienethik nach der Reizüberflutung im (teil-)öffentlichen Raum.“ Der Beitrag ist am 2. Dezember 2015 erschienen und kann über wirtschaftslexikon.gabler.de/Definition/interaktive-werbeflaechen.html aufgerufen werden.
Abb.: Unterschiedliche Werbung für Frauen und Männer
Einen Artikel über die Formalisierung von Ethik hat Caspar Österheld von der Universität Bremen in der Springer-Fachzeitschrift Synthese veröffentlicht. Der Titel lautet „Formalizing preference utilitarianism in physical world models“. Im Abstract heißt es: „Most ethical work is done at a low level of formality. This makes practical moral questions inaccessible to formal and natural sciences and can lead to misunderstandings in ethical discussion. In this paper, we use Bayesian inference to introduce a formalization of preference utilitarianism in physical world models, specifically cellular automata.“ Auch auf die Maschinenethik wird am Rande eingegangen: „Some formalization has … been conducted in the realm of machine ethics.“ Der Artikel ist über link.springer.com/article/10.1007/s11229-015-0883-1 erhältlich.
In einem Interview mit der TAZ vom 10. August 2013 spricht Yvonne Hofstetter auch über die Moral von Algorithmen. Die Geschäftsführerin der Teramark Technologies GmbH wird gefragt: „Algorithmen sind im Grunde Roboter. Gibt es für sie eine Ethik?“ Sie antwortet: „Die Technologen beschäftigen sich mit diesen Fragen. Welche Ethik, welche Moralvorstellungen brauchen wir? Was kann man in die Maschinen hinein programmieren? Aus der philosophischen Ecke, also von denen, die sich mit gesellschaftlichen Entwicklungen beschäftigen, kommt hingegen nichts oder wenig. Die Philosophie sieht offenbar noch nicht, dass eine Sturzwelle an intelligenten Technologien auf uns zurollt.“ Nun ist die Maschinenethik in den USA, in Kanada, Australien, Japan und Holland eine weit entwickelte Disziplin, zu der KI-Experten genauso beitragen wie Philosophen. Die Informationsethik, die sich auf die moralischen Implikationen des Einsatzes von Informations- und Kommunikationstechnologien bezieht, ist gar eine traditionsreiche Disziplin, auch in Bezug auf Algorithmen und Maschinen. Es ist aber in der Tat so, dass im deutschsprachigen Raum erheblicher Nachholbedarf besteht, dass die Ethik von Lobbyorganisationen bekämpft und von Kirchen missbraucht wird. Grundsätzlich muss man unterscheiden zwischen der Maschinenethik (begriffen als Pendant zur Menschenethik) und der Informationsethik, die Computer-, Netz- und Neue-Medien-Ethik umfasst. Beide sind wichtig, wobei die eine eher technologiegestaltend, die andere eher problemanalysierend und lebensgestaltend unterwegs ist und in gewisser Weise gilt: Die Informationsethik löst die Probleme, die die Maschinenethik verursacht.