Kategorie: Algorithmenethik

AI for Social Good II

Das AAAI Spring Symposium „AI for Social Good“ wurde am 27. März 2017 nach der Kaffeepause um 11.00 Uhr fortgeführt. Eric Rice (USC School of Social Work) und Sharad Goel (Stanford University) referierten in ihren Keynotes zum Thema „AI for the Social Sciences“. Ihr Ausgangspunkt: „While the public frets over a future threat of killer robots or the dream of a driverless car, computer scientists and social scientists can engage in novel solutions to vexing social problems today.“ (Website AISOC) Eric Rise ist Mitbegründer des USC Center for Artificial Intelligence in Society. Er stellte zuerst sein eigenes Forschungsfeld dar, die Sozialarbeit, und ging dann auf das Phänomen der Obdachlosen in den USA ein. Künstliche Intelligenz kann auch in diesem Feld angewandt werden, etwa indem man Netzwerke und ihre Mitglieder sichtbar macht und dann Personen dazu ermuntert, bestimmte Funktionen – etwa eines Anführers oder Vorbilds – zu übernehmen. Der Vortrag von Sharad Goel trug den Titel „Algorithms to assist judicial decision-making“. Der Assistenzprofessor am Department of Management Science & Engineering der Stanford University betonte, dass in diesem Bereich einfache, interpretierbare Regeln wichtig sind; die Urteile müssen nach seiner Meinung „fast, frugal and clear“ sein. Der Wissenschaftler gab ein Ende ein Versprechen „of greater efficiency, equity, and transparency“.

Kann ein Roboter meinen Job machen?

„Kann ein Roboter meinen Job machen?“ Diese Frage soll man mit dem  Job-Futuromat beantworten können, der für eine ARD-Themenwoche entstanden ist. „Finden Sie heraus, welche Tätigkeiten Ihres Berufes heute schon eine Maschine erledigen kann – und welche nur ein Mensch.“ (Website Job-Futuromat) Die Eingabe von „Professor/in – Fachhochschule“ ergibt drei Tätigkeitsfelder, nämlich „Lehrtätigkeit (Hochschule)“, „Didaktik“ und „Methodik“. Wofür „Methodik“ in diesem Zusammenhang steht, bleibt unklar. Der Job-Futuromat scheint sich auf Deutschland zu beziehen. Sowohl dort als auch in der Schweiz und in Österreich wird an Fachhochschulen geforscht. Man ist in EU-Forschungsprojekte und Projekte auf nationaler Ebene involviert. Zudem ist man in A-, B- und C-Journals aller Disziplinen vertreten. Die Tätigkeit „Forschung“ taucht aber gar nicht auf, anders als bei „Professor/in – Universitäten/gleichgestellte Hochschulen“. Der Job-Futuromat spuckt folgendes Ergebnis aus: „0 % der Tätigkeiten in diesem Beruf könnten schon heute Maschinen übernehmen.“ Welche Maschinen sind gemeint? Die Prozentzahl beschreibt, so die Website, den Grad der Automatisierbarkeit dieses Berufs und entspricht dem Anteil an wesentlichen Aufgaben (den Tätigkeiten), „die theoretisch schon heute von Maschinen, Robotern oder Computerprogrammen ausgeführt werden könnten“ (Website Job-Futuromat). Die erwähnte Lehrtätigkeit wäre aber, wenn man an Computer-based Trainings, Web-based Trainings und MOOCs denkt, zumindest teilweise automatisierbar in diesem Sinne: Sie würde von Computerprogrammen übernommen, die in einzelnen Kursen bis zu 100.000 Lernende auf einmal bedienen. Auch andere Tests weisen darauf hin, dass der Job-Futuromat nur ein fragwürdiges Spielzeug ist, kein ernstzunehmendes Analyseinstrument.

speedometer

Abb.: Die Antwort kann angezweifelt werden

Über die Macht der Algorithmen

„Algorithmische Auswahl- und Entscheidungsprozesse prägen unseren Alltag, unsere Wahrnehmung der Welt und unser tägliches Handeln. Ihre Bedeutung steigt in einer durch Automatisierung und Big Data gekennzeichneten digitalen Gesellschaft in sämtlichen Lebensbereichen rasant an. Damit werden sowohl die Frage nach der Machtausübung mittels Algorithmen als Instrumente als auch jene nach der Macht von Algorithmen als eigenständige Akteure virulent. Inwieweit handeln Algorithmen autonom, selbstbestimmt und intentional? Sind sie kontrollier- und ihre Ergebnisse vorhersehbar? Können Algorithmen moralisch handeln? Welche gesellschaftlichen Herausforderungen ergeben sich aus einer ethischen Perspektive und wie können diese bewältigt werden?“ So ein Flyer zu einer Veranstaltung, die den Titel „Die Macht der Algorithmen: Werkzeuge oder Akteure?“ trägt und am 22. November 2016 von 18:15 – 19:45 Uhr an der Universität Zürich stattfindet. Und weiter: „Nach einer thematischen Einführung durch Prof. Dr. Michael Latzer (IPMZ – Abt. Medienwandel & Innovation, UZH) folgen Inputreferate zur Einschätzung der Macht der Algorithmen aus technischer und ethischer Perspektive durch Prof. Dr. Thomas Hofmann (Data Analytics Lab, Departement Informatik, ETH Zürich) und Prof. Dr. Oliver Bendel (Institut für Wirtschaftsinformatik, Hochschule für Wirtschaft, FHNW).“

Maschinenrichter

„Der Algorithmus als Richter“ lautet der Titel eines Beitrags von Katharina Schuchmann für politik-digital.de vom 21. Juli 2016. „Automatisierte Justiz – ein Projekt aus den Niederlanden zeigt, wie es gehen kann und hat damit Erfolg. Der Robo-Richter ist wohl nur eine Frage der Zeit. Sind Justizirrtümer damit eine Sache der Vergangenheit?“ (politik-digital.de, 21. Juli 2016) Die Verfasserin geht auf ein Pilotprojekt in den Niederlanden ein, das System Rechtwijzer, nach ihren Worten ein automatisierter Streitschlichtungsservice. „Derzeit bietet das Portal Lösungen in Scheidungsangelegenheiten und bei Beschwerden zu Online-Käufen an.“ Zudem wirft sie einen Blick in die Zukunft, über Schlichtung und Scheidung hinaus. Es scheine nur eine Frage der Zeit zu sein, „bis lernende Algorithmen in der Lage sind, Urteile über weniger eindeutige Verhältnisse zu fällen“ (politik-digital.de, 21. Juli 2016). Vorstellbar sei, dass mittelfristig eine Umkehr der Verhältnisse stattfinde und der Algorithmus nicht mehr den Juristen unterstütze, sondern dieser den Algorithmus, ihn mit Meinungen und menschlichen Einschätzungen füttere und ansonsten walten (und schalten) lasse. Wie bei verschiedenen anderen Automatisierungsbestrebungen – etwa bei Banken und Versicherungen – wäre es freilich auch hier wichtig, dass der Mensch das letzte Wort behält. Zwar kann man Befangenheit und Gefühligkeit ein Stück weit durch maschinelle Verfahren ausgleichen; aber Empathie und Intuition sind meist essentielle Bestandteile rationaler Entscheidungsprozesse. Obwohl es nicht um moralische Urteile geht, sondern um rechtliche, kann die Maschinenethik zur Gestaltung von „Richtersystemen“ beitragen und durch die Konzeption und Implementierung auch die Grenzen der „Maschinenrichter“ aufzeigen.

Yellow_Robot

Abb.: Welches Urteil fällt die Maschine?

Qualifizierung des Faktors Mensch

Nach dem Wunsch von Alexander Dobrindt sollen „Autopilot und Fahrer rechtlich gleichgestellt“ werden, wie die Welt am 22. Mai berichtet. Der Verkehrsminister will zudem „ethische Fragen klären lassen“ (Die Welt, 22. Mai 2016). „Denn die Automatisierung kann zu moralisch kaum lösbaren Problemen führen. So sind Situationen vorstellbar, in denen ein Fahrzeug zwar einen Unfall nicht mehr verhindern, aber noch die Entscheidung treffen kann, ob es nach links ausweicht, wo eine Gruppe Schulkinder steht oder nach rechts wo ein älterer Fußgänger gerade die Straße überquert.“ (Die Welt, 22. Mai 2016) Dobrindt wolle deshalb „unter Beteiligung von Wissenschaft, Automobilindustrie und Digitalwirtschaft eine Kommission“ gründen, „die klare Leitlinien für Algorithmen entwickelt, welche die Fahrzeugreaktionen in Risikosituationen bestimmen“ (Die Welt, 22. Mai 2016). Allerdings will der Minister schon jetzt zwei Grundsätze für die Computersteuerungen vorgeben: 1. „Ein autonomes Auto müsse sich im Zweifel immer für den Sachschaden und gegen den Personenschaden entscheiden.“ Und 2: „Eine Qualifizierung des Faktors Mensch ist unzulässig“, wie es im entsprechenden Strategiepapier heißt. Ein Minister dürfe nur so wertvoll sein „wie alle anderen Menschen“ (Die Welt, 22. Mai 2016). Die Zeitung bemerkt dazu ganz richtig: „Doch gelöst ist das Problem mit dieser Festlegung natürlich noch nicht, denn nach irgendeinem Prinzip muss das Auto schließlich entscheiden, in welche Richtung es ausweicht, wenn ein Unfall unvermeidlich ist.“ Man darf gespannt sein, wer in die Kommission berufen wird und wie unabhängig diese ist. Die Welt hat in der Vergangenheit immer wieder über autonome Autos aus Sicht der Maschinenethik berichtet, etwa in diesem Artikel von Barbara Schneider und diesem Beitrag von Philipp Vetter.

 

Yellow_Car

Abb.: Ist es so freundlich, wie es scheint?

Maschinenethik an der Schweizer Börse

Heutige Roboter vermögen selbstständig Entscheidungen zu treffen, die erhebliche Konsequenzen nach sich ziehen, in sozialer und moralischer Hinsicht. Die teilautonomen und autonomen Maschinen werden von sozialer Robotik und Maschinenethik gezähmt, dressiert und zivilisiert. Autos erkennen Menschen und Tiere und bremsen rechtzeitig vor ihnen ab. Industrieroboter bewegen sich mit schlafwandlerischer Sicherheit durch die Fabrikhallen und behandeln uns in Kooperationszellen wie rohe Eier. Pflegeroboter bringen uns Medikamente und betten uns um. Auch Computer an der Börse – Stichwort „Algorithmic Trading“ – wären ein möglicher Gegenstand für das „Moralisieren“. In seinem Vortrag an der wichtigsten unabhängigen Börse Europas (SIX Swiss Exchange) am 17. Februar 2016 ging Oliver Bendel – nach einem kurzen Blick in die Ideen- und Entwicklungsgeschichte – auf aktuelle Entwicklungen in Robotik und KI und auf die Disziplin der Maschinenethik ein und stellte einfache moralische Maschinen vor, mitsamt den annotierten Entscheidungsbäumen für ihre Umsetzung. Auch komplexe moralische Maschinen und mit ihnen zusammenhängende Dilemmata wurden erwähnt und veranschaulicht. Der Forscher plädierte zuletzt nicht nur für eine Erweiterung, sondern auch für eine Beschränkung der Maschinen.

Beitrag zu interaktiven Werbeflächen

„Interaktive Werbeflächen sind Plakate, Terminals, Säulen etc., die sich automatisch auf Passanten, Besucher, Kunden und Interessierte einstellen und mit diesen in eine Interaktion treten. Teilweise werden Bewegungsmelder sowie Bild- und Mustererkennung zur Bestimmung von Geschlecht, Größe und Alter verwendet.“ So beginnt ein neuer Beitrag von Oliver Bendel für das Wirtschaftslexikon von Springer Gabler. Die interaktiven Werbeflächen zeigen Männern und Frauen, Großen und Kleinen, Jungen und Alten unterschiedliche Werbung. Dabei werden natürlich auch Klischees bedient. Am Ende wird die Perspektive der Ethik eingenommen: „Interaktive Werbeflächen können in die Privatsphäre eingreifen, selbst in öffentlichen Bereichen, und das Persönlichkeitsrecht verletzen sowie die informationelle Autonomie beschädigen. Dies ist Thema der Informationsethik. Die Maschinenethik fragt nach moralisch adäquaten Entscheidungen der Plakate und Terminals, die Medienethik nach der Reizüberflutung im (teil-)öffentlichen Raum.“ Der Beitrag ist am 2. Dezember 2015 erschienen und kann über http://wirtschaftslexikon.gabler.de/Definition/interaktive-werbeflaechen.html aufgerufen werden.

high_heels

Abb.: Unterschiedliche Werbung für Frauen und Männer

Formalisierung von Ethik

Einen Artikel über die Formalisierung von Ethik hat Caspar Österheld von der Universität Bremen in der Springer-Fachzeitschrift Synthese veröffentlicht. Der Titel lautet „Formalizing preference utilitarianism in physical world models“. Im Abstract heißt es: „Most ethical work is done at a low level of formality. This makes practical moral questions inaccessible to formal and natural sciences and can lead to misunderstandings in ethical discussion. In this paper, we use Bayesian inference to introduce a formalization of preference utilitarianism in physical world models, specifically cellular automata.“ Auch auf die Maschinenethik wird am Rande eingegangen: „Some formalization has … been conducted in the realm of machine ethics.“ Der Artikel ist über link.springer.com/article/10.1007/s11229-015-0883-1 erhältlich.

Über die Algorithmenethik

In einem Interview mit der TAZ vom 10. August 2013 spricht Yvonne Hofstetter auch über die Moral von Algorithmen. Die Geschäftsführerin der Teramark Technologies GmbH wird gefragt: „Algorithmen sind im Grunde Roboter. Gibt es für sie eine Ethik?“ Sie antwortet: „Die Technologen beschäftigen sich mit diesen Fragen. Welche Ethik, welche Moralvorstellungen brauchen wir? Was kann man in die Maschinen hinein programmieren? Aus der philosophischen Ecke, also von denen, die sich mit gesellschaftlichen Entwicklungen beschäftigen, kommt hingegen nichts oder wenig. Die Philosophie sieht offenbar noch nicht, dass eine Sturzwelle an intelligenten Technologien auf uns zurollt.“ Nun ist die Maschinenethik in den USA, in Kanada, Australien, Japan und Holland eine weit entwickelte Disziplin, zu der KI-Experten genauso beitragen wie Philosophen. Die Informationsethik, die sich auf die moralischen Implikationen des Einsatzes von Informations- und Kommunikationstechnologien bezieht, ist gar eine traditionsreiche Disziplin, auch in Bezug auf Algorithmen und Maschinen. Es ist aber in der Tat so, dass im deutschsprachigen Raum erheblicher Nachholbedarf besteht, dass die Ethik von Lobbyorganisationen bekämpft und von Kirchen missbraucht wird. Grundsätzlich muss man unterscheiden zwischen der Maschinenethik (begriffen als Pendant zur Menschenethik) und der Informationsethik, die Computer-, Netz- und Neue-Medien-Ethik umfasst. Beide sind wichtig, wobei die eine eher technologiegestaltend, die andere eher problemanalysierend und lebensgestaltend unterwegs ist und in gewisser Weise gilt: Die Informationsethik löst die Probleme, die die Maschinenethik verursacht.

„Towards a machine ethics“ von Oliver Bendel

Zur Konferenz “Technology Assessment and Policy Areas of Great Transitions” vom 13. bis 15. März 2013 in Prag ist das Book of Abstracts erschienen. Es kann über pacita.strast.cz/en/conference/documents heruntergeladen werden und hat fast 300 Seiten. Enthalten sind die Extended Abstracts der Konferenz. Am Freitag, 15. März findet die “XVII. Thematic Session: Ethical Aspects of TA” statt (Chair: Frans Brom). Sie wird im Book of Abstracts mit folgenden Worten eingeführt: “Which ethical dilemmas are evident in selecting technologies? This session dares a tour d’horizon of ethical expertise and TA and focuses on ethical questions in selecting health technologies, on autonomous machines tested as agents or robots, on conditions for gaining acceptance of technological development and on social sustainability.” Miriam I. Siebzehner schreibt über “Ethical dilemmas in selecting health care technologies in Israel”, Oliver Bendel zum Thema “Towards a machine ethics”, Petr Machleidt über “Technology assessment as applied ethics of technology in the Czech Republic” und Michael Opielka über “Ethical dimensions of TA and social sustainability: The case of participation in social and health policy”.