Beim Swiss Re Life & Health Forum 2016 am 25. November in München wird es unter anderem um Künstliche Intelligenz (KI) gehen. Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW trägt vor zum Thema „Künstliche Intelligenz: Vom hässlichen Entlein zum stolzen Schwan“ und beantwortet die Frage: „Was kommt auf die digitalisierte Gesellschaft zu?“ Dr. Andrea Cornelius, Vice President, Global Insurance, IBM Cognitive Solutions, widmet sich im Anschluss daran einem ganzen Spektrum, „Von neuen Serviceangeboten über das Underwriting bis hin zur Leistungsprüfung“, und stellt die Frage „Werden kognitive Lösungen die Versicherungswirtschaft revolutionieren?“ Auf dem Podium diskutieren dann der Wissenschaftler und die Unternehmensvertreterin mit Markus Unterkofler, Head Client Management Germany L&H, Swiss Re, und Marcus Nagel, Vorstandsvorsitzender der Zurich Gruppe Deutschland. Es moderiert Dr. Ralf Krüger von Swiss Re. Weitere Informationen über www.swissre.com/events/swiss_re_LH_forum_think_tomorrow.html (Link nicht mehr gültig).
In den letzten Monaten konnte man immer wieder die Aussage hören, ein Roboter oder eine KI-Einheit würde ein besserer Präsident sein als die amtierenden oder kandidierenden Personen es sind oder wären. Ein Roboter hätte nicht den religiösen Habitus eines Joachim Gauck und nicht den weltlichen Wahn eines Donald Trump. Eine KI-Einheit wie IBM Watson könnte rational und auf der Grundlage aller verfügbaren Fakten entscheiden. Überlegungen in dieser Richtung stellt auch eine amerikanische Stiftung an. Auf ihrer Website schreibt sie: „The Watson 2016 Foundation is an independent organization formed for the advocacy of the artificial intelligence known as Watson to run for President of The United States of America. It is our belief that Watson’s unique capabilities to assess information and make informed and transparent decisions define it as an ideal candidate for the job responsibilities required by the president.“ (Website The Watson 2016 Foundation) Sie stellt auch klar: „The Watson 2016 Foundation has no affiliation with IBM. The views and opinions expressed here in no way represent the views, positions or opinions – expressed or implied – by IBM or anyone else.“ (Website The Watson 2016 Foundation) Natürlich sind schnell Nachteile eines KI-Präsidenten zu erkennen. Er kann fehlerhaft sein, gehackt und manipuliert werden, er macht abhängig von den Betreibern, und er kann die symbolische Wirkung eines Präsidenten nicht erreichen, was allerdings auch als Vorteil gewertet werden kann. Ein künstlicher Präsident müsste nicht nur als komplexe politische, sondern auch als komplexe rechtliche und moralische Maschine gestaltet werden. Dies wiederum fällt in den Gegenstandsbereich von Roboterrecht und Maschinenethik. Manche Maschinenethiker lehnen komplexe moralische Maschinen ab und bevorzugen einfache. Weitere Informationen über http://watson2016.com/.
„Artificial intelligence (AI) raises a number of ethical and political challenges in the present and near term, with applications such as driverless cars and search engines and potential issues ranging from job disruption to privacy violations. Over a longer term, if AI becomes as or more intelligent than humans, other governance issues such as safety and control may increase in importance. What policy approaches make sense across different issues and timeframes?“ (Website European Parliament) These are the initial words of a description of the workshop „Robotics and Artificial Intelligence – Ethical Issues and Regulatory approach“, organised by the Policy Department of the European Parliament. The first part „will focus on basic ethical and policy questions raised by the development of robotics and AI on the basis of presentations by experts“ (Website European Parliament). According to the description, this will be followed by a discussion with national parliamentarians on what the legislator should do and on which level, with the European Parliament’s draft legislative initiative report on „Civil Law Rules on Robotics“ as a basis. Further information can be found on the European Parliament’s website (www.europarl.europa.eu).
Fünf IT-Konzerne haben angekündigt, dass sie ihre Forschung im Bereich der Künstlichen Intelligenz (KI) bündeln wollen. Google, Amazon, Facebook, IBM und Microsoft haben die „Partnership on Artificial Intelligence to Benefit People and Society“ gegründet. Die Süddeutsche schreibt dazu: „Man könnte nun eine Weltverschwörung des Silicon Valley vermuten. Immerhin handelt es sich hier um die fünf Konzerne, die international die größten Datenbanken und damit das Gros der globalen Datensätze besitzen. In Wahrheit ist die Gründung jedoch ein historischer Schritt, denn die Partnerschaft für künstliche Intelligenz soll vor allem garantieren, dass die Konzerne gemeinsame ethische Richtlinien für die Entwicklung künstlicher Intelligenz finden.“ (Süddeutsche Zeitung, 29. September 2016) Es fehlen bislang Apple sowie die von Elon Musk geleitete Non-Profit-Organisation namens OpenAI. Gerade letzterer würde man sowohl eine gesellschafts- und benutzerbezogene Reflexion der Chancen und Risiken von Robotik und eine Erstellung von Moralkodizes für die Entwicklung von Robotern (Informationsethik und Roboterethik) als auch eine zielführende Integration von Entscheidungsmechanismen in die Maschinen (Maschinenethik) zutrauen. Nicht nur die Wirtschaft widmet sich Möglichkeiten der Regulierung, sondern auch Arbeitsgruppen der IEEE (Global Initiative Classical Ethics) mit Mitgliedern wie Jared Bielby, Rafael Capurro und Oliver Bendel sowie des Europäischen Parlaments. So wurde im Mai 2016 der Initiativbericht zu zivilrechtlichen Regelungen im Bereich der Robotik von der luxemburgischen Berichterstatterin Mady Delvaux-Stehres vorgelegt.
Der Livestream der Veranstaltung „Merging of man and machines: questions of ethics in dealing with emerging“ vom 8. September 2016 wurde aufgezeichnet und kann über web.greensefa.streamovations.be/index.php/event/stream/merging-of-man-and-machine aufgerufen werden (Link nicht mehr gültig). Ins Europäische Parlament in Brüssel eingeladen hatte der Grünen-Abgeordnete Jan Philipp Albrecht von der Green Working Group Robotics. Auf der Website wurde wie folgt eingeführt: „Technology has fundamentally altered our lives and will continue to do so. Ethical considerations must remain guiding posts at all times. Undoubtedly, how we approach the regulation of emerging technologies will have wide implications for our definition of human dignity and the equality of individuals.“ (Website Albrecht) Es ging um Fragen dieser Art: „How will our lives and our society change with the increasing fusion with modern technology? What role have politics and law in this context? Is there a need for regulation and if so, how? How can human rights be addressed?“ (Website Albrecht) Den Track „Ethics & Society: Examples of how our lives, values and society will change“ haben Yvonne Hofstetter (Teramark Technologies GmbH), Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) und Dr. Constanze Kurz (Chaos Computer Club e.V.) bestritten. Bendels Vortrag wurde mit Folien unterstützt; diese können hier heruntergeladen werden.
Abb.: Wo die Grünen sind, sind die Sonnenblumen nicht weit
„Roboter konnten schon immer zweckentfremdet werden. Je mehr sie aber vermögen, je mehr Instrumente sie haben, je mehr sie zu Generalisten werden, desto eher scheinen sie auch für Anwendungen geeignet zu sein, für die sie nicht vorgesehen waren. Und je mehr sich Roboter verbreiten, desto mehr sind sie auch Menschen zugänglich und ausgeliefert, die sie in vielfältiger Weise ge- und missbrauchen können.“ Mit diesen Worten beginnt ein Gastbeitrag von Oliver Bendel, Professor an der Hochschule für Wirtschaft der FHNW, in der ICTkommunikation vom 5. September 2016. Weiter heißt es: „Immer wieder werden Beispiele für eine tatsächliche oder angestrebte bzw. abgelehnte Umwidmung der Maschinen bekannt. Der vorliegende Artikel definiert die Begriffe der in diesem Kontext vor allem in Frage kommenden Service- und Spielzeugroboter und geht auf Zweckentfremdungen ein, die besonders diskussionswürdig und zukunftsträchtig scheinen. Auch Softwareroboter wie Social Bots und Chatbots wären darstellungswürdig, sollen hier aber ausgeklammert werden.“ Es wird u.a. die Perspektive der Maschinenethik eingenommen: „Diese fragt nach der Möglichkeit maschineller Moral, und zusammen mit Robotik und Künstlicher Intelligenz konzipiert und konstruiert sie moralische Maschinen. Auch unmoralische Maschinen können aus ihr heraus entstehen, und eine Möglichkeit der Zweckentfremdung wäre, eine moralische Maschine durch Umprogrammierung oder einen feindlichen Angriff in eine unmoralische zu transformieren.“ Der Beitrag kann über ictk.ch/inhalt/die-zweckentfremdung-von-robotern abgerufen werden.
Für das AAAI Fall Symposium „AI for Human-Robot Interaction (AI-HRI)“ vom 17. bis 19. November 2016 wurde der Call for Papers veröffentlicht. Dieser richtet sich speziell an Sozialwissenschaftler. Im Ausschreibungstext heißt es: „AI-HRI (The AAAI Fall Symposium on Artificial Intelligence (AI) for Human-Robot Interaction (HRI)) seeks to bring together the subset of the HRI community focused on the application of AI solutions to HRI problems. Building on the success of the two previous years’ symposia, the central purpose of this year’s symposium is to share exciting new and ongoing research, foster discussion about necessary areas for future work, and cultivate a vibrant, interconnected research community.“ Einreichungen mit normaler Länge fokussieren auf den Gebrauch von autonomen KI-Systemen. Kurzbeiträge beschreiben Herausforderungen, auf die Sozialwissenschaftler treffen beim Entwerfen, Durchführen und Evaluieren von HRI-Studien. Deadline ist der 15. Juli 2016. Die Konferenz findet in Arlington (Virginia) statt. Weitere Informationen über ai-hri.github.io.
The proceedings of the AAAI conference 2016 have been published in March 2016 („The 2016 AAAI Spring Symposium Series: Technical Reports“). The symposium „Ethical and Moral Considerations in Non-Human Agents“ was dedicated to the discipline of machine ethics. Ron Arkin (Georgia Institute of Technology), Luís Moniz Pereira (Universidade Nova de Lisboa), Peter Asaro (New School for Public Engagement, New York) and Oliver Bendel (School of Business FHNW) spoke about moral and immoral machines. The contribution „Annotated Decision Trees for Simple Moral Machines“ (Oliver Bendel) can be found on the pages 195 – 201. In the abstract it is said: „Autonomization often follows after the automization on which it is based. More and more machines have to make decisions with moral implications. Machine ethics, which can be seen as an equivalent of human ethics, analyses the chances and limits of moral machines. So far, decision trees have not been commonly used for modelling moral machines. This article proposes an approach for creating annotated decision trees, and specifies their central components. The focus is on simple moral machines. The chances of such models are illustrated with the example of a self-driving car that is friendly to humans and animals. Finally the advantages and disadvantages are discussed and conclusions are drawn.“ The proceedings can be ordered via www.aaai.org.
Beim Workshop „Ethical and Moral Considerations in Non-Human Agents“ war am Vormittag des 22. März eifrig vorgetragen und heftig diskutiert worden. Am Nachmittag begann Peter Asaro mit „The Liability Problem for Autonomous Artificial Agents“. Wenn der Hund, den man hält, einen Schaden anrichtet, haftet man teilweise, wenn der Tiger, der ausbricht, jemanden verletzt oder tötet, dagegen voll. Entsprechend könnte man bei Robotern einen Unterschied machen. „Patiency Is Not a Virtue: AI and the Design of Ethical Systems“ lautete der Titel des nächsten Talks. Joanna Bryson unterschied zwischen „moral agents“ und „moral patients“, erklärte den Begriff der Superintelligence und wandte ihn auf die Menschheit selbst an. Nach der Kaffeepause thematisierten Ron Artstein and Kenneth Silver eine „Ethics for a Combined Human-Machine Dialogue Agent“. Ausgangspunkt waren die in Museen arrangierten Gespräche mit Überlebenden des Holocausts. Deren Rolle soll von „dialogue agents“ übernommen werden, die mit vorher aufgezeichneten Aussagen auf die Fragen der Besucher antworten. Dabei können moralische Probleme auftreten, die mit Hilfe von ethischen Überlegungen angegangen werden können. Benjamin Kuipers wartete in „Morality and Ethics for Humans and Robots“ mit Ausschnitten aus Filmen wie „Terminator 2“ und „Robot & Frank“ auf und analysierte die Haltung der Roboter. Beim Terminator sei das Problem nicht Superintelligence, sondern Superpower. Zum Roboterauto-Problem bemerkte er, der Designer könne nicht jegliches Unheil verhindern. Das Auto müsse sich unser Vertrauen verdienen. Den Abschluss bildete „Robot Priest: Trust and Human Sciences“ von Cindy Mason. Neben ihr saß ein als Priester verkleideter WALL·E, und sie zeigte weitere Kostümierungen des Filmroboters, die jeweils unterschiedliche Erwartungen hervorrufen. Ihr ging es darum, inwieweit man Menschen und Maschinen vertrauen und wie das Aussehen damit zusammenhängen kann.
„Wer ist verantwortlich, wenn künstliche Intelligenz versagt?“ Die Sendung bei Deutschlandradio Kultur vom 12. Januar 2016 mit diesem Titel widmete sich aktuellen Entwicklungen in der Robotik und in Roboter- und Maschinenethik. Zu Wort kommen u.a. Eric Hilgendorf, Experte für Roboterrecht an der Universität Würzburg, Ken Goldberg, Robotiker an der University of California, und Oliver Bendel, Informationsethiker und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Zu Ken Goldberg wird auf der Website gesagt: „Ken Goldberg von der University of California in Berkley Kalifornien ist einer der renommiertesten Robotik-Wissenschaftler weltweit. Er spricht von der Revolution, die auf seinem Arbeitsgebiet gegenwärtig stattfindet. Die Vernetzung von fast allem mit allem – Web 4.0 befreit auch die Roboter aus ihrer Isolation. Sie können nun direkt voneinander und von den Menschen lernen und auf unerhörte Rechnerkapazitäten zugreifen. Cloud Robotics nennt Goldberg das Konzept.“ (Website DRadio Kultur, 12. Januar 2016) Oliver Bendel wird mit diesen Worten vorgestellt: Er „ist Philosoph und Professor für Wirtschaftsinformatik an der Fachhochschule der Nordwestschweiz“. „Bei ihm spürt man die Neugier darauf, was da zwischen Menschen und Maschinen entsteht. Es ist schon mehr ein Miteinander. Am Arbeitsplatz müssen die Roboter aufpassen und ausweichen, um niemanden anzufahren oder mit den Greifern zu verletzen. Und wir Menschen tun gut daran, die Umgebung übersichtlich zu strukturieren, damit sich die Maschinen zurechtfinden.“ (Website DRadio Kultur, 12. Januar 2016) Der Beitrag kann über ondemand-mp3.dradio.de angehört werden.
„Die Stiftung für Effektiven Altruismus (EAS; vormals GBS Schweiz) führte am heutigen Donnerstag eine Medienkonferenz zum Thema ‚Künstliche Intelligenz: Chancen und Risiken‘ durch. Anlass war das von der Stiftung verfasste politische Diskussionspapier …, das von drei der sechs Mitautoren im Technopark Zürich vorgestellt wurde.“ Dies meldet der Humanistische Pressedienst am 12. November 2015. Auf der zweiten Seite von „Künstliche Intelligenz: Chancen und Risiken“ steht geschrieben: „Wir bedanken uns bei all jenen, die uns bei der Recherche oder beim Verfassen des Diskussionspapiers behilflich waren. Besonders hervorzuheben sind hierbei Kaspar Etter und Massimo Mannino für ihre Ratschläge zum Aufbau des Papiers; Prof. Oliver Bendel für Anstöße zum Kapitel ‚Vorteile und Risiken gängiger KIs‘; und Prof. Jürgen Schmidhuber für Inputs zu den Kapiteln ‚Generelle Intelligenz und Superintelligenz‘ und ‚Künstliches Bewusstsein‘, sowie für seine Inputs zum aktuellen Forschungsstand verschiedener KI-Bereiche.“ Der Informations- und Maschinenethiker Oliver Bendel sieht sich nicht als Vertreter des effektiven Altruismus und lehnt auch Rechte für Roboter ab, die in dem Papier angedacht werden. Er begrüßt aber die Diskussion, die durch die Stiftung angestoßen wird, und findet die angestellten Überlegungen in hohem Maße interessant und wichtig. Das Diskussionspapier kann hier heruntergeladen werden.
Das selbstständig fahrende Auto findet seinen Weg. Es hupt und weicht aus. Es verhandelt mit anderen Fahrzeugen, es schickt Nachrichten an die Werkstatt und den Hersteller. Wann es wirklich kommt, für die Massen, steht in den Sternen. Auf jeden Fall gibt es manch eine wolkige Aussage dazu. Der Artikel „Cloud am Steuer“, der vor einiger Zeit in der GDI Impuls erschienen ist, kann nun kostenlos heruntergeladen werden. Ein Dank geht an das Gottlieb Duttweiler Institute – und den Autor Christian Rauch. Wenn Roboter über die Straßen steuern, so fragt er, „welche ethischen und rechtlichen Konsequenzen hat das“? Beantwortet wird das – sehr konkret und unwolkig – u.a. von Patrick Lin, Roboter- und Maschinenethiker an der California Polytechnic State University, und Oliver Bendel, Wirtschaftsinformatiker, Informationsethiker und Maschinenethiker an der Hochschule für Wirtschaft FHNW.
Abb.: New Autonomous Car (aus „Towards Machine Ethics“ von Oliver Bendel)