Schlagwörter: Künstliche Intelligenz

Wenn Maschinen denken

Die Oesterreichische Kontrollbank Aktiengesellschaft widmet die aktuelle Ausgabe von RELEVANT (4/2016) der Künstlichen Intelligenz. „Wenn Maschinen denken“ heißt der Schwerpunkt. Im Inhaltsverzeichnis wird Appetit auf das Thema gemacht: „Erst lernten Computer das Rechnen, nun lernen sie Autos zu fahren, Forschungshypothesen aufzustellen und Steuersünder zu finden – besser als wir Menschen. Sind dadurch unsere Arbeitsplätze in Gefahr?“ (RELEVANT, 4/2016) Im Magazin finden sich u.a. Interviews mit dem Informatiker Stefan Woltran (TU Wien und Universität Leipzig) und dem Maschinenethiker Oliver Bendel (Hochschule für Wirtschaft FHNW). „Die Oesterreichische Kontrollbank Aktiengesellschaft (OeKB) ist Österreichs zentraler Finanz- und Informationsdienstleister für Exportwirtschaft und Kapitalmarkt. Ihre speziellen Services stärken den Standort Österreich und unterstützen die Wirtschaft im globalen Wettbewerb. Die vielfältigen Dienstleistungen stehen Unternehmen und Finanzinstitutionen sowie Einrichtungen der Republik Österreich zur Verfügung.“ (Website OeKB) Das gesamte Heft kann über www.oekb.at/de/osn/DownloadCenter/RELEVANT/RELEVANT-4-2016.pdf heruntergeladen werden.

Abb.: Wenn Maschinen denken

Am Vergewaltigen kein emotionales Interesse

Ein langes Interview mit dem Informations- und Maschinenethiker Oliver Bendel hat Jennifer Appel von der internationalen Agentur Maisberger geführt. Die erste Frage lautet: „Roboter werden immer intelligenter. Wie sehen Sie diese Entwicklung? Wird unser Leben leichter oder müssen wir am Ende doch befürchten, dass uns das Ruder aus der Hand genommen wird?“ Die Antwort: „Roboter können uns unterstützen, etwa bei schweren körperlichen Tätigkeiten, und damit unserer Gesundheit zuträglich sein. Beispielsweise drücken sie bereits heute als Leichtbauroboter in einem Autowerk in Spartanburg die Türdichtung in eine Autotür, übrigens direkt neben dem Arbeiter, der leichteren Aufgaben nachgehen darf und dessen Handgelenk geschont wird, oder helfen dem Pfleger, einen Patienten umzubetten. Roboter können uns auch ersetzen. Die Industrie 4.0 baut geradezu auf die möglichst vollständige Substitution von Menschen in der Produktion. Das Ruder in der Hand behält der Manager. Aus der Hand nehmen es uns manche Softwareroboter und KI-basierte Programme, die uns als Verdächtige einstufen oder unsere Kreditwürdigkeit beurteilen. Dass Roboter die Weltherrschaft übernehmen, wie manche glauben, dürfte unwahrscheinlich sein.“ Auch um den Kampfroboter geht es; bereits in der Überschrift heißt es über ihn: „… am Vergewaltigen hat er zumindest kein emotionales Interesse“. Dennoch lehnt Oliver Bendel seinen Einsatz ab. Das ganze Interview kann seit Dezember 2016 über http://www.maisberger.de nachgelesen werden.

ritter

Abb.: Ritter oder Roboter?

Vom hässlichen Entlein zum stolzen Schwan

Beim Swiss Re Life & Health Forum 2016 am 25. November in München wird es unter anderem um Künstliche Intelligenz (KI) gehen. Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW trägt vor zum Thema „Künstliche Intelligenz: Vom hässlichen Entlein zum stolzen Schwan“ und beantwortet die Frage: „Was kommt auf die digitalisierte Gesellschaft zu?“ Dr. Andrea Cornelius, Vice President, Global Insurance, IBM Cognitive Solutions, widmet sich im Anschluss daran einem ganzen Spektrum, „Von neuen Serviceangeboten über das Underwriting bis hin zur Leistungsprüfung“, und stellt die Frage „Werden kognitive Lösungen die Versicherungswirtschaft revolutionieren?“ Auf dem Podium diskutieren dann der Wissenschaftler und die Unternehmensvertreterin mit Markus Unterkofler, Head Client Management Germany L&H, Swiss Re, und Marcus Nagel, Vorstandsvorsitzender der Zurich Gruppe Deutschland. Es moderiert Dr. Ralf Krüger von Swiss Re. Weitere Informationen über www.swissre.com/events/swiss_re_LH_forum_think_tomorrow.html.

schwan

Abb.: Vom hässlichen Entlein zum stolzen Schwan

Watson for President

In den letzten Monaten konnte man immer wieder die Aussage hören, ein Roboter oder eine KI-Einheit würde ein besserer Präsident sein als die amtierenden oder kandidierenden Personen es sind oder wären. Ein Roboter hätte nicht den religiösen Habitus eines Joachim Gauck und nicht den weltlichen Wahn eines Donald Trump. Eine KI-Einheit wie IBM Watson könnte rational und auf der Grundlage aller verfügbaren Fakten entscheiden. Überlegungen in dieser Richtung stellt auch eine amerikanische Stiftung an. Auf ihrer Website schreibt sie: „The Watson 2016 Foundation is an independent organization formed for the advocacy of the artificial intelligence known as Watson to run for President of The United States of America. It is our belief that Watson’s unique capabilities to assess information and make informed and transparent decisions define it as an ideal candidate for the job responsibilities required by the president.“ (Website The Watson 2016 Foundation) Sie stellt auch klar: „The Watson 2016 Foundation has no affiliation with IBM. The views and opinions expressed here in no way represent the views, positions or opinions – expressed or implied – by IBM or anyone else.“ (Website The Watson 2016 Foundation) Natürlich sind schnell Nachteile eines KI-Präsidenten zu erkennen. Er kann fehlerhaft sein, gehackt und manipuliert werden, er macht abhängig von den Betreibern, und er kann die symbolische Wirkung eines Präsidenten nicht erreichen, was allerdings auch als Vorteil gewertet werden kann. Ein künstlicher Präsident müsste nicht nur als komplexe politische, sondern auch als komplexe rechtliche und moralische Maschine gestaltet werden. Dies wiederum fällt in den Gegenstandsbereich von Roboterrecht und Maschinenethik. Manche Maschinenethiker lehnen komplexe moralische Maschinen ab und bevorzugen einfache. Weitere Informationen über http://watson2016.com/.

barack_obama

Abb.: Echt oder KI?

Workshop on Robotics and Artificial Intelligence

„Artificial intelligence (AI) raises a number of ethical and political challenges in the present and near term, with applications such as driverless cars and search engines and potential issues ranging from job disruption to privacy violations. Over a longer term, if AI becomes as or more intelligent than humans, other governance issues such as safety and control may increase in importance. What policy approaches make sense across different issues and timeframes?“ (Website European Parliament) These are the initial words of a description of the workshop „Robotics and Artificial Intelligence – Ethical Issues and Regulatory approach“, organised by the Policy Department of the European Parliament. The first part „will focus on basic ethical and policy questions raised by the development of robotics and AI on the basis of presentations by experts“ (Website European Parliament). According to the description, this will be followed by a discussion with national parliamentarians on what the legislator should do and on which level, with the European Parliament’s draft legislative initiative report on „Civil Law Rules on Robotics“ as a basis. Further information can be found on the European Parliament’s website (www.europarl.europa.eu).

Partnership on Artificial Intelligence

Fünf IT-Konzerne haben angekündigt, dass sie ihre Forschung im Bereich der Künstlichen Intelligenz (KI) bündeln wollen. Google, Amazon, Facebook, IBM und Microsoft haben die „Partnership on Artificial Intelligence to Benefit People and Society“ gegründet. Die Süddeutsche schreibt dazu: „Man könnte nun eine Weltverschwörung des Silicon Valley vermuten. Immerhin handelt es sich hier um die fünf Konzerne, die international die größten Datenbanken und damit das Gros der globalen Datensätze besitzen. In Wahrheit ist die Gründung jedoch ein historischer Schritt, denn die Partnerschaft für künstliche Intelligenz soll vor allem garantieren, dass die Konzerne gemeinsame ethische Richtlinien für die Entwicklung künstlicher Intelligenz finden.“ (Süddeutsche Zeitung, 29. September 2016) Es fehlen bislang Apple sowie die von Elon Musk geleitete Non-Profit-Organisation namens OpenAI. Gerade letzterer würde man sowohl eine gesellschafts- und benutzerbezogene Reflexion der Chancen und Risiken von Robotik und eine Erstellung von Moralkodizes für die Entwicklung von Robotern (Informationsethik und Roboterethik) als auch eine zielführende Integration von Entscheidungsmechanismen in die Maschinen (Maschinenethik) zutrauen. Nicht nur die Wirtschaft widmet sich Möglichkeiten der Regulierung, sondern auch Arbeitsgruppen der IEEE (Global Initiative Classical Ethics) mit Mitgliedern wie Jared Bielby, Rafael Capurro und Oliver Bendel sowie des Europäischen Parlaments. So wurde im Mai 2016 der Initiativbericht zu zivilrechtlichen Regelungen im Bereich der Robotik von der luxemburgischen Berichterstatterin Mady Delvaux-Stehres vorgelegt.

Grüne Robotik

Der Livestream der Veranstaltung „Merging of man and machines: questions of ethics in dealing with emerging“ vom 8. September 2016 wurde aufgezeichnet und kann über web.greensefa.streamovations.be/index.php/event/stream/merging-of-man-and-machine aufgerufen werden. Ins Europäische Parlament in Brüssel eingeladen hatte der Grünen-Abgeordnete Jan Philipp Albrecht von der Green Working Group Robotics. Auf der Website wurde wie folgt eingeführt: „Technology has fundamentally altered our lives and will continue to do so. Ethical considerations must remain guiding posts at all times. Undoubtedly, how we approach the regulation of emerging technologies will have wide implications for our definition of human dignity and the equality of individuals.“ (Website Albrecht) Es ging um Fragen dieser Art: „How will our lives and our society change with the increasing fusion with modern technology? What role have politics and law in this context? Is there a need for regulation and if so, how? How can human rights be addressed?“ (Website Albrecht) Den Track „Ethics & Society: Examples of how our lives, values and society will change“ haben Yvonne Hofstetter (Teramark Technologies GmbH), Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) und Dr. Constanze Kurz (Chaos Computer Club e.V.) bestritten. Bendels Vortrag wurde mit Folien unterstützt; diese können hier heruntergeladen werden.

sun_flower

Abb.: Wo die Grünen sind, sind die Sonnenblumen nicht weit

Zur Zweckentfremdung von Robotern

„Roboter konnten schon immer zweckentfremdet werden. Je mehr sie aber vermögen, je mehr Instrumente sie haben, je mehr sie zu Generalisten werden, desto eher scheinen sie auch für Anwendungen geeignet zu sein, für die sie nicht vorgesehen waren. Und je mehr sich Roboter verbreiten, desto mehr sind sie auch Menschen zugänglich und ausgeliefert, die sie in vielfältiger Weise ge- und missbrauchen können.“ Mit diesen Worten beginnt ein Gastbeitrag von Oliver Bendel, Professor an der Hochschule für Wirtschaft der FHNW, in der ICTkommunikation vom 5. September 2016. Weiter heißt es: „Immer wieder werden Beispiele für eine tatsächliche oder angestrebte bzw. abgelehnte Umwidmung der Maschinen bekannt. Der vorliegende Artikel definiert die Begriffe der in diesem Kontext vor allem in Frage kommenden Service- und Spielzeugroboter und geht auf Zweckentfremdungen ein, die besonders diskussionswürdig und zukunftsträchtig scheinen. Auch Softwareroboter wie Social Bots und Chatbots wären darstellungswürdig, sollen hier aber ausgeklammert werden.“ Es wird u.a. die Perspektive der Maschinenethik eingenommen: „Diese fragt nach der Möglichkeit maschineller Moral, und zusammen mit Robotik und Künstlicher Intelligenz konzipiert und konstruiert sie moralische Maschinen. Auch unmoralische Maschinen können aus ihr heraus entstehen, und eine Möglichkeit der Zweckentfremdung wäre, eine moralische Maschine durch Umprogrammierung oder einen feindlichen Angriff in eine unmoralische zu transformieren.“ Der Beitrag kann über http://ictk.ch/content/die-zweckentfremdung-von-robotern abgerufen werden.

Robotangel

Abb.: Noch hochgetunt oder schon zweckentfremdet?

AI for Human-Robot Interaction

Für das AAAI Fall Symposium „AI for Human-Robot Interaction (AI-HRI)“ vom 17. bis 19. November 2016 wurde der Call for Papers veröffentlicht. Dieser richtet sich speziell an Sozialwissenschaftler. Im Ausschreibungstext heißt es: „AI-HRI (The AAAI Fall Symposium on Artificial Intelligence (AI) for Human-Robot Interaction (HRI)) seeks to bring together the subset of the HRI community focused on the application of AI solutions to HRI problems. Building on the success of the two previous years’ symposia, the central purpose of this year’s symposium is to share exciting new and ongoing research, foster discussion about necessary areas for future work, and cultivate a vibrant, interconnected research community.“ Einreichungen mit normaler Länge fokussieren auf den Gebrauch von autonomen KI-Systemen. Kurzbeiträge beschreiben Herausforderungen, auf die Sozialwissenschaftler treffen beim Entwerfen, Durchführen und Evaluieren von HRI-Studien. Deadline ist der 15. Juli 2016. Die Konferenz findet in Arlington (Virginia) statt. Weitere Informationen über ai-hri.github.io.

Contributions on Machine Ethics

The proceedings of the AAAI conference 2016 have been published in March 2016 („The 2016 AAAI Spring Symposium Series: Technical Reports“). The symposium „Ethical and Moral Considerations in Non-Human Agents“ was dedicated to the discipline of machine ethics. Ron Arkin (Georgia Institute of Technology), Luís Moniz Pereira (Universidade Nova de Lisboa), Peter Asaro (New School for Public Engagement, New York) and Oliver Bendel (School of Business FHNW) spoke about moral and immoral machines. The contribution „Annotated Decision Trees for Simple Moral Machines“ (Oliver Bendel) can be found on the pages 195 – 201. In the abstract it is said: „Autonomization often follows after the automization on which it is based. More and more machines have to make decisions with moral implications. Machine ethics, which can be seen as an equivalent of human ethics, analyses the chances and limits of moral machines. So far, decision trees have not been commonly used for modelling moral machines. This article proposes an approach for creating annotated decision trees, and specifies their central components. The focus is on simple moral machines. The chances of such models are illustrated with the example of a self-driving car that is friendly to humans and animals. Finally the advantages and disadvantages are discussed and conclusions are drawn.“ The proceedings can be ordered via www.aaai.org.