Schlagwörter: KI

Das Auto ein bisschen dumm lassen

In der Februarausgabe von P.M. Magazin ist ein langes Interview mit Oliver Bendel abgedruckt. Am 9. September trafen sich der Redakteur Rüdiger Barth und der Wissenschaftler auf dem Campus Brugg-Windisch der FHNW und sprachen über Maschinenethik, Künstliche Intelligenz und Robotik. P.M. ist eine populärwissenschaftliche Zeitschrift und hat eine Auflage von ca. 163.000 Exemplaren. Der Titel des sechsseitigen Beitrags – neben dem Interview finden sich noch Informationen zu Oliver Bendel und zu den Robotikgesetzen von Isaac Asimov – lautet „Ich würde das Auto ein bisschen dumm lassen“. Der Informationsethiker und Maschinenethiker kann sich vorstellen, dass Autos klug genug sind, für bestimmte Tiere zu bremsen, wenn die Luft rein ist, sie aber zu dumm dafür sind, Menschen zu qualifizieren, auf ihre Eigenschaften zu schauen, um sie dann bei einem Unfall zu verschonen oder nicht zu verschonen, was man wiederum als klug bezeichnen könnte, da es keine befriedigenden Lösungen für solche Entscheidungen gibt. Auch das Quantifizieren ist, zumindest bei kleinen Zahlen, nicht angemessen. Warum sollte jemand getötet werden, nur weil zwei Passanten in der Nähe stehen? Kaum jemand würde das akzeptieren, der Betroffene nicht, die Familie nicht, die Freunde nicht. Die zwei Passanten wären natürlich aufgeschlossener für solche Abwägungen, aber auch nur, wenn sie zusammen unterwegs sind und nicht alleine, was wiederum die Ungerechtigkeit zeigt. Solche Gedankenspiele dürfen nicht mit der Wirklichkeit verwechselt werden. Sie sind aber ein klassisches Mittel, um Grundannahmen und Widersprüche zu erkennen und am Ende die Wirklichkeit auch gestalten zu können.

Abb.: Wie entscheidet das Auto, wenn man es lässt?

AI for the Social Good

Vom 27. bis 29. März 2017 finden die AAAI 2017 Spring Symposia statt. Veranstaltet werden sie von der Association for the Advancement of Artificial Intelligence, in Kooperation mit dem Department of Computer Science der Stanford University. Das Symposium „AI for the Social Good“ an der Stanford University widmet sich auch Themen der Roboter- und der Maschinenethik. Auf der Website heißt es: „A rise in real-world applications of AI has stimulated significant interest from the public, media, and policy makers, including the White House Office of Science and Technology Policy (OSTP). Along with this increasing attention has come media-fueled concerns about purported negative consequences of AI, which often overlooks the societal benefits that AI is delivering and can deliver in the near future. This symposium will focus on the promise of AI across multiple sectors of society.“ (Website AISOC) In einer Talk Session spricht Oliver Bendel über „LADYBIRD: the Animal-Friendly Robot Vacuum Cleaner“. In der Lightning Talks Session ist er nochmals vertreten, mit dem Vortrag „Towards Kant Machines“. In der gleichen Session referiert Mahendra Prasad über „A Framework for Modelling Altruistic Intelligence Explosions“ (vorangestellt ist der Titel „Back to the Future“), und Thomas Doherty geht der Frage „Can Artificial Intelligence have Ecological Intelligence?“ nach. Das ganze Programm kann über scf.usc.edu/~amulyaya/AISOC17/papers.html aufgerufen werden.

Abb.: LADYBIRD ist auf Marienkäfer spezialisiert

Ethically Aligned Design

Die Mitglieder der IEEE Global Initiative haben im Dezember 2016 ihre ersten Ergebnisse vorgelegt. „Ethically Aligned Design, Version 1“ ist online verfügbar. „A Vision for Prioritizing Human Wellbeing with Artificial Intelligence and Autonomous Systems“, so der Untertitel, wird entworfen. In der Executive Summary heißt es: „To fully benefit from the potential of Artificial Intelligence and Autonomous Systems (AI/AS), we need to go beyond perception and beyond the search for more computational power or solving capabilities. We need to make sure that these technologies are aligned to humans in terms of our moral values and ethical principles. AI/AS have to behave in a way that is beneficial to people beyond reaching functional goals and addressing technical problems. This will allow for an elevated level of trust between humans and our technology that is needed for a fruitful pervasive use of AI/AS in our daily lives.“ Zu den Mitgliedern des Komitees „Classical Ethics in Information & Communication Technologies“ gehören Rafael Capurro, Wolfgang Hofkirchner und Oliver Bendel, um nur diejenigen zu nennen, die im deutschsprachigen Raum angesiedelt sind. Das zweite Treffen der IEEE Global Initiative findet am 5. Juni 2017 in Austin (Texas) statt. Beim „Symposium on Ethics of Autonomous Systems (SEAS North America)“ wird eine zweite Version des Dokuments erarbeitet.

Abb.: Das Symposium findet an der University of Texas statt

Wenn Maschinen denken

Die Oesterreichische Kontrollbank Aktiengesellschaft widmet die aktuelle Ausgabe von RELEVANT (4/2016) der Künstlichen Intelligenz. „Wenn Maschinen denken“ heißt der Schwerpunkt. Im Inhaltsverzeichnis wird Appetit auf das Thema gemacht: „Erst lernten Computer das Rechnen, nun lernen sie Autos zu fahren, Forschungshypothesen aufzustellen und Steuersünder zu finden – besser als wir Menschen. Sind dadurch unsere Arbeitsplätze in Gefahr?“ (RELEVANT, 4/2016) Im Magazin finden sich u.a. Interviews mit dem Informatiker Stefan Woltran (TU Wien und Universität Leipzig) und dem Maschinenethiker Oliver Bendel (Hochschule für Wirtschaft FHNW). „Die Oesterreichische Kontrollbank Aktiengesellschaft (OeKB) ist Österreichs zentraler Finanz- und Informationsdienstleister für Exportwirtschaft und Kapitalmarkt. Ihre speziellen Services stärken den Standort Österreich und unterstützen die Wirtschaft im globalen Wettbewerb. Die vielfältigen Dienstleistungen stehen Unternehmen und Finanzinstitutionen sowie Einrichtungen der Republik Österreich zur Verfügung.“ (Website OeKB) Das gesamte Heft kann über www.oekb.at/de/osn/DownloadCenter/RELEVANT/RELEVANT-4-2016.pdf heruntergeladen werden.

Abb.: Wenn Maschinen denken

Am Vergewaltigen kein emotionales Interesse

Ein langes Interview mit dem Informations- und Maschinenethiker Oliver Bendel hat Jennifer Appel von der internationalen Agentur Maisberger geführt. Die erste Frage lautet: „Roboter werden immer intelligenter. Wie sehen Sie diese Entwicklung? Wird unser Leben leichter oder müssen wir am Ende doch befürchten, dass uns das Ruder aus der Hand genommen wird?“ Die Antwort: „Roboter können uns unterstützen, etwa bei schweren körperlichen Tätigkeiten, und damit unserer Gesundheit zuträglich sein. Beispielsweise drücken sie bereits heute als Leichtbauroboter in einem Autowerk in Spartanburg die Türdichtung in eine Autotür, übrigens direkt neben dem Arbeiter, der leichteren Aufgaben nachgehen darf und dessen Handgelenk geschont wird, oder helfen dem Pfleger, einen Patienten umzubetten. Roboter können uns auch ersetzen. Die Industrie 4.0 baut geradezu auf die möglichst vollständige Substitution von Menschen in der Produktion. Das Ruder in der Hand behält der Manager. Aus der Hand nehmen es uns manche Softwareroboter und KI-basierte Programme, die uns als Verdächtige einstufen oder unsere Kreditwürdigkeit beurteilen. Dass Roboter die Weltherrschaft übernehmen, wie manche glauben, dürfte unwahrscheinlich sein.“ Auch um den Kampfroboter geht es; bereits in der Überschrift heißt es über ihn: „… am Vergewaltigen hat er zumindest kein emotionales Interesse“. Dennoch lehnt Oliver Bendel seinen Einsatz ab. Das ganze Interview kann seit Dezember 2016 über http://www.maisberger.de nachgelesen werden.

ritter

Abb.: Ritter oder Roboter?

Watson for President

In den letzten Monaten konnte man immer wieder die Aussage hören, ein Roboter oder eine KI-Einheit würde ein besserer Präsident sein als die amtierenden oder kandidierenden Personen es sind oder wären. Ein Roboter hätte nicht den religiösen Habitus eines Joachim Gauck und nicht den weltlichen Wahn eines Donald Trump. Eine KI-Einheit wie IBM Watson könnte rational und auf der Grundlage aller verfügbaren Fakten entscheiden. Überlegungen in dieser Richtung stellt auch eine amerikanische Stiftung an. Auf ihrer Website schreibt sie: „The Watson 2016 Foundation is an independent organization formed for the advocacy of the artificial intelligence known as Watson to run for President of The United States of America. It is our belief that Watson’s unique capabilities to assess information and make informed and transparent decisions define it as an ideal candidate for the job responsibilities required by the president.“ (Website The Watson 2016 Foundation) Sie stellt auch klar: „The Watson 2016 Foundation has no affiliation with IBM. The views and opinions expressed here in no way represent the views, positions or opinions – expressed or implied – by IBM or anyone else.“ (Website The Watson 2016 Foundation) Natürlich sind schnell Nachteile eines KI-Präsidenten zu erkennen. Er kann fehlerhaft sein, gehackt und manipuliert werden, er macht abhängig von den Betreibern, und er kann die symbolische Wirkung eines Präsidenten nicht erreichen, was allerdings auch als Vorteil gewertet werden kann. Ein künstlicher Präsident müsste nicht nur als komplexe politische, sondern auch als komplexe rechtliche und moralische Maschine gestaltet werden. Dies wiederum fällt in den Gegenstandsbereich von Roboterrecht und Maschinenethik. Manche Maschinenethiker lehnen komplexe moralische Maschinen ab und bevorzugen einfache. Weitere Informationen über http://watson2016.com/.

barack_obama

Abb.: Echt oder KI?

Workshop on Robotics and Artificial Intelligence

„Artificial intelligence (AI) raises a number of ethical and political challenges in the present and near term, with applications such as driverless cars and search engines and potential issues ranging from job disruption to privacy violations. Over a longer term, if AI becomes as or more intelligent than humans, other governance issues such as safety and control may increase in importance. What policy approaches make sense across different issues and timeframes?“ (Website European Parliament) These are the initial words of a description of the workshop „Robotics and Artificial Intelligence – Ethical Issues and Regulatory approach“, organised by the Policy Department of the European Parliament. The first part „will focus on basic ethical and policy questions raised by the development of robotics and AI on the basis of presentations by experts“ (Website European Parliament). According to the description, this will be followed by a discussion with national parliamentarians on what the legislator should do and on which level, with the European Parliament’s draft legislative initiative report on „Civil Law Rules on Robotics“ as a basis. Further information can be found on the European Parliament’s website (www.europarl.europa.eu).

Partnership on Artificial Intelligence

Fünf IT-Konzerne haben angekündigt, dass sie ihre Forschung im Bereich der Künstlichen Intelligenz (KI) bündeln wollen. Google, Amazon, Facebook, IBM und Microsoft haben die „Partnership on Artificial Intelligence to Benefit People and Society“ gegründet. Die Süddeutsche schreibt dazu: „Man könnte nun eine Weltverschwörung des Silicon Valley vermuten. Immerhin handelt es sich hier um die fünf Konzerne, die international die größten Datenbanken und damit das Gros der globalen Datensätze besitzen. In Wahrheit ist die Gründung jedoch ein historischer Schritt, denn die Partnerschaft für künstliche Intelligenz soll vor allem garantieren, dass die Konzerne gemeinsame ethische Richtlinien für die Entwicklung künstlicher Intelligenz finden.“ (Süddeutsche Zeitung, 29. September 2016) Es fehlen bislang Apple sowie die von Elon Musk geleitete Non-Profit-Organisation namens OpenAI. Gerade letzterer würde man sowohl eine gesellschafts- und benutzerbezogene Reflexion der Chancen und Risiken von Robotik und eine Erstellung von Moralkodizes für die Entwicklung von Robotern (Informationsethik und Roboterethik) als auch eine zielführende Integration von Entscheidungsmechanismen in die Maschinen (Maschinenethik) zutrauen. Nicht nur die Wirtschaft widmet sich Möglichkeiten der Regulierung, sondern auch Arbeitsgruppen der IEEE (Global Initiative Classical Ethics) mit Mitgliedern wie Jared Bielby, Rafael Capurro und Oliver Bendel sowie des Europäischen Parlaments. So wurde im Mai 2016 der Initiativbericht zu zivilrechtlichen Regelungen im Bereich der Robotik von der luxemburgischen Berichterstatterin Mady Delvaux-Stehres vorgelegt.

Zur Zweckentfremdung von Robotern

„Roboter konnten schon immer zweckentfremdet werden. Je mehr sie aber vermögen, je mehr Instrumente sie haben, je mehr sie zu Generalisten werden, desto eher scheinen sie auch für Anwendungen geeignet zu sein, für die sie nicht vorgesehen waren. Und je mehr sich Roboter verbreiten, desto mehr sind sie auch Menschen zugänglich und ausgeliefert, die sie in vielfältiger Weise ge- und missbrauchen können.“ Mit diesen Worten beginnt ein Gastbeitrag von Oliver Bendel, Professor an der Hochschule für Wirtschaft der FHNW, in der ICTkommunikation vom 5. September 2016. Weiter heißt es: „Immer wieder werden Beispiele für eine tatsächliche oder angestrebte bzw. abgelehnte Umwidmung der Maschinen bekannt. Der vorliegende Artikel definiert die Begriffe der in diesem Kontext vor allem in Frage kommenden Service- und Spielzeugroboter und geht auf Zweckentfremdungen ein, die besonders diskussionswürdig und zukunftsträchtig scheinen. Auch Softwareroboter wie Social Bots und Chatbots wären darstellungswürdig, sollen hier aber ausgeklammert werden.“ Es wird u.a. die Perspektive der Maschinenethik eingenommen: „Diese fragt nach der Möglichkeit maschineller Moral, und zusammen mit Robotik und Künstlicher Intelligenz konzipiert und konstruiert sie moralische Maschinen. Auch unmoralische Maschinen können aus ihr heraus entstehen, und eine Möglichkeit der Zweckentfremdung wäre, eine moralische Maschine durch Umprogrammierung oder einen feindlichen Angriff in eine unmoralische zu transformieren.“ Der Beitrag kann über http://ictk.ch/content/die-zweckentfremdung-von-robotern abgerufen werden.

Robotangel

Abb.: Noch hochgetunt oder schon zweckentfremdet?

Diskussionspapier zur Künstlichen Intelligenz

„Die Stiftung für Effektiven Altruismus (EAS; vormals GBS Schweiz) führte am heutigen Donnerstag eine Medienkonferenz zum Thema ‚Künstliche Intelligenz: Chancen und Risiken‘ durch. Anlass war das von der Stiftung verfasste politische Diskussionspapier …, das von drei der sechs Mitautoren im Technopark Zürich vorgestellt wurde.“ Dies meldet der Humanistische Pressedienst am 12. November 2015. Auf der zweiten Seite von „Künstliche Intelligenz: Chancen und Risiken“ steht geschrieben: „Wir bedanken uns bei all jenen, die uns bei der Recherche oder beim Verfassen des Diskussionspapiers behilflich waren. Besonders hervorzuheben sind hierbei Kaspar Etter und Massimo Mannino für ihre Ratschläge zum Aufbau des Papiers; Prof. Oliver Bendel für Anstöße zum Kapitel ‚Vorteile und Risiken gängiger KIs‘; und Prof. Jürgen Schmidhuber für Inputs zu den Kapiteln ‚Generelle Intelligenz und Superintelligenz‘ und ‚Künstliches Bewusstsein‘, sowie für seine Inputs zum aktuellen Forschungsstand verschiedener KI-Bereiche.“ Der Informations- und Maschinenethiker Oliver Bendel sieht sich nicht als Vertreter des effektiven Altruismus und lehnt auch Rechte für Roboter ab, die in dem Papier angedacht werden. Er begrüßt aber die Diskussion, die durch die Stiftung angestoßen wird, und findet die angestellten Überlegungen in hohem Maße interessant und wichtig. Das Diskussionspapier kann hier heruntergeladen werden.

KI

Abb.: Wohin dreht sich die KI?