Über die DLD-Konferenz in München

Vom 15. – 17. Januar 2017 findet die DLD-Konferenz in München statt. Nicht nur Wissenschaftler berichten über ihre Arbeit, sondern auch Künstler. So ist das Label GoodRoom von Johannes Fricke Waldthausen präsent. „It raises questions, how we deal with our relations and the relationship to ourselves (your feelings are your best friend) , if we are increasingly surrounded and conditioned by animations, social networks, ambient technology and artificial intelligence apps, suggesting us ever more, what and how to feel and what to like. Hence, It highlights the body and our own creative minds.“ (Website DLD) Die Frankfurter Allgemeine berichtet in einer Beilage über die Burda-Konferenz, mit der man eine Medienpartnerschaft hat. In dem Artikel „Dürfen Maschinen über Leben und Tod entscheiden?“ von Jonas Jansen kommt auch der Informations- und Maschinenethiker Oliver Bendel zu Wort, und es wird auf seine LADYBIRD-Konzeption eingegangen, die im März 2017 an der Stanford University präsentiert wird, im Rahmen der AAAI Spring Symposia. Der Artikel ist am 14. Januar 2017 erschienen und kann über www.faz.net/aktuell/wirtschaft/netzkonferenz-dld/duerfen-maschinen-ueber-leben-und-tod-entscheiden-14631002.html aufgerufen werden.

Abb.: Was mit Medien

Fonds für die Forschung zu KI und Ethik

Wie Heise und andere Medien melden, fördern die Gründer von eBay und LinkedIn die Forschung zur Künstlichen Intelligenz in der Moral. Dabei werden fast zwangsläufig auch Maschinenethik und Roboterethik profitieren. „Mit 27 Millionen US-Dollar Vermögen soll ein neuer Stiftungsfonds die Forschung über KI und Ethik voranbringen.“ (Heise, 11. Januar 2017) Verwaltet werden soll der sogenannte Ethics and Governance of Artificial Intelligence Fund vom MIT Media Lab, vom Berkman Klein Centre an der Harvard University sowie von den Hauptspendern. Man wolle, so Heise, Debatten etwa darüber voranbringen, wie sich Sozialwissenschaften und Informatik für „Künstliche Intelligenzen“ verbinden lassen, die – damit wird Media-Lab-Leiter Joi Ito zitiert – „nicht nur smart, sondern auch sozial verantwortungsbewusst“ sind (Heise, 11. Januar 2017). KI und Ethik sind auch das Thema bei der AAAI-Konferenz in Stanford mit dem Titel „AI for the Social Good“ im März 2017. Weitere Informationen über www.heise.de/newsticker/meldung/Initiative-fuer-ethische-KI-Gruender-von-eBay-und-Linkedin-spenden-Millionen-3593842.html.

Das Auto ein bisschen dumm lassen

In der Februarausgabe von P.M. Magazin ist ein langes Interview mit Oliver Bendel abgedruckt. Am 9. September trafen sich der Redakteur Rüdiger Barth und der Wissenschaftler auf dem Campus Brugg-Windisch der FHNW und sprachen über Maschinenethik, Künstliche Intelligenz und Robotik. P.M. ist eine populärwissenschaftliche Zeitschrift und hat eine Auflage von ca. 163.000 Exemplaren. Der Titel des sechsseitigen Beitrags – neben dem Interview finden sich noch Informationen zu Oliver Bendel und zu den Robotikgesetzen von Isaac Asimov – lautet „Ich würde das Auto ein bisschen dumm lassen“. Der Informationsethiker und Maschinenethiker kann sich vorstellen, dass Autos klug genug sind, für bestimmte Tiere zu bremsen, wenn die Luft rein ist, sie aber zu dumm dafür sind, Menschen zu qualifizieren, auf ihre Eigenschaften zu schauen, um sie dann bei einem Unfall zu verschonen oder nicht zu verschonen, was man wiederum als klug bezeichnen könnte, da es keine befriedigenden Lösungen für solche Entscheidungen gibt. Auch das Quantifizieren ist, zumindest bei kleinen Zahlen, nicht angemessen. Warum sollte jemand getötet werden, nur weil zwei Passanten in der Nähe stehen? Kaum jemand würde das akzeptieren, der Betroffene nicht, die Familie nicht, die Freunde nicht. Die zwei Passanten wären natürlich aufgeschlossener für solche Abwägungen, aber auch nur, wenn sie zusammen unterwegs sind und nicht alleine, was wiederum die Ungerechtigkeit zeigt. Solche Gedankenspiele dürfen nicht mit der Wirklichkeit verwechselt werden. Sie sind aber ein klassisches Mittel, um Grundannahmen und Widersprüche zu erkennen und am Ende die Wirklichkeit auch gestalten zu können.

Abb.: Wie entscheidet das Auto, wenn man es lässt?

Kill Switches for Robots

EU rules for the fields of robotics and artificial intelligence, to settle issues such as compliance with ethical standards and liability for accidents involving self-driving cars, should be put forward by the EU Commission, urged the Legal Affairs Committee on January 12, 2017. The media has reported on this in television, radio and newspaper. According to the Parliament’s website, rapporteur Mady Delvaux said: „A growing number of areas of our daily lives are increasingly affected by robotics. In order to address this reality and to ensure that robots are and will remain in the service of humans, we urgently need to create a robust European legal framework.“ (Website European Parliament) The members of the European Parliament push „the Commission to consider creating a European agency for robotics and artificial intelligence to supply public authorities with technical, ethical and regulatory expertise“ (Website European Parliament). „They also propose a voluntary ethical conduct code to regulate who would be accountable for the social, environmental and human health impacts of robotics and ensure that they operate in accordance with legal, safety and ethical standards.“ (Website European Parliament) To be more concrete, roboticists could include „kill“ switches so that robots can be turned off in emergencies. This poses questions about, for example, which robots should be enhanced, and which persons should be able to „kill“ them. More information via www.europarl.europa.eu/news/en/news-room/20170110IPR57613/robots-legal-affairs-committee-calls-for-eu-wide-rules.

Fig.: A robot reads the ethical conduct code

AI for the Social Good

Vom 27. bis 29. März 2017 finden die AAAI 2017 Spring Symposia statt. Veranstaltet werden sie von der Association for the Advancement of Artificial Intelligence, in Kooperation mit dem Department of Computer Science der Stanford University. Das Symposium „AI for the Social Good“ an der Stanford University widmet sich auch Themen der Roboter- und der Maschinenethik. Auf der Website heißt es: „A rise in real-world applications of AI has stimulated significant interest from the public, media, and policy makers, including the White House Office of Science and Technology Policy (OSTP). Along with this increasing attention has come media-fueled concerns about purported negative consequences of AI, which often overlooks the societal benefits that AI is delivering and can deliver in the near future. This symposium will focus on the promise of AI across multiple sectors of society.“ (Website AISOC) In einer Talk Session spricht Oliver Bendel über „LADYBIRD: the Animal-Friendly Robot Vacuum Cleaner“. In der Lightning Talks Session ist er nochmals vertreten, mit dem Vortrag „Towards Kant Machines“. In der gleichen Session referiert Mahendra Prasad über „A Framework for Modelling Altruistic Intelligence Explosions“ (vorangestellt ist der Titel „Back to the Future“), und Thomas Doherty geht der Frage „Can Artificial Intelligence have Ecological Intelligence?“ nach. Das ganze Programm kann über scf.usc.edu/~amulyaya/AISOC17/papers.html aufgerufen werden.

Abb.: LADYBIRD ist auf Marienkäfer spezialisiert

Eine Stunde Liebe

„Eine Stunde Liebe“ – so der Titel einer Sendung von DRadio Wissen. „Klar: Wir alle wissen viel über Liebe, Sex und Beziehungen. Aber wir wollen noch mehr wissen. Schließlich ist das ein Thema, das uns alle interessiert. Eine Stunde Liebe gibt’s jeden Freitagabend von 20 bis 21 Uhr.“ (Website DRadio) Am 6. Januar 2017 war Shanli Anwar im Gespräch mit Oliver Bendel, der am 19. Dezember 2016 bei der Konferenz „Love and Sex with Robots“ am Goldsmiths in London den ersten Vortrag hatte. Er betrachtete den Gegenstand aus der Perspektive der Maschinenethik, was für ein internationales Medienecho sorgte. Im Gespräch mit Shanli Anwar ging es ebenfalls um die Perspektive der Ethik, vor allem der Roboterethik und Sexualethik, aber auch der Maschinenethik. Zur aktuellen Sendung heißt es: „2050 ist es soweit, wenn es nach einigen Forschern geht. Dann sollen Sexroboter selbstverständlich im Einsatz sein. Eine Stunde Liebe blickt auf den aktuellen Stand in der Wissenschaft. Wer würde Sexroboter kaufen? Welche technischen Entwicklungen gibt es schon? Und wie werden Sexroboter aus Sicht der Maschinenethik diskutiert?“ (Website DRadio) Sie kann nachgehört werden über dradiowissen.de/beitrag/eine-stunde-liebe-sex-mit-robotern.

Abb.: Eine Stunde Maschinenliebe

Enhanced Love Dolls

20 Minuten, die größte Zeitung der Schweiz, hat ein Interview mit Oliver Bendel zu Robotersex und Sexrobotern geführt. Dieses ist in der Printausgabe vom 29. Dezember 2016 erschienen. Zudem kann es online abgerufen werden. Im ursprünglichen Interview wurde noch gefragt, wann solche Roboter Alltag sein werden. Die Antwort lautete: „Wahrscheinlich werden sie nie Alltag sein, sie werden immer ungewöhnlich sein, eine Nische besetzen, ein Séparée sozusagen, in das man sich mit ihnen zurückzieht. Man muss auch sehen, dass es zwei Entwicklungslinien gibt. Eigentliche Sexroboter sind auf dem Markt erhältlich, erleben aber so schnell keinen Durchbruch. Liebespuppen sind wohl eher gefragt. Sie sehen unheimlich echt aus und haben mit der Gummipuppe von früher nur noch wenig zu tun. Ihre Haut fühlt sich echt an, ihr Fleisch, und es gibt sie für alle Geschmäcker, was man wiederum kritisch diskutieren muss. Die Hersteller haben auch immer wieder mit Sprachfunktionen und Körperbewegungen experimentiert. Vermutlich wird diese Ausrichtung in den nächsten zehn Jahren vorherrschen, lebensechte Liebespuppen, die dezent mechanisch und vehement elektronisch erweitert und anderweitig verbessert sind, Enhanced Love Dolls sozusagen.“

Abb.: Ein Sexroboter oder eine Liebespuppe?

Ethically Aligned Design

Die Mitglieder der IEEE Global Initiative haben im Dezember 2016 ihre ersten Ergebnisse vorgelegt. „Ethically Aligned Design, Version 1“ ist online verfügbar. „A Vision for Prioritizing Human Wellbeing with Artificial Intelligence and Autonomous Systems“, so der Untertitel, wird entworfen. In der Executive Summary heißt es: „To fully benefit from the potential of Artificial Intelligence and Autonomous Systems (AI/AS), we need to go beyond perception and beyond the search for more computational power or solving capabilities. We need to make sure that these technologies are aligned to humans in terms of our moral values and ethical principles. AI/AS have to behave in a way that is beneficial to people beyond reaching functional goals and addressing technical problems. This will allow for an elevated level of trust between humans and our technology that is needed for a fruitful pervasive use of AI/AS in our daily lives.“ Zu den Mitgliedern des Komitees „Classical Ethics in Information & Communication Technologies“ gehören Rafael Capurro, Wolfgang Hofkirchner und Oliver Bendel, um nur diejenigen zu nennen, die im deutschsprachigen Raum angesiedelt sind. Das zweite Treffen der IEEE Global Initiative findet am 5. Juni 2017 in Austin (Texas) statt. Beim „Symposium on Ethics of Autonomous Systems (SEAS North America)“ wird eine zweite Version des Dokuments erarbeitet.

Abb.: Das Symposium findet an der University of Texas statt

Mensch und Tier im Straßenverkehr

Die Ethikkommission von Alexander Dobrindt hat erste Ergebnisse vorgelegt. Im Interview mit Philipp Vetter von der Welt ging Oliver Bendel unter anderem auf die Forderung ein, dass im Straßenverkehr stets Menschen- vor Tierleben stehen soll. Der Forscher konzentriert sich in seiner Arbeit zu Fahrerassistenzsystemen und autonomen Autos auf das Tierwohl und schlägt vor, das Wohl von Menschen vor allem dadurch sicherzustellen, indem das autonome Fahren auf der Autobahn stattfindet. Am Telefon gab er zur Auskunft: „Natürlich sollte ein autonomes Auto, wenn es nicht mehr ausweichen kann, im Zweifel das Tier überfahren und nicht den Menschen. Das sehen auch die meisten Tierschützer so, zu denen auch ich gehöre. Vereinzelt mag es aber Menschen geben, die sagen: Mein Hund ist mir wichtiger als mein Nachbar. Das ist sicher eine Minderheit.“ Der Wirtschaftsinformatiker, Informationsethiker und Maschinenethiker kritisiert seit langem, dass Ethikkommissionen in Deutschland stark von Theologen und insbesondere Moraltheologen bestimmt sind. Diese können meist weder etwas zur Sache beitragen noch zur Frage der Moral aus wissenschaftlicher Sicht wie Moralphilosophen. Sie argumentieren mit Vorannahmen, über die man nicht vernünftig sprechen kann, und neigen zu Formen des Moralismus. Im Gespräch stellte er fest: „Meiner Meinung nach ist die Ethikkommission falsch besetzt. Mir leuchtet nicht ein, welche Kompetenz ein Kirchenvertreter beim Thema autonomes Fahren haben soll.“ Der Artikel, der auf diesen und anderen Aussagen aufbaut, kann über www.welt.de/wirtschaft/article160551011/Autonome-Autos-sollen-zuerst-Fussgaenger-schuetzen.html aufgerufen werden.

Abb.: Mensch und Tier im Straßenverkehr

Wenn Maschinen denken

Die Oesterreichische Kontrollbank Aktiengesellschaft widmet die aktuelle Ausgabe von RELEVANT (4/2016) der Künstlichen Intelligenz. „Wenn Maschinen denken“ heißt der Schwerpunkt. Im Inhaltsverzeichnis wird Appetit auf das Thema gemacht: „Erst lernten Computer das Rechnen, nun lernen sie Autos zu fahren, Forschungshypothesen aufzustellen und Steuersünder zu finden – besser als wir Menschen. Sind dadurch unsere Arbeitsplätze in Gefahr?“ (RELEVANT, 4/2016) Im Magazin finden sich u.a. Interviews mit dem Informatiker Stefan Woltran (TU Wien und Universität Leipzig) und dem Maschinenethiker Oliver Bendel (Hochschule für Wirtschaft FHNW). „Die Oesterreichische Kontrollbank Aktiengesellschaft (OeKB) ist Österreichs zentraler Finanz- und Informationsdienstleister für Exportwirtschaft und Kapitalmarkt. Ihre speziellen Services stärken den Standort Österreich und unterstützen die Wirtschaft im globalen Wettbewerb. Die vielfältigen Dienstleistungen stehen Unternehmen und Finanzinstitutionen sowie Einrichtungen der Republik Österreich zur Verfügung.“ (Website OeKB) Das gesamte Heft kann über www.oekb.at/de/osn/DownloadCenter/RELEVANT/RELEVANT-4-2016.pdf heruntergeladen werden.

Abb.: Wenn Maschinen denken