Schlagwörter: Maschinenethik

Liebe und Sex mit Robotern

Die Konferenz im Dezember 2016 an der University of London (Goldsmiths) mit dem Titel „Love and Sex with Robots“ hat ein enormes internationales Echo ausgelöst. Insbesondere in den englischen und amerikanischen Boulevardmedien wurden Aussagen der Referenten verdreht und verfälscht. Was sie wirklich gesagt und gemeint haben, lässt sich nun schwarz auf weiß nachlesen. Ende April 2017 ist das Buch „Love and Sex with Robots“ bei Springer herausgekommen, in der Reihe „Lecture Notes in Artificial Intelligence“. Aus dem Klappentext: „This book constitutes the refereed proceedings of the Second International Conference on Love and Sex with Robots 2016 in December 2016, in London, UK. The 12 revised papers presented together with 1 keynote were carefully reviewed and selected from a total of 38 submissions. … The topics of the conferences were as follows: robot emotions, humanoid robots, clone robots, entertainment robots, robot personalities, teledildonics, intelligent electronic sex hardware, gender approaches, affective approaches, psychological approaches, sociological approaches, roboethics, and philosophical approaches.“ (Klappentext) Beiträge stammen u.a. von David Levy, Emma Yann Zhang und Oliver Bendel. Das Buch kann hier bestellt werden.

Die perfekte Maschine

Julie Rambal interviewte Oliver Bendel für Le Temps. Das Thema waren Sexroboter und Robotersex. Sie fragte danach, ob es möglich ist, weiterhin einen unperfekten Menschen zu lieben, wenn wir uns eine perfekte Maschine leisten können. Wäre diese nicht eine starke Konkurrenz? Die Anwort lautete: „At the moment, we do not have the perfect machine. On the one hand, there are many love dolls which look good but which have limited capacities. On the other hand, we have some sex robots which look strange but which have extended options. A perfect sex machine could be possible in 20, 30 years. It would have perfect skin, perfect flesh, perfect language capabilities. It would read every wish from our eyes. If this would happen, the machine would be a tough competition, that’s true. But I can imagine that there will be a new trend in the future: real sex with real men and women.“ Eine andere Frage war, ob Sexroboter das Verlangen verändern könnten. Die Antwort: „Of course, new types of desire could arise. Love dolls and sex robots could be a chance to identify the hidden individual needs and wishes of oneself and one’s partner. We have a long history of ideas regarding artificial women and men: think of the Golden Virgins or Golden Maids, of Pandora and Galatea, think of Talos, the guardian of Crete Island, or of the Golem. Perhaps also Pinocchio is a sex fantasy? Now serious again: Perhaps our real desire is not focussed on only one person, not only on a real human. I don’t think that sex robots themselves imply a liberation – but maybe the thinking about them.“ Der Artikel vom 25. März 2017 mit Aussagen von Oliver Bendel kann hier heruntergeladen werden.

Abb.: Ist das die perfekte Maschine?

We love AI

„We love AI“ nennt sich ein neues Angebot der Deutschen Telekom im World Wide Web, das sich ganz der Künstlichen Intelligenz widmet. Jan Hofmann begrüßt die Besucher: „Wir sind überzeugt, dass künstliche Intelligenz nicht nur den Kundenservice verändern wird, sondern unsere gesamte Industrie – jede Industrie, unsere Gesellschaft und unser tägliches Leben.“ (Website We love AI) Eines der ersten Interviews wurde mit dem Informations- und Maschinenethiker Oliver Bendel geführt. Er untersucht die Möglichkeit maschineller Moral und baut einfache moralische Maschinen als Artefakte, die er dann wiederum untersucht. Zu seinem neuesten Projekt innerhalb der Maschinenethik, das einen tierfreundlichen Saugroboter namens LADYBIRD zum Ziel hat, sagt er: „Mir geht es um das Prinzip. Mir geht es darum, zu zeigen, dass solche tierfreundlichen Maschinen möglich sind. Dass man zum Beispiel Entscheidungsbäume benutzen kann, um solche Maschinen zu bauen. In diese Entscheidungsbäume kann man moralische Begründungen einbeziehen. Das mit Ladybird ist ein sehr anschauliches Beispiel. Wir bauen eine Maschine, die bestimmte Farbsensoren hat, die über Muster- und Bilderkennung verfügt und tatsächlich den Marienkäfer erkennt und verschont. Ich will das Prinzip verdeutlichen: Es ist möglich, eine Maschine zu bauen, die bestimmten ethischen Modellen und moralischen Regeln folgt.“ Das ganze Interview kann über www.we-love.ai/de/blog/post/Interview-OliverBendel.html aufgerufen werden.

Abb.: Der Saugroboter erkennt Marienkäfer

Der Kampf der Maschinen

Die ZEIT führte mit dem Maschinenethiker Oliver Bendel ein Interview, das am 11. bzw. 12. April 2017 veröffentlicht wurde. Eine Frage lautete: „Kann man in Bezug auf bestimmte Programme oder Roboter überhaupt von Moral oder Unmoral sprechen? Können Maschinen gut oder böse sein?“ Die Antwort: „Da sind wir mittendrin in der Maschinenethik. Wir kennen seit 2500 Jahren die Ethik als eine Disziplin, die sich ausschließlich auf Menschen richtete. Jetzt haben wir es mit neuen Subjekten der Moral zu tun, eben Maschinen. Natürlich sind sie nicht gut oder böse, weil sie keinen eigenen Willen, kein Bewusstsein haben. Aber sie treffen, teilautonom oder autonom, bestimmte moralisch relevante Entscheidungen.“ Eine ähnliche Diskussion begann mit der Disziplin der Künstlichen Intelligenz. Viele Experten verwenden den Begriff der KI metaphorisch oder intentional. So kann man es auch bei der maschinellen Moral machen. Die letzte Frage lautete: „Werden intelligente Roboter irgendwann einmal die Menschheit bedrohen?“ Oliver Bendel antwortete dem Journalisten: „Dass sich Roboter zusammenrotten, um uns Menschen zu eliminieren, halte ich für surreal. Dass Maschinen zu Rassisten werden können, ist schon Realität.“ Das Interview kann über www.zeit.de/2017/16/kuenstliche-intelligenz-moral-maschinenethik-interview nachgelesen werden.

Abb.: Der Kampf der Maschinen

Die Artenvielfalt der Automaten

„Android oder Maschine?“ Das fragt die neue Ausgabe der Zeitschrift designreport (Erscheinungsdatum 13. April 2017). In der Ankündigung wird deutlich, worum es geht: „Kaum ein Technologiebereich entwickelt sich derzeit so dynamisch wie die Robotik. Unterstützt von den Fortschritten der Künstlichen Intelligenz steigern sich die Autonomie und damit auch die Anwendungsszenarien automatischer Systeme. Längst geht es nicht mehr nur um Industrieroboter, sondern um persönliche Alltagsassistenten, um Roboter für Medizin, Logistik, Sicherheit oder Mobilität. Die Artenvielfalt der Automaten wächst dynamisch – und damit eine ganz neue Aufgabe für das Design. Dabei geht es nicht nur um die Frage, ob und wie humanoid die neuen Roboter sein dürfen. Es geht vielmehr um die Gestaltung eines neuen technologischen Abschnittes und um die Art, wie wir künftig leben sowie arbeiten wollen. Das Design hat wesentlichen Einflussauf die Nutzungsszenarien, aber auch auf die Akzeptanz der Maschinen.“ (Website designreport) Die Redakteure stellen die neuesten Entwicklungen vor und berichten über einen Besuch der Ausstellung „Hello Robot“ in Weil am Rhein. Enthalten sind auch Interviews, mit einem KUKA-Entwickler zu Industrierobotern und mit Oliver Bendel (Hochschule für Wirtschaft FHNW) zur Maschinenethik. Weitere Informationen über  www.designreport.de.

Abb.: Die Artenvielfalt der Zahnräder

Technical Reports von „AI for Social Good“

Die Technical Reports des Symposiums „AI for Social Good“ sind erschienen. Dieses fand innerhalb der AAAI Spring Symposia (27. bis 29. März 2017) an der Stanford University statt. Organisiert wurde es von Amulya Yadav (University of Southern California, CA, USA) und Fei Fang (Harvard University). Die veröffentlichten Papers zeigen das enorme Spektrum der Veranstaltung auf. Oliver Bendel ist mit „LADYBIRD: The Animal-Friendly Robot Vacuum Cleaner“ sowie „Towards Kant Machines“ (zusammen mit Kevin Schwegler und Bradley Richards) vertreten, Malay Bhattacharyya mit „In Search of Health Doubles“, Sujoy Chatterjee (mit Anirban Mukhopadhyay und Malay Bhattacharyya) mit „Smart City Planning with Constrained Crowd Judgment Analysis“, Arnaud Delaunay (zusammen mit Jean Guérin) mit „Wandering Detection Within an Embedded System for Alzheimer Suffering Patients“ und Virginia Dignum (zusammen mit Frank Dignum) mit „Societal Challenges Need Social Agents“. Virginia Dignum konnte während des Symposiums die frohe Botschaft überbringen, dass die andere große Wissenschaftsvereinigung auf technischem Gebiet, das Institute of Electrical and Electronics Engineers (IEEE), sich in seinen Leitlinien „Ethically Aligned Design“ zu Robotik und KI zukünftig nicht nur den Menschen, sondern auch den Tieren widmen wird. Dies hatte Oliver Bendel in einer Stellungnahme gegenüber den Verantwortlichen vorgeschlagen. Die Technical Reports des Symposiums sind über www.aaai.org/Library/Symposia/Spring/ss17-01.php verfügbar.

AI for Social Good VII

Den Session Chair für die Talk Session 5 („Miscellaneous“) beim AAAI Spring Symposium „AI for Social Good“ hatte Amulya Yadav inne. Er ging auf die Methoden und Strategien im Bereich „AI for Social Good“ ein, erwähnte den Belmont-Report und wertete ihn für den gegebenen Kontext aus. „Optimal Thresholds for Intrusion Detection Systems“ wurde von Yevgeniy Vorobeychik vorgetragen (Paper zusammen mit Aron Laszka, Waseem Abbas u.a.). Die Methoden wurden auf „Water Distribution Networks“ angewandt. Das Referat von Evan Patterson trug den Titel „Machine representation of Data Analyses“ (Paper mit Ioana Baldini, Aleksandra Mojsilovic und Kush Varshney). Er ging aus von einer Case Study namens „Accelerated Cure Project“ und fragte nach neuen Arten von „data science platforms“. Oliver Bendel ging in „Towards Kant Machines“ (Paper zusammen mit Kevin Schwegler und Bradley Richards) auf das abgeschlossene LÜGENBOT-Projekt ein. Der LIEBOT ist in der Lage, systematisch zu lügen. Die Ergebnisse können dazu verwendet werden, solche natürlichsprachlichen Systeme zu entwickeln, die niemals oder selten lügen. Danach präsentierte er sein Paper „LADYBIRD: the Animal-Friendly Robot Vacuum Cleaner“. LADYBIRD erkennt Marienkäfer und stellt, wenn ihm diese zu nahe kommen, seine Arbeit ein. Der Prototyp wird zurzeit an der Hochschule für Wirtschaft FHNW entwickelt. Erisa Karafili offerierte eine „Argumentation-based Security for Social Good“ (Co-Autoren sind Antonis C. Kakas, Nikolaos I. Spanoudakis und Emil C. Lupu), Mahendra Prasad reiste „Back to the Future“, mit „A Framework for Modelling Altruistic Intelligence Explosions“ im Gepäck. Um 17.30 Uhr – nach einer angeregten Plenumsdiskussion – war das Symposium vorbei. Für den Abend und den Morgen des darauffolgenden Tages waren weitere allgemeine Veranstaltungen innerhalb der AAAI 2017 Spring Symposia geplant.

AI for Social Good VI

Fei Fang (Harvard University) eröffnete die Talk Session 4 („Computational Sustainability“) beim AAAI Spring Symposium „AI for Social Good“ auf interaktive Weise, indem sie viele Fragen stellte und Antworten aus dem Auditorium einholte. Jennifer Sleeman begann die Vortragsreihe mit „Machine Learning the Temporal Evolution of Climate Change Assessment Research Using Dynamic Topic Models and Cross-Domain Divergence Maps“ (Paper zusammen mit Milton Halem, Tim Finin und Mark Cane). Einen Bezug zur Tierwelt schuf wiederum Jason Parham (Paper „Animal Population Censusing at Scale with Citizen Science and Photographic Identification“ mit Jonathan Crall, Charles Stewart u.a.). Er stellte invasive (etwa über Chips) und passive Verfahren (etwa über Kameras, auch von Bürgern und Touristen) der Tierzählung gegenüber. Zhiyu Wan präsentierte „Game Theory Can Expand Access to Genomic Data While Promoting Privacy“ (Co-Autoren sind Yevgeniy Vorobeychik, Weiyi Xia u.a.). Er ging u.a. auf das Risiko für die Privacy ein. Sara Marie Mc Carthy trug zum Projekt „PAWS-LITE: Extending the Deployment of Game Theoretic Applications for Environmental Crime Prevention“ vor, an dem neben ihr noch Milind Tambe und Chris Hallam beteiligt sind. PAWS wird in Uganda und Malaysia gegen Wilderei eingesetzt; es ist erfolgreich, aber sehr aufwendig. PAWS-LITE ist eine „light-weight Game Theoretic Application“. Neetu Pathak schloss den Vormittag mit „Understanding Social Media’s Take on Climate Change through Large-Scale Analysis of Targeted Opinions and Emotions“ (Co-Autoren Michael Henry und Svitlana Volkova) ab. User wurden nach persönlichen und nichtpersönlichen unterschieden, zudem nach Geschlecht, Alter etc. klassifiziert.

AI for Social Good V

Am 28. März 2017 begann um 9.00 Uhr der zweite Tag des AAAI Spring Symposium „AI for Social Good“. Den Session Chair für die Talk Session 3 („Urban Planning“) hatte Virginia Dignum (Delft University of Technology) inne. Sie führte in das Thema ein und postulierte: „Artefacts have politics“. Sie erwähnte Anliegen der Maschinenethik und unterschiedliche Modelle der normativen Ethik, die man auf autonome Systeme anwenden kann. „Smart-City Planning with Constrained Crowd Judgment Analysis“ war der Titel des ersten Vortrags von Sujoy Chatterjee (Paper mit Anirban Mukhopadhyay und Malay Bhattacharyya). Syed Ali Asad Rizvi (Paper mit Elmarie van Heerden, Arnold Salas u.a.) trug zu „Identifying Sources of Discrimination Risk in the Life Cycle of Machine Intelligence Applications under New European Union Regulations“ vor. Er erwähnte einen „discrimination bias“ und fragte danach, wie man diesem begegnen kann. Daniela Rosu präsentierte das Paper „Knowledge-based Provisioning of Goods and Services: Towards a Virtual Social Needs Marketplace“, das zusammen mit Dionne M. Aleman, Christopher Beck u.a. erstellt wurde. Ausgangspunkt war, dass immer mehr Menschen Produkte und Dienstleistungen benötigen, die sie sich nicht leisten können. Es geht nun darum, diese in effizienter Weise von der Anbieter- zur Nachfragerseite zu bringen. Amin Ghafouri (Paper mit Aron Laszka, Abhishek Dubey und Xenofon Koutsoukos) referierte zu „Optimal Detection of Faulty Traffic Sensors Used in Route Planning“, Karen Judd Smith – den Fokus wieder stark erweiternd – zu „The AI Community and the United Nations: A Missing Global Conversation“.

AI for Social Good II

Das AAAI Spring Symposium „AI for Social Good“ wurde am 27. März 2017 nach der Kaffeepause um 11.00 Uhr fortgeführt. Eric Rice (USC School of Social Work) und Sharad Goel (Stanford University) referierten in ihren Keynotes zum Thema „AI for the Social Sciences“. Ihr Ausgangspunkt: „While the public frets over a future threat of killer robots or the dream of a driverless car, computer scientists and social scientists can engage in novel solutions to vexing social problems today.“ (Website AISOC) Eric Rise ist Mitbegründer des USC Center for Artificial Intelligence in Society. Er stellte zuerst sein eigenes Forschungsfeld dar, die Sozialarbeit, und ging dann auf das Phänomen der Obdachlosen in den USA ein. Künstliche Intelligenz kann auch in diesem Feld angewandt werden, etwa indem man Netzwerke und ihre Mitglieder sichtbar macht und dann Personen dazu ermuntert, bestimmte Funktionen – etwa eines Anführers oder Vorbilds – zu übernehmen. Der Vortrag von Sharad Goel trug den Titel „Algorithms to assist judicial decision-making“. Der Assistenzprofessor am Department of Management Science & Engineering der Stanford University betonte, dass in diesem Bereich einfache, interpretierbare Regeln wichtig sind; die Urteile müssen nach seiner Meinung „fast, frugal and clear“ sein. Der Wissenschaftler gab ein Ende ein Versprechen „of greater efficiency, equity, and transparency“.