Kategorie: Maschinenethik

Chatbots as Moral and Immoral Machines

The papers of the CHI 2019 workshop „Conversational Agents: Acting on the Wave of Research and Development“ (Glasgow, 5 May 2019) are now listed on convagents.org. The extended abstract by Oliver Bendel (School of Business FHNW) entitled „Chatbots as Moral and Immoral Machines“ can be downloaded here. The workshop brought together experts from all over the world who are working on the basics of chatbots and voicebots and are implementing them in different ways. Companies such as Microsoft, Mozilla and Salesforce were also present. Approximately 40 extended abstracts were submitted. On 6 May, a bagpipe player opened the four-day conference following the 35 workshops. Dr. Aleks Krotoski, Pillowfort Productions, gave the first keynote. One of the paper sessions in the morning was dedicated to the topic „Values and Design“. All in all, both classical specific fields of applied ethics and the young discipline of machine ethics were represented at the conference. More information via chi2019.acm.org.

Zum Einfluss der Roboter auf die Gesellschaft

„Roboter, Empathie und Emotionen“ – dieses Forschungsprojekt hatte die Einrichtung für Technologiefolgenabschätzung der Schweiz, die TA-SWISS, vor einiger Zeit ausgeschrieben. Den Zuschlag hat ein Konsortium von FHNW, ZHAW und Universität St. Gallen erhalten. Der Antragsteller, Prof. Dr. Hartmut Schulze von der Hochschule für Angewandte Psychologie FHNW, deckt die Psychologie ab. Der Co-Antragsteller, Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW, nimmt die Perspektive von Informations-, Roboter- und Maschinenethik ein, die Co-Antragstellerin, Prof. Dr. Maria Schubert von der ZHAW, die der Pflegewissenschaft. Die TA-SWISS stellte auf ihrer Website fest: „Welchen Einfluss haben Roboter … auf unsere Gesellschaft und auf die Personen, die mit ihnen interagieren? Sind Roboter vielleicht eher Spitzel als Vertraute? … Was erwarten wir von diesen Maschinen beziehungsweise was dürfen wir effektiv von ihnen erwarten? Zahlreiche soziologische, psychologische, wirtschaftliche, philosophische und rechtliche Fragen im Zusammenhang mit dem gegenwärtigen und künftigen Einsatz und Potenzial der Roboter sind noch offen.“ (Website TA-SWISS) Das Kick-off-Meeting mit einer hochkarätig besetzten Begleitgruppe fand am 26. Juni 2019 in Bern statt.

Abb.: Drei Roboter

Die Drohne und die Moral

Vom 18. bis zum 20. Juli 2019 findet die Fachtagung „Game of Drones“ statt. Sie wird vom Zeppelin Museum Friedrichshafen in Kooperation mit der Universität Konstanz und der Zeppelin Universität Friedrichshafen organisiert. Es geht, wie der Titel verrät, um die Technologie der Drohnen, um die Spiele und Kriegsspiele damit. „Die wissenschaftliche Fachtagung beleuchtet in drei Panels kritisch das Spannungsfeld dieser Technologie, die absolute Gegensätze in sich vereint. VertreterInnen aus Wirtschaft, Politik und Wissenschaft reflektieren gesellschaftlich relevante Aspekte des militärisch-wirtschaftlichen Sektors sowie der Aneignung durch zeitgenössische KünstlerInnen und Start-Ups. Der Schnittstelle von Drohnen und Künstlicher Intelligenz widmet sich ein Panel aus ethischer und medientheoretischer Perspektive.“ (Website ZM) Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) – Informations- und Maschinenethiker und Verfasser des Drohnenromans „Verlorene Schwestern“ (2009) – spricht am 20. Juli zu „Die Drohne und die Moral“ (auch aus Sicht der Maschinenethik), Philip Hauser (Universität Konstanz) zu „Mobilität und Macht – Drohnen und künstliche Intelligenz aus medienwissenschaftlicher Perspektive“ und Dr. Goetz Herrmann (Universität Paderborn) zu „Game of Swarms: Adaptabilität“. Das Programm kann hier heruntergeladen werden. Weitere Informationen über www.zeppelin-museum.de.

Abb.: Die Drohne im Anflug

Ein Porträt des Maschinenethikers

„Bei einer ersten Begegnung vor fünf Jahren wirkte Oliver Bendel ziemlich abgefahren. Damals skizzierte er eine Zukunft, in der Technologien auf der Kontaktlinse oder unter der Haut stecken und Kriminelle eben jemandem eine Hand abhacken, um sich mit dem implantierten Chip Zugang zu einem Gebäude zu verschaffen. Er erzählte von einer Welt voller virtuellen Assistenten und Roboter, von seinem Staubsauger mit Moral, den er bauen wollte. Es klang nach Science-Fiction.“ (NZZ, 14. Juni 2019) Im Frühjahr 2019 hat Melanie Keim den Informations- und Maschinenethiker nochmals getroffen, im Lichthof der Universität Zürich. Sie findet ihn immer noch abgefahren. Aber sie hält in ihrem Artikel „Er lehrt Roboter Moral“ für die NZZ fest, dass seine Themen – zu denen er seit zwanzig Jahren forscht – im Mainstream angekommen sind. Inzwischen wurde LADYBIRD, der tierfreundliche Saugroboter, als Prototyp gebaut, und der LIEBOT, der systematisch lügen konnte, ist Geschichte. Dieser erklärte im Sommer 2016, dass Donald Trump der Präsident der USA sei. Warum er dies tat, wird in mehreren Papers und auf mehreren Slides erklärt, die u.a. hier und über www.oliverbendel.net heruntergeladen werden können. Nur soviel sei verraten: Es wird sozusagen Pingpong mit Yahoo gespielt. Der Artikel vom 22. Juni 2019 steht als PDF zur Verfügung. Zusätzlich gibt es eine Onlineversion.

Abb.: Ein junger Fotograf machte die Bilder

Buch zu Informations- und Maschinenethik

Im Sommer 2019 erscheint die zweite Auflage des Lexikons zur Informationsethik von Oliver Bendel im Springer-Verlag. Auf die „300 Keywords Informationsethik“ von 2016 folgen die „400 Keywords Informationsethik“. In beiden Fällen lautet der Untertitel „Grundwissen aus Computer-, Netz- und Neue-Medien-Ethik sowie Maschinenethik“. Sowohl die Bereiche der Informations-, Roboter- und Maschinenethik als auch die der Künstlichen Intelligenz und der Robotik wurden ausgebaut. Es finden sich nun Begriffe wie „Brain-Computer Interface“, „Gesichtserkennung“ und „Echokammer“ darin. 2014 und 2015 war das Projekt noch mit dem Wunsch gestartet, die Informationsethik weiterleben zu lassen und die Maschinenethik einem breiteren Publikum nahezubringen. Das Buch erschien 2016 und wurde seitdem etwa 40.000 Mal heruntergeladen (im Gesamten und in Teilen). In der Zwischenzeit explodierten die Themenbereiche förmlich. Eine zweite Auflage war dringend notwendig. Auf über 300 Seiten kann man sich nun einen Überblick über vergangene, gegenwärtige und zukünftige Entwicklungen verschaffen und sich Definitionen bekannter und weniger bekannter Phänomene aneignen. Weitere Informationen über www.springer.com/gp/book/9783658266639.

Abb.: Frau mit Buch

Next Frontiers

„The ‚Next Frontiers‘ conference will bring scientists and science fiction authors into contact. Different sciences getting into interdisciplinary conversations plus authors of fiction offering new, even revolutionary perspectives will open up the territory for new visions of the future. The conference aims at surmounting old, dysfunctional patterns of thinking. Central to this is the reality transforming potential of literature, film and other arts, and the huge contribution of fictional world building to real scientific and technological breakthroughs.“ This is the introductory text for a conference to be held in Stuttgart from 27 to 29 June 2019. The opening lecture will be given by the information and machine ethicist Prof. Dr. Oliver Bendel. He is going to talk about approaches and artifacts of machine ethics. The writer Andreas Brandhorst will then give an introduction to artificial intelligence. On the panel they both will discuss with the journalist Constantin Schnell. Further information via www.next-frontiers.de/en/.

Fig.: A spaceship

Save the Hedgehogs!

Between June 2019 and January 2020, the sixth artifact of machine ethics will be created at the FHNW School of Business. Prof. Dr. Oliver Bendel is the initiator, the client and – together with a colleague – the supervisor of the project. Animal-machine interaction is about the design, evaluation and implementation of (usually more sophisticated or complex) machines and computer systems with which animals interact and communicate and which interact and communicate with animals. Machine ethics has so far mainly referred to humans, but can also be useful for animals. It attempts to conceive moral machines and to implement them with the help of further disciplines such as computer science and AI or robotics. The aim of the project is the detailed description and prototypical implementation of an animal-friendly service robot, more precisely a mowing robot called HAPPY HEDGEHOG (HHH). With the help of sensors and moral rules, the robot should be able to recognize hedgehogs (especially young animals) and initiate appropriate measures (interruption of work, expulsion of the hedgehog, information of the owner). The project has similarities with another project carried out earlier, namely LADYBIRD. This time, however, more emphasis will be placed on existing equipment, platforms and software. The first artifact at the university was the GOODBOT – in 2013.

Fig.: A happy hedgehog

A Great Moment in Machine Ethics

The 23rd Berlin Colloquium of the Daimler and Benz Foundation took place on May 22, 2019. It was dedicated to care robots, not only from the familiar positions, but also from new perspectives. The scientific director, Prof. Dr. Oliver Bendel, invited two of the world’s best-known machine ethicists, Prof. Dr. Michael Anderson and Prof. Dr. Susan L. Anderson. Together with Vincent Berenz, they had programmed a Nao robot with a series of values that determine its behavior and simultaneously help a person in a simulated elderly care facility. A contribution to this appeared some time ago in the Proceedings of the IEEE. For the first time, they presented the results of this project to a European audience, and their one-hour presentation, followed by a twenty-minute discussion, can be considered a great moment in machine ethics. Other internationally renowned scientists, such as the Japan expert Florian Coulmas, also took part. He dealt with artefacts from Japan and relativized the frequently heard assertion that the Japanese considered all things to be inspired. Several media reported on the Berlin Colloquium, for example Neues Deutschland.

Fig.: A Nao robot

Basics and Artifacts of Machine Ethics

More and more autonomous and semi-autonomous machines such as intelligent software agents, specific robots, specific drones and self-driving cars make decisions that have moral implications. Machine ethics as a discipline examines the possibilities and limits of moral and immoral machines. It does not only reflect ideas but develops artifacts like simulations and prototypes. In his talk at the University of Potsdam on 23 June 2019 („Fundamentals and Artifacts of Machine Ethics“), Prof. Dr. Oliver Bendel outlined the fundamentals of machine ethics and present selected artifacts of moral and immoral machines, Furthermore, he discussed a project which will be completed by the end of 2019. The GOODBOT (2013) is a chatbot that responds morally adequate to problems of the users. The LIEBOT (2016) can lie systematically, using seven different strategies. LADYBIRD (2017) is an animal-friendly robot vacuum cleaner that spares ladybirds and other insects. The BESTBOT (2018) is a chatbot that recognizes certain problems and conditions of the users with the help of text analysis and facial recognition and reacts morally to them. 2019 is the year of the E-MOMA. The machine should be able to improve its morality on its own.

Fig.: The LIEBOT

Das siebte Artefakt der Maschinenethik

An der Hochschule für Wirtschaft FHNW entsteht zwischen Juni 2019 und Januar 2020 das siebte Artefakt der Maschinenethik. Ideen- und Auftraggeber ist Prof. Dr. Oliver Bendel. Die Maschinenethik bringt moralische und unmoralische Maschinen hervor, derzeit als Konzepte, Simulationen oder Prototypen. Die maschinelle Moral ist überwiegend fest verankert, über Prinzipien bzw. Metaregeln sowie Regeln. Die Maschinen sind damit zu bestimmten Aktionen in der Lage, zu anderen nicht. Ein Ansatz, der eine gewisse Flexibilität verheißt, ist das Moralmenü (kurz MOME). Über dieses überträgt der Besitzer oder Benutzer seine eigene Moral, seine Vorstellungen und Überzeugungen zu Gut und Böse, seine Wertmaßstäbe, seine Verhaltensregeln auf die Maschine. Diese agiert und reagiert so, wie er dies auch tun würde, und zwar im Detail. Er trifft womöglich auf bestimmte Voreinstellungen, hat aber eine gewisse Freiheit, diese zu verändern oder neue Standardeinstellungen festzulegen. Im Projekt wird ein MOME prototypisch implementiert, das auf ein bereits bestehendes System oder ein im Projekt entwickeltes System zugreift.

Abb.: Ein Moralmenü für einen Sprachassistenten