Kategorie: Künstliche Intelligenz

Das virtuelle Abbild

Das Replika-Projekt wurde von Eugenia Kuyda und Phil Dudchuk mit der Idee begonnen, ein persönliches KI-System zu schaffen, das einem hilft, sich auszudrücken und zu beobachten und zu erfahren, indem es ein hilfreiches Gespräch anbietet. So sehen es zumindest die Macher und formulieren es auf ihrer Website replika.ai. Es sei ein Raum, in dem man seine Gedanken, Gefühle, Überzeugungen, Erfahrungen, Erinnerungen, Träume sicher teilen kann, eine „private perceptual world“ (Website replika.ai). Ohne Zweifel handelt es sich um einen der besten Chatbots, der mehr kann und ist als die meisten Chatbots, ein KI-System, das sich einem immer mehr annähert, in verschiedener Hinsicht. Ob Replika aber wirklich therapeutischen Nutzen hat, wie manche sagen, ob gar therapeutische Maßnahmen, die von Menschen ausgehen, ersetzt werden können, muss kritisch untersucht werden. In dem DPA- bzw. APA-Beitrag von Regina Wank, der in ca. 50 Zeitungen und Zeitschriften veröffentlicht wurde, darunter Focus, Der Standard und Heise Online, kommen Marita Skjuve von der Universität Oslo und Oliver Bendel von der Hochschule für Wirtschaft FHNW zu Wort.

Abb.: Das virtuelle Abbild

The BESTBOT Project

The book chapter „The BESTBOT Project“ by Oliver Bendel, David Studer and Bradley Richards was published on 31 December 2019. It is part of the 2nd edition of the „Handbuch Maschinenethik“, edited by Oliver Bendel. From the abstract: „The young discipline of machine ethics both studies and creates moral (or immoral) machines. The BESTBOT is a chatbot that recognizes problems and conditions of the user with the help of text analysis and facial recognition and reacts morally to them. It can be seen as a moral machine with some immoral implications. The BESTBOT has two direct predecessor projects, the GOODBOT and the LIEBOT. Both had room for improvement and advancement; thus, the BESTBOT project used their findings as a basis for its development and realization. Text analysis and facial recognition in combination with emotion recognition have proven to be powerful tools for problem identification and are part of the new prototype. The BESTBOT enriches machine ethics as a discipline and can solve problems in practice. At the same time, with new solutions of this kind come new problems, especially with regard to privacy and informational autonomy, which information ethics must deal with.“ (Abstract) The BESTBOT is an immoral machine in a moral one – or a moral machine in an immoral one, depending on the perspective. The book chapter can be downloaded from link.springer.com/referenceworkentry/10.1007/978-3-658-17484-2_32-1.

Fig.: The BESTBOT project

KI und Big Data in der Versicherung

Die Euroforum-Konferenz „Automatisation & Data Analytics: Praktische Nutzung von KI in Versicherungen“ findet am 12. und 13. März 2020 in München statt. „Robotics und KI gesteuerte Prozessautomatisierung bieten der Assekuranz sowohl im Antrags- als auch Schadenmanagement die Chance zur Erhöhung von Qualität, Effizienz und Kundenzufriedenheit. Am ersten Konferenztag stellen Experten der Versicherer Allianz, VKB, Cosmos, Gothaer und das Start-up Joonko erfolgreiche Automatisierungsprojekte vor, berichten über ihre Umsetzungserfahrungen und geben Tipps und Tricks.“ (Website Konferenz) „Zukünftig wird ein Versicherer, der es schafft, eine gute Datenaufbereitung, -Qualität und -Sicherheit herzustellen, entscheidende Wettbewerbsvorteile haben. Doch bisher hängen die Daten der Versicherer unstrukturiert in Silos fest und können nicht für KI-Systeme genutzt werden. Am zweiten Konferenztag zeigen Experten von Google, Allianz, Markel, Coya und getsafe auf, wie Versicherer ihre Datensilos aufbrechen und aktivieren können.“ (Website Konferenz) Auch Wissenschaftlerinnen und Wissenschaftler geben Input. Dr. Andrea Cornelius spricht über die „Einführung von KI-Projekten“, Prof. Dr. Oliver Bendel über „KI und Big Data in der Versicherung aus ethischer Sicht“. Der Flyer kann hier heruntergeladen werden.

Ein alternatives BGE

Die Automatisierung schreitet weltweit voran. Neuartige Industrie- und Serviceroboter sowie mächtige KI-Systeme verbreiten sich. Einige Arbeiter und Angestellte werden aus dem System herausfallen. Wie sichern wir ihre Zukunft? Der Beitrag von Oliver Bendel mit dem Titel „Willkommen auf der Erde!“ baut auf seinem Vortrag „Considerations on Unconditional Basic Income and Basic Property“ auf und wurde in der UnternehmerZeitung 9/2019 veröffentlicht. Er erörtert den Vorschlag des bedingungslosen Grundeigentums, u.a. mit den Begriffen der Gerechtigkeit und Ungerechtigkeit. Bereits gut bekannt ist die Idee des bedingungslosen Grundeinkommens. Die Schweiz hat darüber abgestimmt, und nicht wenige waren dafür. Aber letztlich hat es nicht gereicht. Der Ansatz des bedingungslosen Grundeigentums, sozusagen eines alternativen BGE, ist radikaler. Der Roboterphilosoph beendet seinen Artikel, der hier heruntergeladen werden kann, mit den folgenden Worten: „Die Welt ist aufgeteilt unter den Reichen und Mächtigen. Es besteht die Gefahr, dass Automatisierung und Autonomisierung die Ungleichheit und die Ungerechtigkeit verstärken. Und genau dagegen erhebt sich Widerspruch von gesellschaftlicher und von wissenschaftlicher Seite. Sicherlich ist das BGE eine Sozialutopie. Aber eine solche kann zur richtigen Zeit durchaus etwas in der Realität bewirken.“

Abb.: Ein alternative BGE

Über Superintelligenz und Supermoral

Oliver Bendel spricht am 13. Oktober 2019 beim 21. Turmdersinne-Symposium über „Das Verschmelzen von maschineller und menschlicher Moral“. Die Maschinenethik bringt moralische Maschinen hervor. Man gibt ihnen moralische Regeln vor, an die sie sich halten, oder lässt sie solche entwickeln und abändern. Was passiert, wenn der Mensch seine Verantwortung abgibt und wenn die maschinelle Moral von der menschlichen abweicht, etwa indem sie mehr Moralität aufweist oder sich zur Supermoral entwickelt (die die Schwester der Superintelligenz wäre)? Hier sind auch Informations- und Roboterethik gefragt. Das Konzept des Cyborgs ist bekannt: Ein Organismus wird mit einer technischen Struktur erweitert. Aber was ist, wenn wir mit einer moralischen Maschine verschmelzen? Verbessert sich unsere Moral oder verlieren wir diese in gewisser Hinsicht? Ein zukünftiges Konzept könnte der umgekehrte Cyborg sein: Eine technische Struktur wird mit einem Organismus oder einem Organ – etwa einem menschlichen Gehirn – angereichert. Dies könnte ein Weg sein, den Tod zu besiegen. Aber wie entfaltet sich in diesem Konstrukt die Moral? Entsteht ein moralisch neuartiger Mensch oder eine neuartige moralische Maschine? Maschinen-, Informations- und Roboterethik sind gefordert.

Abb.: Superintelligenz und Supermoral als Supergirls

Die Vermehrung der Liebespuppen

„Liebespuppen (engl. ‚love dolls‘) unterscheiden sich von klassischen Gummipuppen durch ihre lebensechte Gestaltung. Sie haben Kopf und Körper, die täuschend echt anzusehen sind. Sie haben künstliche Haut, unter der sich Gel befindet, sodass sich ihre Gliedmaßen echt anfühlen. An ausgewählten Stellen erwärmen sie sich oder sondern sie Flüssigkeit ab. Metallskelette erlauben unterschiedliche Positionen. Man kann Liebespuppen kaufen, um sie zuhause zu benutzen, man kann sie mieten, stunden- oder tageweise, oder in speziellen oder normalen Etablissements antreffen. Die meisten von ihnen sind Mädchen und Frauen nachempfunden, nur wenige dem männlichen Geschlecht.“ So beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon, verfasst von Oliver Bendel. Interessanterweise werden Fantasy- und Comicfiguren von manchen Männern gezielt gesucht bzw. bevorzugt. „Wie weit die Abweichung vom Menschen gehen darf, ist weitgehend unerforscht. Ist jemand bereit, sich sexuell mit Daisy Duck oder Minnie Mouse einzulassen? Es könnte sein, dass für die Mehrheit hier eine Grenze überschritten wäre, zumal es sich für Erwachsene vielfach um Figuren aus der Kindheit handelt.“ Der Beitrag ist am 7. August 2019 erschienen und kann über wirtschaftslexikon.gabler.de/definition/liebespuppen-121148 heruntergeladen werden.

Abb.: Wer ist echt?

AI’s Next Ethical Challenge

Parallel to his work in machine ethics, Oliver Bendel is trying to establish animal-machine interaction (AMI) as a discipline. He was very impressed by Clara Mancini’s paper „Animal-Computer Interaction (ACI): A Manifesto“ on animal-computer interaction. In his AMI research, he mainly investigates robots, gadgets, and devices and their behavior towards animals. There are not only moral questions, but also questions concerning the design of outer appearance and the ability to speak. The general background for his considerations is that more and more machines and animals meet in closed, half-open and open worlds. He believes that semi-autonomous and autonomous systems should have rules so that they treat animals well. They should not disturb, frighten, injure or kill them. Examples are toy robots, domestic robots, service robots in shopping malls and agricultural robots. Jackie Snow, who writes for New York Times, National Geographic, and Wall Street Journal, has talked to several experts about the topic. In an article for Fast Company, she quotes the ethicists Oliver Bendel and Peter Singer. Clara Mancini is also expressing her point of view. The article with the title „AI’s next ethical challenge: how to treat animals“ can be downloaded here.

Fig.: A couple of elephants

Vortrag zu Maschinenethik und KI

Die Künstliche Intelligenz hat zunächst die menschliche oder tierische Intelligenz als Referenz und versucht, sie in bestimmten Aspekten abzubilden. Sie kann zudem anstreben, von der menschlichen oder tierischen Intelligenz abzuweichen, etwa indem sie mit ihren Systemen die Probleme anders löst. Die Maschinenethik widmet sich der maschinellen Moral, bringt sie hervor und untersucht sie. Ob man die Begriffe und Methoden der Maschinenethik mag oder nicht – man muss anerkennen, dass neuartige autonome Maschinen entstehen, die in einem gewissen Sinne vollständiger als frühere erscheinen. Es verwundert fast, dass sich die künstliche Moral nicht viel früher zur künstlichen Intelligenz gesellt hat. Nun scheinen vor allem Maschinen, die menschliche Intelligenz und menschliche Moral für überschaubare Anwendungsbereiche simulieren, eine gute Idee zu sein. Aber was ist, wenn eine Superintelligenz mit einer Supermoral eine neue Art bildet, die der unseren überlegen ist? Das ist natürlich Science-Fiction. Aber auch etwas, das manche Wissenschaftler erreichen wollen. Prof. Dr. Oliver Bendel aus Zürich stellt in seinem Vortrag am 18. Juli 2019 ab 18:30 Uhr am KIT gegenwärtige Entwicklungen und künftige Möglichkeiten vor und nimmt eine kritische Einordnung vor. Er schließt damit das Colloquium Fundamentale des Sommersemesters ab. Weitere Informationen über www.zak.kit.edu/colloquium_fundamentale.

Chatbots as Moral and Immoral Machines

The papers of the CHI 2019 workshop „Conversational Agents: Acting on the Wave of Research and Development“ (Glasgow, 5 May 2019) are now listed on convagents.org. The extended abstract by Oliver Bendel (School of Business FHNW) entitled „Chatbots as Moral and Immoral Machines“ can be downloaded here. The workshop brought together experts from all over the world who are working on the basics of chatbots and voicebots and are implementing them in different ways. Companies such as Microsoft, Mozilla and Salesforce were also present. Approximately 40 extended abstracts were submitted. On 6 May, a bagpipe player opened the four-day conference following the 35 workshops. Dr. Aleks Krotoski, Pillowfort Productions, gave the first keynote. One of the paper sessions in the morning was dedicated to the topic „Values and Design“. All in all, both classical specific fields of applied ethics and the young discipline of machine ethics were represented at the conference. More information via chi2019.acm.org.

Next Frontiers

„The ‚Next Frontiers‘ conference will bring scientists and science fiction authors into contact. Different sciences getting into interdisciplinary conversations plus authors of fiction offering new, even revolutionary perspectives will open up the territory for new visions of the future. The conference aims at surmounting old, dysfunctional patterns of thinking. Central to this is the reality transforming potential of literature, film and other arts, and the huge contribution of fictional world building to real scientific and technological breakthroughs.“ This is the introductory text for a conference to be held in Stuttgart from 27 to 29 June 2019. The opening lecture will be given by the information and machine ethicist Prof. Dr. Oliver Bendel. He is going to talk about approaches and artifacts of machine ethics. The writer Andreas Brandhorst will then give an introduction to artificial intelligence. On the panel they both will discuss with the journalist Constantin Schnell. Further information via www.next-frontiers.de/en/.

Fig.: A spaceship