Robots in Bars, Cafés, and Restaurants

As part of the AAAI 2023 Spring Symposia in San Francisco, the symposium „Socially Responsible AI for Well-being“ is organized by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The paper „How Can Bar Robots Enhance the Well-being of Guests?“ by Oliver Bendel and Lea K. Peier was accepted. The talk will take place between March 26 and 29, 2023 at Hyatt Regency, San Francisco Airport. The symposium website states: „For our happiness, AI is not enough to be productive in exponential growth or economic/financial supremacies but should be socially responsible from the viewpoint of fairness, transparency, accountability, reliability, safety, privacy, and security. For example, AI diagnosis system should provide responsible results (e.g., a high-accuracy of diagnostics result with an understandable explanation) but the results should be socially accepted (e.g., data for AI (machine learning) should not be biased (i.e., the amount of data for learning should be equal among races and/or locations). Like this example, a decision of AI affects our well-being, which suggests the importance of discussing ‚What is socially responsible?‘ in several potential situations of well-being in the coming AI age.“ (Website AAAI) According to the organizers, the first perspective is „(Individually) Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to design Responsible AI for well-being. The second perspective is „Socially Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to implement social aspects in Responsible AI for well-being. More information via www.aaai.org/Symposia/Spring/sss23.php#ss09.

Fig.: Humans and robots can bring water

Die Sprache von Menschen, Tieren und Maschinen

„Bei Sprache handelt es sich um Systeme der Kommunikation von Menschen, Tieren und Maschinen.“ Mit diesem Satz beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Nach grundsätzlichen Erklärungen und einer Darstellung von Entwicklung und Geschichte werden Ansätze einer Systemtheorie entwickelt, in der existenziellen Systemen wie Sprache und Moral sowie zivilisatorischen Systemen wie Politik, Journalismus, Wissenschaft und Kunst eine spezifische Aufgabe zugesprochen wird, deren Erfüllung jeweils durch ein anderes System beeinträchtigt werden kann. Diese Überlegungen kulminieren in der Feststellung, Sinn und Zweck von Sprache sei „nicht, moralisch zu sein“. Im Weiteren wird auf Dialogsysteme eingegangen, die natürliche Sprache verwenden, und auf Technologien und Programme, die Sprache übersetzen und bearbeiten, wobei hier oft ein Bias vorhanden ist und von offiziellen Regeln abgewichen wird. Ein eigener Abschnitt gehört den wirtschaftlichen Aspekten. Am Ende wird Kritik an Strömungen innerhalb der zuständigen Disziplin geübt: „Die Linguistik, die Sprache eigentlich beobachten und untersuchen sollte, gefällt sich in ihren vermeintlich progressiven Ausläufern darin, ihren eigenen Gegenstand zu manipulieren und zu instrumentalisieren. Dem tritt allerdings die klassische Sprachwissenschaft entgegen, wobei sie alte Größe zurückgewinnt, sofern sie nicht im Nostalgischen und Konservatorischen steckenbleibt.“ Zudem werden Überlegungen u.a. aus der Perspektive von Informationsethik, Medienethik, Roboterethik und Wirtschaftsethik angestellt. Der Beitrag ist am 31. Januar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/sprache-124739 aufgerufen werden.

Abb.: Eine Diskussion unter Menschen

Über ChatGPT und Co. bei BR24

BR24 hat sich mit Oliver Bendel – Technikphilosoph, Informationsethiker und Maschinenethiker – über DeepL Write, ChatGPT und andere KI-Anwendungen unterhalten. Bei DeepL Write sieht er das Problem, dass das Unternehmen nicht die offiziellen Rechtschreibregeln befolgt, sondern eigene – oder aus dem Datenmaterial abgeleitete. Auch Microsoft Word hat seit vielen Jahren eine ungeeignete Rechtschreibprüfung, was vermutlich mit der zunehmend genutzten KI zusammenhängt. ChatGPT sieht Oliver Bendel als mächtiges Werkzeug an, das man für allerlei Belange nutzen kann. Hochschulen und Medien müssen freilich darauf reagieren. Studenten und Studentinnen müssen grundsätzlich fremdes geistiges Eigentum markieren und referenzieren – vielleicht gibt es bei ChatGPT kein geistiges Eigentum in diesem Sinne mehr, aber man kann auf jeden Fall sagen, dass es sich nicht um das geistige Eigentum der Anwender handelt. Auch Gesichtserkennung hält Oliver Bendel für eine mächtige Technologie. Man solle die Forschung dazu nicht begrenzen, wohl aber die Anwendung, und Gesichtserkennung zum Zweck der Massenüberwachung verbieten. Er berichtet von einem System, das von ihm und Ali Yürekkirmaz konzipiert wurde und das Gesichtserkennung für Bären in den Alpen vorsieht. Ihr Paper „A Face Recognition System for Bears: Protection for Animals and Humans in the Alps“ wird demnächst in den Proceedings der „Ninth International Conference on Animal-Computer Interaction (ACI’22)“ erscheinen. Bei BR24 stehen ein Podcast mit dem Interview von Cosima Weiske mit Oliver Bendel und ein Artikel mit Aussagen von ihm zur Verfügung.

Abb.: Gesichtserkennung kann man auf Bären anwenden

Artefakte der Maschinenethik an der ZHdK

Die Tagung LaborDigital am 10. Februar 2023 an der Zürcher Hochschule der Künste (ZHdK), iniitiert und organisiert u.a. von Charlotte Axelsson, wird mit einem Vortrag von Prof. Dr. Johan Frederik Hartle eröffnet, dem Rektor der Akademie der bildenden Künste Wien. Es folgt die Keynote „Labor-Geschichte/n. Zur Archäologie eines ‚kreativen‘ Raumes“ von Prof. Dr. Oliver Ruf von der Hochschule Bonn-Rhein-Sieg. Von 11.00 bis 12.30 Uhr finden parallel drei Experimental Learning Labs statt, nämlich „Artefakte der Maschinenethik“ mit Prof. Dr. Oliver Bendel (FHNW, Muttenz, Olten und Brugg-Windisch), „Dance Lab & Avatar“ mit Regina Bäck (München) und „Experimental Game Cultures Labs“ mit Prof. Dr. Margarete Jahrmann (Universität für angewandte Kunst Wien). Nach dem Mittagessen folgen die ZHdK Lab Visits und ab 15.30 Uhr weitere Experimental Learning Labs. Um 16.30 Uhr hält Raphaële Bidault-Waddington, Gründerin des LIID Future Lab in Paris, die zweite Keynote mit dem Titel „Designing Art-based Future Labs“. Johan Frederik Hartle beschließt mit weiteren Ausführungen die Tagung. Weitere Informationen über paul.zhdk.ch/course/view.php?id=2312.

Abb.: 13 Konzepte und Artefakte der Maschinenethik

Grundlagen der KI-Ethik

Wie bereits in seinen Büchern „400 Keywords Informationsethik“ und „450 Keywords Digitalisierung“ beschäftigt sich Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon mit der KI-Ethik. Er stellt ausführlich dar, wie diese mit den klassischen Bereichsethiken und mit der Maschinenethik verbunden ist. Am Ende heißt es: „Die KI-Ethik erhält Auftrieb durch Entwicklungen seit 2022 wie ChatGPT, DeepL Write und DALL-E 2 oder Lensa. Zunächst handelt es sich dabei um ebenso mächtige wie disruptive Tools. Bei ChatGPT stellt sich die Frage, wie fehleranfällig und vorurteilsbeladen das Reinforcement Learning from Human Feedback (RLHF) ist. Zudem kann die Datenqualität unter die Lupe genommen werden. Auch wenn Dokumente und Quellen von Arbeitskräften klassifiziert und qualifiziert werden, bedeutet das nicht unbedingt, dass ihre Verwendung unproblematisch ist. Die Arbeitsverhältnisse selbst thematisiert die Wirtschaftsethik. Bei DeepL Write kann man beanstanden, dass dieses Lektorprogramm offensichtlich nicht den Regeln des Rechtschreibrats, sondern eigenen Regeln folgt. So werden Rechtschreibfehler, die mit Sonderzeichen im Wortinneren zusammenhängen, also mit einer sogenannten geschlechtergerechten Sprache, nicht als solche erkannt bzw. beanstandet. Dies kann man in der Informationsethik und in der Medienethik untersuchen. DALL-E 2 und Lensa schaffen auf der Grundlage von Text- und Bildmaterial wirkungsstarke Visualisierungen. Angeblich werden bei Lensa die weiblichen Avatare sexualisiert, was aber nicht von allen Benutzern bestätigt werden kann. Die KI-Ethik dringt zum Kern vor, zum Machine Learning, und widmet sich der Herkunft und Qualität der Daten und dem Aufbau, der Anpassung und der Weiterentwicklung der Algorithmen. Sie behandelt mehr und mehr, wie Roboterethik und Maschinenethik, ganz grundsätzliche Aspekte, etwa in Bezug auf das Verhältnis zwischen (den Funktionsweisen und Endresultaten) künstlicher und menschlicher Intelligenz.“ Der Beitrag ist am 24. Januar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/ki-ethik-124922 abgerufen werden.

Abb.: Wo sich Mensch und Maschine berühren

Woke KI?

DeepL Write ist ein KI-basiertes Lektorprogramm, das seit 17. Januar 2023 als Betaversion über www.deepl.com/write verfügbar ist, für die deutsche und die englische Sprache. Es wurde nun mit Hilfe einer Rechtschreibtafel geprüft, die Oliver Bendel im Jahre 2015 erstellt und seitdem immer wieder aktualisiert hat. 1. Der Satz „Alkohol in Maßen ist gesund.“ wurde nicht beanstandet. Bei „Herzlich willkommen“ wurde „Willkommen“ vorgeschlagen. Als weitere Alternative zeigte das Tool „Herzlich Willkommen“ an, also eine falsche Schreibweise. 2. „Frühlingserwachen“ wurde nicht beanstandet. Als erste Alternative zu „Social-Media-Konferenz“ wurde „Social Media Konferenz“ vorgeschlagen, also eine falsche Schreibweise. Hier muss zwingend durchgekoppelt werden. Für „Donaudampfschifffahrtsgesellschaftskapitänsmütze“ offerierte DeepL Write solide Optionen wie „Kapitänsmütze der Donaudampfschifffahrtsgesellschaft“. 3. Zu „Wir betreten unser neues Haus, in dem man komfortabel wohnen kann.“ wurden merkwürdige Alternativen wie „Betreten unseres neuen Hauses, in dem es sich gut leben lässt.“ aufgeführt. „Wirksam führen“ wurde als korrekt erkannt, ebenso „Lenny und Laura gehen schwimmen.“ (wobei hier die Alternative „Lenny und Laura gehen baden.“ aufgelistet wurde). 4. Der korrekte Plural in „Die erste und die zweite Sturmwarnung wurden missachtet.“ war auch Bestandteil der verschiedenen Varianten. 5. „Das gibt’s doch nicht!“ wurde als korrekt erkannt, ebenso „Willis Würstchenbude“. Allerdings zeigte das Tool hier als erste Alternative „Willi’s Würstchenbude“ an. Diese Schreibweise lässt der Duden inzwischen zu, was freilich nicht für das Wörterbuch spricht. 6. „Der Chef fragt sie, ob sie zufrieden ist.“ wurde korrekt als Aussagesatz erkannt und nicht zum Fragesatz umformuliert. 7. Bei „Komm, wir essen, Oma!“ lautete eine Alternative „Komm, lass uns essen, Oma!“. Die Oma blieb in allen Fällen unversehrt. „Die Ärzt*innen“ wurde als korrekt angesehen, obwohl diese Schreibweise in der amtlich fixierten Sprache nicht existiert. Erst als zweite Alternative wurde „Ärztinnen und Ärzte“ unterbreitet. Hier wäre „Ärzte und Ärztinnen“ vorzuziehen, wenn man zuerst die am wenigsten komplexe Form aufführen will. Die weibliche Form nennt man bei Begrüßungen zuerst. Das korrekte generische Maskulinum fehlt bei den Vorschlägen ganz. Das Ergebnis des Tests ist, dass DeepL Write in wesentlichen Aspekten versagt, in Bezug auf Groß- und Kleinschreibung, Zusammen- und Getrenntschreibung und die amtlich fixierten Regeln. Es werden zum Teil eigene Rechtschreibregeln angewandt. Oder Regeln, die eine ideologisch motivierte Gruppe aufgestellt hat – böse Zungen würden deshalb von woker KI sprechen. Damit ist der Nutzen des Tools grundsätzlich in Frage gestellt. „Schreiben Sie klar, präzise und fehlerfrei“, so heißt es auf der Website – das kann man offenbar besser, indem man sich auf sein Sprachgefühl und den Rechtschreibrat verlässt.

Abb.: Die Rechtschreibtafel

Was sind Polizeiroboter?

„Als Polizeiroboter werden unterschiedliche Robotertypen bezeichnet, die in der Polizeiarbeit verwendet werden oder verwendet werden sollen. Sie erkennen auffällige Bewegungen und Tätigkeiten, nehmen verdächtige Geräusche und Gefahrenstoffe wahr und entschärfen Bomben. Sie informieren und kontrollieren Passanten oder begleiten Polizisten bei Einsätzen. Sie sind in der Luft unterwegs, als Drohnen, oder auf dem Boden, als Roboter mit Rädern und Raupen, wenige von ihnen im Wasser. Einige von ihnen weisen eine humanoide Gestalt auf, andere eine animaloide, die Mehrzahl allerdings eine dinghafte, als Kegel respektive Quader mit Ausstülpungen und Öffnungen. Manche von ihnen sind autonom, andere teilautonom, wieder andere ferngesteuert. All diese Maschinen können – bei einem weiten Begriff – als Serviceroboter qualifiziert werden.“ Mit diesen Worten beginnt ein Beitrag, der am 24. Januar 2023 im Gabler Wirtschaftslexikon erschienen ist. Die unterschiedlichen Typen werden vorgestellt. Zudem werden mehrere Beispiele für Polizeiroboter gegeben. So sind oder waren beispielsweise Spot von Boston Dynamics, REEM von PAL Robotics und O-R3 von OTSAW Robotics im Einsatz. Der Beitrag von Prof. Dr. Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/polizeiroboter-124917 aufgerufen werden.

Abb.: Ein Motorrad der Polizei

Cappuccio und Cuba Libre vom Robo

„Gastronomieroboter sind Serviceroboter, die in Bars, Clubs, Cafés und Restaurants sowie in bestimmten Arealen von Bahnhöfen, Flughäfen und Shopping Malls u.a. bei der Zubereitung, beim Servieren und beim Transport von Getränken und Speisen eingesetzt werden und die Servicekräfte unterstützen oder verdrängen. Manche von ihnen sind soziale Roboter oder haben zumindest soziale Merkmale bzw. Fähigkeiten. Die Gastronomie ist ein komplexer Bereich mit unterschiedlichen Aufgaben und Anforderungen. In einer Einrichtung gibt es oft eine Küche, eine Bar mit einer Theke und Barhockern und ein Areal auf einer Ebene oder auf mehreren Ebenen mit Tischen und Stühlen, wobei ein Buffet integriert sein kann. Büro, Mitarbeiterraum und Empfangsbereich stehen dem Personal zur Verfügung bzw. dienen dem Erstkontakt mit dem Kunden. Entsprechend treten ganz unterschiedliche Typen von Robotern auf.“ Mit diesen Worten beginnt ein Artikel von Prof. Dr. Oliver Bendel, der am 24. Januar 2023 im Gabler Wirtschaftslexikon erschienen ist. Die unterschiedlichen Typen werden vorgestellt. Zudem werden mehrere Beispiele für Barroboter (wie Toni und Barney) und Servierroboter (wie BellaBot und Plato) gegeben. Der Beitrag schließt ab mit der Perspektive der Ethik. Er kann über wirtschaftslexikon.gabler.de/definition/gastronomieroboter-124903 aufgerufen werden.

Abb.: Ein Coffee to go

ChatGPT als moralische Maschine

„‚ChatGPT‘ steht für ‚Chat‘ (dt. ‚Schwatz‘) und ‚Generative Pre-trained Transformer‘. Es handelt sich um einen Chatbot (bzw. ein System zum Produzieren von Content) von OpenAI, dem das Sprachmodell GPT-3.5 desselben Unternehmens zugrunde liegt. Die Trainingsdaten stammen u.a. aus Foren, Artikeln und Büchern sowie gesprochener Sprache. Benutzt wird eine spezielle Form von Machine Learning, nämlich Reinforcement Learning from Human Feedback (RLHF). Dabei sind Menschen involviert, die bestimmte Antworten für gut und richtig befinden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert.» Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon, der am 24. Januar 2023 erschienen ist. Es wird auf Entwicklung und Hintergrund eingegangen. Zudem wird die Perspektive der Ethik eingenommen. So wird der Chatbot zum ersten Mal als moralische Maschine bezeichnet und damit in die Nähe von GOODBOT und BESTBOT gerückt. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/chatgpt-124904 aufgerufen werden. Er wird in den nächsten Monaten immer wieder aktualisiert und erweitert.

Abb.: Einer der ersten Chatbots, die eine moralische Maschine waren

Der virtuelle Wiedergänger

Bild hat Oliver Bendel zu sogenannten Replicas befragt, zu Kopien lebender oder verstorbener Personen. Nach ihm können folgende Komponenten vorhanden sein: 1. Die Person, um die es geht, etwa ein unheilbar Kranker, lässt sich in Aktion filmen, ähnlich wie im Falle der ABBAtare, bei denen man Motion Capture verwendet hat. Das kann Tage und Woche dauern. So erhält man Bilder, aus denen man (virtuelle, hier auch animierte) Avatare und Pseudohologramme (letztlich Projektionen) erzeugen kann, mitsamt der individuellen Bewegungen bzw. der individuellen Mimik und Gestik. 2. Es kann auch eine synthetische Kopie der jeweiligen Stimme erzeugt werden. Dies ist seit mehreren Jahren mit nur wenigen Minuten Aufnahmematerial möglich. Der Avatar spricht dann wie die kranke bzw. dann verstorbene Person, mit all den charakteristischen Eigenschaften ihrer Stimme. 3. Zudem wird persönliches Material eingelesen, etwa Briefe, E-Mails und Sprachnachrichten, und von einem KI-System verwertet. Dieses lernt, wie die Person sich schriftlich und mündlich ausdrückt, und kann der Replica diese Eigenschaften mitgeben. Zusätzlich kann der Kranke auch bestimmte Sequenzen einsprechen, um das Datenmaterial zu vervollständigen. Eine echte Replica nutzt KI, um aus diesen Daten zu lernen und Neues zu machen. 4. Der letzte Schritt, der aber von kaum einer Firma beschritten wird, ist die Anfertigung eines humanoiden Roboters – man würde hier von einem Androiden sprechen. Diese Anfertigung mit Silikonhaut und Motoren im Gesicht ist sehr teuer und letztlich noch weniger realistisch als der (virtuelle) Avatar. Diese und andere Antworten sind in den Artikel „Das ist dran am Zukunftsplausch mit den Toten“ von Peter Amenda eingeflossen, der am 16. Januar 2023 in der Onlineausgabe erschienen ist.

Abb.: Die virtuelle Wiedergängerin

AAAI Symposium on AI for Well-being

As part of the AAAI 2023 Spring Symposia in San Francisco, the symposium „Socially Responsible AI for Well-being“ is organized by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The AAAI website states: „For our happiness, AI is not enough to be productive in exponential growth or economic/financial supremacies but should be socially responsible from the viewpoint of fairness, transparency, accountability, reliability, safety, privacy, and security. For example, AI diagnosis system should provide responsible results (e.g., a high-accuracy of diagnostics result with an understandable explanation) but the results should be socially accepted (e.g., data for AI (machine learning) should not be biased (i.e., the amount of data for learning should be equal among races and/or locations). Like this example, a decision of AI affects our well-being, which suggests the importance of discussing ‚What is socially responsible?‘ in several potential situations of well-being in the coming AI age.“ (Website AAAI) According to the organizers, the first perspective is „(Individually) Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to design Responsible AI for well-being. The second perspective is „Socially Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to implement social aspects in Responsible AI for well-being. More information via www.aaai.org/Symposia/Spring/sss23.php#ss09.

Fig.: Golden Gate Bridge

Paper on Robots in Policing

In January 2023, the Proceedings of Robophilosophy 2022 were published. Included is the paper „Robots in Policing“ by Oliver Bendel. From the abstract: „This article is devoted to the question of how robots are used in policing and what opportunities and risks arise in social terms. It begins by briefly explaining the characteristics of modern police work. It puts service robots and social robots in relation to each other and outlines relevant disciplines. The article also lists types of robots that are and could be relevant in the present context. It then gives examples from different countries of the use of robots in police work and security services. From these, it derives the central tasks of robots in this area and their most important technical features. A discussion from social, ethical, and technical perspectives seeks to provide clarity on how robots are changing the police as a social institution and with social actions and relationships, and what challenges need to be addressed.“ (Abstract) Robots in policing is a topic that has not received much attention. However, it is likely to become considerably more topical in the next few years. More information about the conference on cas.au.dk/en/robophilosophy/conferences/rpc2022.

Fig.: An old police car

Social Robots in Social Institutions

In January 2023, the proceedings of Robophilosophy 2022 were published, under the title „Social Robots in Social Institutions“. „This book presents the Proceedings of Robophilosophy 2022, the 5th event in the biennial Robophilosophy conference series, held in Helsinki, Finland, from 16 to 19 August 2022. The theme of this edition of the conference was Social Robots in Social Institutions, and it featured international multidisciplinary research from the humanities, social sciences, Human-Robot Interaction, and social robotics. The 63 papers, 41 workshop papers and 5 posters included in this book are divided into 4 sections: plenaries, sessions, workshops and posters, with the 41 papers in the ‚Sessions‘ section grouped into 13 subdivisions including elderly care, healthcare, law, education and art, as well as ethics and religion. These papers explore the anticipated conceptual and practical changes which will come about in the course of introducing social robotics into public and private institutions, such as public services, legal systems, social and healthcare services, or educational institutions.“ (Website IOS Press) The proceedings contain the paper „Robots in Policing“ by Oliver Bendel and the poster „Tamagotchi on our couch: Are social robots perceived as pets?“ by Katharina Kühne, Melinda A. Jeglinski-Mende, and Oliver Bendel. More information via www.iospress.com/catalog/books/social-robots-in-social-institutions.

Fig.: Alpha Mini in action

Vom GOODBOT bis zu @ve

Seit 2012 sind auf Initiative von Oliver Bendel 21 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik entstanden, die eine Idee veranschaulichen oder die Umsetzung verdeutlichen sollen. Darunter sind Conversational Agents wie GOODBOT, LIEBOT, BESTBOT und SPACE THEA, die auf Konferenzen, in Journals und in den Medien vorgestellt wurden, und tierfreundliche Maschinen wie LADYBIRD und HAPPY HEDGEHOG, die in Büchern wie „Die Grundfragen der Maschinenethik“ von Catrin Misselhorn und auf indischen, chinesischen und amerikanischen Plattformen behandelt wurden. Die letzten Entwicklungen waren ein Konzept von Ali Yürekkirmaz für ein System mit Gesichtserkennung zur Identifizierung von Bären, das von den Teilnehmern der ACI 2022 in Newcastle upon Tyne diskutiert wurde, und das CARE-MOME, präsentiert von Oliver Bendel und Marc Heimann auf der ICSR 2022 in Florenz. Beide Proceedings erscheinen Anfang 2023. In den nächsten Tagen wird das Projekt mit @ve beendet, einem auf GPT-3 basierenden Chatbot für Latein. Man kann mit ihr in dieser toten Sprache plaudern, die dann ganz lebendig erscheint, und ihr auf Deutsch verschiedene Fragen, etwa zur Grammatik, stellen. Der Entwickler Karim N’diaye stellt das Projekt am 19. Januar 2023 an der Hochschule für Wirtschaft FHNW in kleiner Runde vor. In weiteren Projekten will man sich ausgestorbenen und gefährdeten Sprachen widmen. Eine aktualisierte Übersicht zu allen Artefakten ist auf informationsethik.net und maschinenethik.net zu finden.

Abb.: Die aktualisierte Übersicht zu den Artefakten

Weder Rechte noch Pflichten

Das Sonntagsblatt hat mit Prof. Dr. Oliver Bendel ein Interview zu KI und Sozialer Robotik geführt. Unter anderem ging es um Roboter als Subjekte und Objekte der Moral. Der Informations- und Maschinenethiker hält nichts davon, Robotern moralische Rechte zuzugestehen. Er knüpft solche an Empfindungs- und Leidensfähigkeit bzw. Bewusstsein. Nach seiner Ansicht verläuft ein tiefer Graben zwischen Lebewesen und Dingen, und es sei gefährlich, diesen einebnen zu wollen. Auch von Pflichten möchte er nicht sprechen, höchstens von Verpflichtungen, die wir Robotern auferlegen, noch besser von Aufgaben, die sie erledigen müssen, unter Beachtung moralischer Regeln. Sogenannte moralische Maschinen sind neue, merkwürdige, unvollständige Subjekte der Moral. Sie haben kein Bewusstsein, keine Intuition, keine Empathie, keinen freien Willen, aber sie können – als autonome Maschinen alleingelassen in geschlossenen, halboffenen oder offenen Welten – verschiedene Optionen erwägen und eine von ihnen auswählen. Dies ist eine funktionale Moral, die allenfalls mit der Moral mit Fundamentalisten zu tun hat – aber in der Maschinenwelt kann sie eine Bereicherung darstellen, vor allem wenn Maschinen auf Menschen oder Tiere treffen, etwa als soziale Roboter. Das Interview kann in schriftlicher Form über www.sonntagsblatt.de/artikel/maschinenethiker-oliver-bendel-gpt3-pflegeroboter nachgelesen werden. Zudem gibt es einen Podcast von 45 Minuten Länge.

Abb.: Nicht einmal WALL-E hat moralische Rechte und Pflichten

 

AAAI Spring Symposia at Hyatt Regency, SFO Airport

The Association for the Advancement of Artificial Intelligence (AAAI) is pleased to present the AAAI 2023 Spring Symposia, to be held at the Hyatt Regency, San Francisco Airport, California, March 27-29. According to the organizers, Stanford University cannot act as host this time because of insufficient staff. Symposia of particular interest from a philosophical point of view are „AI Climate Tipping-Point Discovery“, „AI Trustworthiness Assessment“, „Computational Approaches to Scientific Discovery“, „Evaluation and Design of Generalist Systems (EDGeS): Challenges and methods for assessing the new generation of AI“, and „Socially Responsible AI for Well-being“. According to AAAI, symposia generally range from 40–75 participants each. „Participation will be open to active participants as well as other interested individuals on a first-come, first-served basis.“ (Website AAAI) Over the past decade, the conference has become one of the most important venues in the world for discussions on robot ethics, machine ethics, and AI ethics. It will be held again at History Corner from 2024. Further information via www.aaai.org/Symposia/Spring/sss23.php.

Fig.: The conference will be held in California