Über Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein

„Die Shift ist eine exklusive Plattform zur Digitalen Ethik. Was begeistert uns bei neuartigen Angeboten, die dank Big Data, Künstlicher Intelligenz & Co. möglich sind? Was akzeptieren Kundinnen und Kunden sowie die Gesellschaft, was nicht? Und wo sind Grenzen nötig? Diese Fragen stehen im Zentrum der Shift. Es geht um aktuelle Kundenerwartungen sowie Akzeptanz und Vertrauen im digitalen Raum.“ (Website Shift) So steht es auf der Website der Tagung, die 2023 bereits in die fünfte Runde geht. Die Keynote hält Prof. Dr. Oliver Bendel aus Zürich. Er geht zunächst auf soziale Roboter ein und auf die Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein. Dann beschreibt er mehrere soziale Roboter, die auch als Serviceroboter im engeren Sinne eingesetzt werden. Auf dieser empirischen Basis stellt er ethische Überlegungen an. Am Ende behandelt er Sprachmodelle wie GPT-3 bzw. GPT-4 und PaLM-E. Er zeigt, wie soziale Roboter von diesen profitieren können, in ihrer Sprachfähigkeit und bei ihrer Wahrnehmung der Welt. Auch Ansätze der Maschinenethik sind ein Thema, von der Einpflanzung  moralischer Regeln bis hin zur Nutzung von Moralmenüs. Weitere Informationen zur Shift über digitalresponsibility.ch/digitaleethikkonferenz/

Abb.: So stellt sich DALL-E einen humanoiden Roboter vor

Wildlife Cameras, Drones, and Robots

The ACI took place from 5 to 8 December 2022 in Newcastle upon Tyne. It is the world’s leading conference on animal-computer interaction. The proceedings were published in the ACM Library on March 30, 2023. They include the paper „A Face Recognition System for Bears: Protection for Animals and Humans in the Alps“ by Oliver Bendel and Ali Yürekkirmaz. From the abstract: „Face recognition, in the sense of identifying people, is controversial from a legal, social, and ethical perspective. In particular, opposition has been expressed to its use in public spaces for mass surveillance purposes. Face recognition in animals, by contrast, seems to be uncontroversial from a social and ethical point of view and could even have potential for animal welfare and protection. This paper explores how face recognition for bears (understood here as brown bears) in the Alps could be implemented within a system that would help animals as well as humans. It sets out the advantages and disadvantages of wildlife cameras, ground robots, and camera drones that would be linked to artificial intelligence. Based on this, the authors make a proposal for deployment. They favour a three-stage plan that first deploys fixed cameras and then incorporates camera drones and ground robots. These are all connected to a control centre that assesses images and developments and intervenes as needed. The paper then discusses social and ethical, technical and scientific, and economic and structural perspectives. In conclusion, it considers what could happen in the future in this context.“ The proceedings can be accessed via dl.acm.org/doi/proceedings/10.1145/3565995.

Fig.: A brown bear

When Robots Mix Cocktails

From March 27-29, 2023, the AAAI 2023 Spring Symposia will feature the symposium „Socially Responsible AI for Well-being“ by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The venue is usually Stanford University. For staffing reasons, this year the conference will be held at the Hyatt Regency in San Francisco. On March 28, Prof. Dr. Oliver Bendel and Lea Peier will present their paper „How Can Bar Robots Enhance the Well-being of Guests?“. From the abstract: „This paper addresses the question of how bar robots can contribute to the well-being of guests. It first develops the basics of service robots and social robots. It gives a brief overview of which gastronomy robots are on the market. It then presents examples of bar robots and describes two models used in Switzerland. A research project at the School of Business FHNW collected empirical data on them, which is used for this article. The authors then discuss how the robots could be improved to increase the well-being of customers and guests and better address their individual wishes and requirements. Artificial intelligence can play an important role in this. Finally, ethical and social problems in the use of bar robots are discussed and possible solutions are suggested to counter these.“ More Information via aaai.org/conference/spring-symposia/sss23/.

Fig.: When robots mix cocktails

When Robots Hug People

From March 27-29, 2023, the AAAI 2023 Spring Symposia will feature the symposium „Socially Responsible AI for Well-being“ by Takashi Kido and Keiki Takadama. The venue is usually Stanford University. For staffing reasons, this year the conference will be held at the Hyatt Regency in San Francisco. On March 28, Prof. Dr. Oliver Bendel will present the paper „Increasing Well-being through Robotic Hugs“. It was written by himself, Andrea Puljic, Robin Heiz, Furkan Tömen, and Ivan De Paola. From the abstract: „This paper addresses the question of how to increase the acceptability of a robot hug and whether such a hug contributes to well-being. It combines the lead author’s own research with pioneering research by Alexis E. Block and Katherine J. Kuchenbecker. First, the basics of this area are laid out with particular attention to the work of the two scientists. The authors then present HUGGIE Project I, which largely consisted of an online survey with nearly 300 participants, followed by HUGGIE Project II, which involved building a hugging robot and testing it on 136 people. At the end, the results are linked to current research by Block and Kuchenbecker, who have equipped their hugging robot with artificial intelligence to better respond to the needs of subjects.“ More information via aaai.org/conference/spring-symposia/sss23/.

Fig.: The HUGGIE-Team (without Oliver Bendel)

Maschinenethik in der Technischen Rundschau 3/2023

Der Maschinenethik sind in der Technischen Rundschau 3/2023 ganze vier Seiten gewidmet. Den Kern bilden ein Beitrag von Prof. Dr. Oliver Bendel und ein Interview mit ihm. Der Informations- und Maschinenethiker hatte sich in den 1990er-Jahren mit der Frage nach der Verantwortung von Maschinen beschäftigt und war zum Schluss gekommen, dass diese weder Verantwortung tragen noch zur Verantwortung gezogen werden können. Zudem interessierte er sich dafür, ob Maschinen Pflichten haben können, was er verneint – stattdessen spricht er in einem schwachen Sinne von Verpflichtungen oder von Aufgaben. Ab 2012 widmete er sich dann der Begründung einer funktionalen Moral von Maschinen. Maschinen können nach seiner Meinung keinen guten oder bösen Willen haben, kein Bewusstsein, keine Intuition und keine Empathie. Man kann ihnen aber moralische Regeln beibringen, an die sie sich strikt halten oder die sie selbst abändern und anpassen. Ab 2013 wurden von ihm zahlreiche Prototypen der Maschinenethik entwickelt. Die Disziplin hat auch im Zusammenhang mit generativer KI an Bedeutung gewonnen. Das E-Paper des Hefts kann über epaper.technische-rundschau.ch/?/shelf/ aufgerufen werden. Der Beitrag steht als PDF zur Verfügung.

Abb.: Maschinen haben keinen guten oder bösen Willen

Sprachmodelle für Roboterarme

Forscher von Google und der TU Berlin haben am 6. März 2023 ein verkörpertes, multimodales Sprachmodell mit dem Namen PaLM-E vorgestellt, das virtuelle und physische Welt verbindet. So kann man per Spracheingabe einen Haushaltsroboter steuern und ihn dazu bringen, bestimmte Gegenstände zu holen oder andere Tätigkeiten zu verrichten. Der Prompt kann dabei vom Benutzer spontan aus seiner eigenen Beobachtung der Umwelt abgeleitet werden. Die Idee der PaLM-E-Architektur besteht laut Projektwebsite darin, kontinuierliche, verkörperte Beobachtungen wie Bilder, Zustandseinschätzungen oder andere Sensormodalitäten in den Spracheinbettungsraum eines vortrainierten Sprachmodells zu integrieren. Im Beispielvideo lautet die Instruktion in deutscher Übersetzung: „Bring mir die Reischips aus der Schublade“. Golem schreibt in einem Artikel: „Dazu analysiert Palm-E die Daten der Roboterkamera, ohne dass eine vorverarbeitete Szenendarstellung erforderlich ist. Damit entfällt die Notwendigkeit, dass ein Mensch die Daten vorverarbeitet oder kommentiert, was eine autonomere Robotersteuerung ermöglicht.“ (Golem, 10. März 2023) Im Video fährt der Roboter – ein Roboterarm auf einer mobilen Plattform, ganz ähnlich wie Lio – zur Schublade und entnimmt ihr die Packung. In dem Paper „ChatGPT for Robotics: Design Principles and Model Abilities“ von Microsoft-Forschern wird eine ähnliche Strategie verfolgt, wobei ChatGPT verwendet wird, das wiederum auf GPT-3 basiert. Das Paper zu PaLM-E kann hier heruntergeladen werden.

Abb.: Über Sprachmodelle kann man Roboterarme steuern

Der kleine Lehrer

Alpha Mini ist ein sozialer Roboter, der sich durch geringe Größe (und damit gute Transportfähigkeit) und weitgehende natürlichsprachliche und motorische Fähigkeiten auszeichnet. Er kann im Schulunterricht eingesetzt werden, sowohl als Lehrer und Tutor als auch als Tool, mit dem man programmiert. Am 8. März 2023 startete an der Hochschule für Wirtschaft FHNW das Projekt „Little Teacher“, in dem Alpha Mini eine Hauptrolle spielt. Initiator ist Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert über Conversational Agents und soziale Roboter forscht. Andrin Allemann trägt im Rahmen seiner Abschlussarbeit zum Projekt bei. Alpha Mini soll in eine Lernumgebung integriert werden und mit anderen Komponenten wie einem Display interagieren und kommunizieren können. Er soll mit Hilfe von Bildern und Texten einfachen Lernstoff vermitteln und die Kinder durch gestisches und mimisches Feedback motivieren. Es handelt sich also um einen kleinen Lehrer mit großen Möglichkeiten. Grundsätzlich soll er sich an das neue schweizerische Bundesgesetz über den Datenschutz (Neues Datenschutzgesetz, nDSG) halten. Das Projekt dauert bis August 2023. Die Ergebnisse werden im Anschluss daran veröffentlicht.

Abb.: Alpha Mini in Aktion

Generative KI im Wirtschaftslexikon

„Generative KI (‚KI‘ steht für ‚künstliche Intelligenz‘) ist ein Sammelbegriff für KI-basierte Systeme, mit denen auf scheinbar professionelle und kreative Weise alle möglichen Ergebnisse produziert werden können, etwa Bilder, Video, Audio, Text, Code, 3D-Modelle und Simulationen. Menschliche Fertigkeiten sollen erreicht oder übertroffen werden. Generative KI kann Schüler, Studenten, Lehrkräfte, Büromitarbeiter, Politiker, Künstler und Wissenschaftler unterstützen und Bestandteil von komplexeren Systemen sein. Man spricht auch, dem englischen Wort folgend, von Generative AI, wobei ‚AI‘ die Abkürzung für ‚Artificial Intelligence‘ ist.“ Mit diesen Worten beginnt ein Beitrag, der am 22. Februar 2023 im Gabler Wirtschaftslexikon erschienen ist. Es werden Informationen zu Entwicklung und Hintergrund sowie einige Beispiele für Anwendungen gegeben. Am Ende wird die Perspektive der Ethik eingenommen, unter besonderer Berücksichtigung der Informationsethik. Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/generative-ki-124952 abgerufen werden.

Abb.: Von Midjourney generiertes Porträt

Sieht unheimlich echt aus!

Adrian Lobe stellte einige Fragen an Oliver Bendel, die sich auf Generative AI bezogen. Im Fokus waren KI-basierte Bildgeneratoren, die inzwischen fotorealistische Abbildungen erschaffen können. Solche legte der Journalist dem in Zürich lebenden Professor vor und wollte von ihm wissen, wie er diese Retortenmenschen aus ethischer Sicht bewertet. Die Antwort begann mit den folgenden Worten: „Es spricht zunächst nichts dagegen, mit Hilfe von KI-basierten Bildgeneratoren fiktive Frauen und Männer zu erschaffen, also Avatare oder Hologramme. Man schadet niemandem, wenn die Bilder auf dem Bildschirm oder in einem Gerät erscheinen. Problematischer sind Deep Fakes, die reale Personen teilweise oder gesamthaft abbilden. Sie können die Menschenwürde verletzen, vor allem bei sexuellen Darstellungen. Aus ästhetischer Sicht ist es interessant, Menschen auf die Welt zu bringen, die man selbst schön findet, die man aber weder in den Medien noch im Alltag antrifft. Es wird ein Mensch gemacht, hat Wagner in ‚Faust II‘ ausgerufen, als Mephistopheles zu ihm getreten ist. Allerdings war es nur ein kleiner Homunkulus. Nun kann man seinen Traum verwirklichen und eine realistische Figur nach seinen Wünschen kreieren. Das ist auch aus ethischer Sicht relevant – denn es kann zu einem guten, erfüllten Leben beitragen. Vielleicht werden einem bestimmte Wünsche auch erst klar. Man versteht besser, was man will und was man nicht will, was man schön findet und was nicht. Man lernt sich besser kennen und kann auch anderen mitteilen, was man will und schön findet. Nur werden sich nicht alle Wünsche erfüllen lassen. Und eine Partnerschaft ist auch kein Wunschkonzert.“ Es folgten durchaus kritische Anmerkungen zur Praxis des Bildergenerierens sowie weitere Antworten auf weitere Fragen. Einzelne Statements wurden in den Artikel „Sieht unheimlich echt aus!“ (auch: „Unheimlich echt!“) übernommen, der am 27. Februar 2023 in ca. 20 Schweizer Zeitungen erschienen ist, etwa in der Aargauer Zeitung, in der Luzerner Zeitung und im St. Galler Tagblatt, und auf den in der Folge etwa bei 20 Minuten Bezug genommen wurde.

Abb.: Goethe und Schiller

Neue Münchhausen-Maschinen?

Der Lügenbot wurde 2013 von Prof. Dr. Oliver Bendel im Kontext der Maschinenethik ausgedacht und 2016 von seinem damaligen Projektmitarbeiter und Studenten Kevin Schwegler umgesetzt. Vorgestellt wurde er auf KI-Konferenzen an der Stanford University und in Krakau. Der LIEBOT, wie sein englischer Name lautet, suchte auf eine Frage des Benutzers eine wahre oder richtige Antwort und manipulierte diese nach einer von sieben verschiedenen Strategien. Er behauptete z.B. im Sommer 2016, dass Donald Trump der Präsident der USA sei. Oliver Bendel sprach auch von Münchhausen-Maschinen. Heutzutage gibt es Chatbots und Generative-KI-Systeme wie ChatGPT, die auf Machine Learning beruhen und die immer wieder die Unwahrheit sagen. So werden Angaben zu Personen hinzugedichtet und Quellen erfunden. Zu diesem Thema befragte Technology Review den Informations- und Maschinenethiker aus Zürich. Dabei ging es auch um seine damalige Forschung zu Münchhausen-Maschinen. Mit Chatbots, Sprachassistenten und sozialen Robotern befasst sich Oliver Bendel bereits seit einem Vierteljahrhundert. Sie waren auch der Gegenstand seiner Doktorarbeit, die er an der Universität St. Gallen verfasste und die Ende 2002 abgeschlossen und Anfang 2003 angenommen wurde. Das Interview wurde am 22. Februar 2023 veröffentlicht und kann hier abgerufen werden.

Abb.: Neue Münchhausen-Maschinen?

Die Schönheit der Roboter, Avatare und Hologramme

„Schönheit (engl. ‚beauty‘) im allgemeinen Sinne ist eine visuelle, akustische, haptische oder ideelle Kategorie, die etwa das Schönsein des Himmels am Tag und in der Nacht, der Natur, eines Körpers, eines Gesichts, eines Gegenstands, eines Kunstwerks oder einer Formel umfasst.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Mehrere Abschnitte widmen sich der Schönheit aus Sicht der Philosophie und anderer Disziplinen und dem Zusammenhang zwischen Kunst und Schönheit. Auch auf Wirtschaft und Schönheit wird eingegangen. So heißt es etwa mit Blick auf die Technik: „Cyborgs gefallen sich mit äußerlich sichtbaren technischen Strukturen. Humanoide und soziale Roboter überzeugen auf den ersten Blick mit ihrer künstlichen Schönheit, wobei bei Androiden das Uncanny Valley im Wege ist, das unheimliche Tal. So wirken Sophia, Harmony und Erica trotz oder gerade wegen ihrer perfekten Gesichter unheimlich, wenn sie lächeln. Avatare und (Pseudo-)Hologramme können fotorealistisch und hochattraktiv sein.“ Im letzten Abschnitt wird wiederholt die Perspektive der Ethik eingenommen. Der Beitrag ist am 22. Februar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/schoenheit-124971 aufgerufen werden.

Abb.: Mit DALL-E generiertes Pseudo-Hologramm

Überlegungen zum künstlichen Bewusstsein

„Was sollte Ihrer Einschätzung nach zum Thema ‚Bewusste Künstliche Intelligenz‘ diskutiert werden, geschehen oder unterbleiben? Welche Forschungsansätze und Narrative gehören weiterentwickelt, aufgelöst und ersetzt, welche Irrwege endlich beendet, und welche Ansätze und Nischen sollten deutlich mehr Aufmerksamkeit erhalten? Aus welchen Gründen wird derzeit überhaupt über Künstliches Bewusstsein gesprochen, und was halten Sie für vielversprechend, möchte man ‚Bewusstsein‘ künstlich bewirken?“ Diese Fragen stellte Ende 2020 das KIT – Karlsruher Institut für Technologie verschiedenen Experten auf dem Gebiet. Oliver Bendel reichte im Frühjahr 2021 den Beitrag „Soziale Roboter und ihr Sprung in die Zukunft“ ein. Er stellte die drei Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein (Künstliches Bewusstsein) in einen Zusammenhang und klärte, welchen Gegenstand sie jeweils haben und welchen Ursprung oder welches Vorbild dieser wiederum hat. Dann zeigte er auf, wie die Soziale Robotik die drei Disziplinen einbezieht und ausnutzt. Der Band soll 2023 bei KIT Scientific Publishing unter dem Titel „Künstliche Intelligenz und Bewusstsein – Statements 2021“ erscheinen. Der Beitrag kann hier als Preprint heruntergeladen werden.

Abb.: Überlegungen zum künstlichen Bewusstsein

Neue Antwortmaschinen

Stephanie Schnydrig von CH Media war im Gespräch mit Oliver Bendel und fragte u.a., wie ChatGPT und Co. unsere Art, Dinge im Internet zu suchen, verändern werden. Die Antwort des Wirtschaftsinformatikers und Technikphilosophen lautete: „Die Benutzer erhalten nicht nur eine Liste mit Websites, sondern auch eine Antwort in natürlicher Sprache bzw. einen fertigen Text. So kann man bei Bing – in das ChatGPT integriert ist – nach einem Rezept für ein Drei-Gänge-Menü für sechs Personen fragen, die sich vegetarisch ernähren. Bing schlägt nicht nur das Drei-Gänge-Menü vor, sondern erlaubt auch gezielte Nachfragen zur Zubereitung. Die Benutzer müssen nicht hunderte von Rezepten vergleichen und bewerten. Ihr Aufwand reduziert sich. Zugleich stellt sich die Frage, ob das Rezept wirklich etwas taugt. Aus welchen Quellen stammt es? Und sind wirklich alle Gänge vegetarisch? Wen kann ich zur Verantwortung ziehen, wenn etwas schiefgeht? Zum Teil können die Systeme die Quellen nennen, zum Teil aber auch nicht – Machine Learning verwischt sozusagen die Herkunft ein Stück weit. Vermutlich werden wir, sofern die Systeme gesprochene Sprache beherrschen, viel mehr mit Suchmaschinen sprechen als früher. Die Ausgaben taugen grundsätzlich zum Dialog, und die Systeme finden auf fast alles eine Antwort. Ich konnte schon vor Jahren Google Assistant fragen, wer Rihanna ist. Der Sprachassistent hat die Antwort auf Wikipedia gefunden und vorgelesen. Heute bedient sich ein Tool aus tausenden Quellen und variiert die Antwort. Man hat ganz andere Möglichkeiten.“ Es wurden weitere Fragen gestellt und Antworten gegeben. Die eine oder andere Aussage wurde im Artikel „Bingen wir bald, anstatt zu googeln?“ verwendet, der am 9. Februar 2023 in der Luzerner Zeitung und verschiedenen anderen Schweizer Zeitungen erschienen ist.

Abb.: Wie lautet die Antwort?

Wenn der Mensch zur Maschine wird

„Wenn der Mensch zur Maschine wird. Gespräche mit und über Siri, Roboter und Cyborgs“ – so lautet der Titel eines Themenwochenendes, das im Zentrum Paul Klee (ZPK) in Bern stattfindet, als Ergänzung zur Ausstellung „Paul Klee. Vom Rausch der Technik“. Der deutsche Maler, der in Münchenbuchsee bei Bern geboren wurde, lebte laut Website des ZPK in einer Zeit großer „technologischer Transformationen“. „Die neuen Errungenschaften stellten die Wahrnehmung der Menschen von Materie, Raum und Zeit infrage. Röntgenstrahlen, Telefone, Elektrizität lösten das gewohnte Weltbild auf. Darauf reagierten auch Künstler wie Paul Klee.“ (Website ZPK) Für Sonntag, den 5. März 2023, hat Fabienne Eggelhöfer, die Chefkuratorin des bekannten Museums, Prof. Dr. Oliver Bendel eingeladen. Sie geht mit ihm der Frage „Cyborgs – die besseren Menschen?“ nach. Über Cyborgs, Animal Enhancement und Human Enhancement sowie Biohacking und Bodyhacking hat der Wirtschaftsinformatiker und Technikphilosoph bereits mehrmals publiziert und referiert. Zuletzt erschienen seine Buchbeiträge „Chips, Devices, and Machines within Humans: Bodyhacking as Movement, Enhancement and Adaptation“ (Narr, 2021) und „Bodyhacking als Phänomen und Trend“ (Springer Vieweg, 2022). Auf der Architekturbiennale in Venedig hatte er Ende 2021 auf Einladung des Salon Suisse zu „Human and Animal Enhancement in the Context of Architecture“ vorgetragen. Weitere Informationen zum Gespräch im ZPK sind hier erhältlich. Zusätzlich steht ein Flyer zur Verfügung.

Abb.: Wenn der Mensch zur Maschine wird

Proceedings of the 14th International Conference on Social Robotics

The proceedings of ICSR 2022 were published in early 2023. Included is the paper „The CARE-MOMO Project“ by Oliver Bendel and Marc Heimann. From the abstract: „In the CARE-MOMO project, a morality module (MOMO) with a morality menu (MOME) was developed at the School of Business FHNW in the context of machine ethics. This makes it possible to transfer one’s own moral and social convictions to a machine, in this case the care robot with the name Lio. The current model has extensive capabilities, including motor, sensory, and linguistic. However, it cannot yet be personalized in the moral and social sense. The CARE-MOMO aims to eliminate this state of affairs and to give care recipients the possibility to adapt the robot’s ‚behaviour‘ to their ideas and requirements. This is done in a very simple way, using sliders to activate and deactivate functions. There are three different categories that appear with the sliders. The CARE-MOMO was realized as a prototype, which demonstrates the functionality and aids the company in making concrete decisions for the product. In other words, it can adopt the morality module in whole or in part and further improve it after testing it in facilities.“ The book (part II of the proceedings) can be downloaded or ordered via link.springer.com/book/10.1007/978-3-031-24670-8.

Fig.: A CARE-MOMO for Lio

When a Robot Hugs You

As part of the AAAI 2023 Spring Symposia in San Francisco, the symposium „Socially Responsible AI for Well-being“ is organized by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The paper „Increasing Well-being and Health through Robotic Hugs“ by Oliver Bendel, Andrea Puljic, Robin Heiz, Furkan Tömen, and Ivan De Paola was accepted. The talk will take place between March 26 and 29, 2023 at Hyatt Regency, San Francisco Airport. The symposium website states: „For our happiness, AI is not enough to be productive in exponential growth or economic/financial supremacies but should be socially responsible from the viewpoint of fairness, transparency, accountability, reliability, safety, privacy, and security. For example, AI diagnosis system should provide responsible results (e.g., a high-accuracy of diagnostics result with an understandable explanation) but the results should be socially accepted (e.g., data for AI (machine learning) should not be biased (i.e., the amount of data for learning should be equal among races and/or locations). Like this example, a decision of AI affects our well-being, which suggests the importance of discussing ‚What is socially responsible?‘ in several potential situations of well-being in the coming AI age.“ (Website AAAI) According to the organizers, the first perspective is „(Individually) Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to design Responsible AI for well-being. The second perspective is „Socially Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to implement social aspects in Responsible AI for well-being. More information via www.aaai.org/Symposia/Spring/sss23.php#ss09.

Fig.: A robot like ARI could hug you