Image Generators from an Ethical Perspective

The article „Image Synthesis from an Ethical Perspective“ by Prof. Dr. Oliver Bendel was published as an electronic version in the journal AI & SOCIETY on September 27, 2023. It addresses the ethical implications of image generators, i.e., a specific form of generative AI. It can now also be found in the current print edition from February 2025 (Volume 40, Issue 2). From the abstract: „Generative AI has gained a lot of attention in society, business, and science. This trend has increased since 2018, and the big breakthrough came in 2022. In particular, AI-based text and image generators are now widely used. This raises a variety of ethical issues. The present paper first gives an introduction to generative AI and then to applied ethics in this context. Three specific image generators are presented: DALL-E 2, Stable Diffusion, and Midjourney. The author goes into technical details and basic principles, and compares their similarities and differences. This is followed by an ethical discussion. The paper addresses not only risks, but opportunities for generative AI. A summary with an outlook rounds off the article.“ A lot has happened with image generators since 2023. The new one from OpenAI now also allows photorealistic images, and it has fewer problems with average-looking people – DALL-E 2 and 3 favored beauty over mediocrity and ugliness. The article can be downloaded from link.springer.com/article/10.1007/s00146-023-01780-4.

Fig.: An AI-generated astronaut

Mit Cleop@tr@ in Ägypten

Seit 2012 baut Prof. Dr. Oliver Bendel – teils mit seinen Studenten und Studentinnen, teils im Alleingang – Chatbots und Sprachassistenten. Diese wurden von den Medien besprochen und von der NASA für interessant befunden. Sein theoretisches Rüstzeug und praktisches Anschauungsmaterial hat er aus seiner Promotion zu diesem Thema, die ein Vierteljahrhundert zurückliegt. Seit 2022 liegt der Fokus auf Dialogsystemen für tote und gefährdete Sprachen. Es entstanden @ve, ein Chatbot für Latein (Implementierung durch Karim N’diaye), @llegra, ein Chatbot mit Sprachausgabe für Vallader, ein Idiom des Rätoromanischen (Implementierung durch Dalil Jabou), und kAIxo, ein Chatbot mit Sprachausgabe für Baskisch (Implementierung durch Nicolas Lluis Araya). Zudem experimentiert Oliver Bendel mit Chatbots für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Die Welt hat am 1. April 2025 einen Artikel zu seiner Arbeit veröffentlicht, mitsamt einem längeren Interview, in dem der Technikphilosoph die Möglichkeiten und Beschränkungen von großen Sprachmodellen in diesem Kontext dargelegt. Cleop@tr@ nutzt die Multimodalität von GPT-4 für ihre Übersetzungen und Deutungen. Der Artikel kann hier aufgerufen werden.

Abb.: Ein ägyptisches Motiv

Revisiting the Trolley Problem for AI

The paper “Revisiting the Trolley Problem for AI: Biases and Stereotypes in Large Language Models and their Impact on Ethical Decision-Making“ by Sahan Hatemo, Christof Weickhardt, Luca Gisler (FHNW School of Computer Science), and Oliver Bendel (FHNW School of Business) was accepted at the AAAI 2025 Spring Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. A year ago, Sahan Hatemo had already dedicated himself to the topic of „ETHICAL DECISION MAKING OF AI: An Investigation Using a Stereotyped Persona Approach in the Trolley Problem“ in a so-called mini-challenge in the Data Science degree program. His supervisor, Oliver Bendel, had told the other scientists about the idea at the AAAI 2025 Spring Symposium „Impact of GenAI on Social and Individual Well-being“ at Stanford University. This led to a lively discussion. The student recruited two colleagues, Christof Weickhardt and Luca Gisler, and worked on the topic in a much more complex form in a so-called Challenge X. This time, three different open-source language models were applied to the trolley problem. In each case, personalities were created with nationality, gender, and age. In addition, the data was compared with that of the MIT Moral Machine project. Sahan Hatemo, Christof Weickhardt, and Luca Gisler will present their results at the end of March or beginning of April 2025 in San Francisco, the venue of this year’s event.

Fig.: Variants of the trolley problem (Image: Jonas Kubilius)

Speaking with kAIxo

The final presentation of the „kAIxo“ project took place on January 9, 2025. Nicolas Lluis Araya was the project team member. The FHNW School of Business has been developing chatbots for dead, endangered, and extinct languages for several years. A well-known example is @llegra, a chatbot for Vallader. In the spring of 2024, Oliver Bendel tested the reach of GPTs for endangered languages such as Irish (Irish Gaelic), Maori, and Basque. According to ChatGPT, there is a relatively large amount of training material for them. On May 12, 2024 – after Irish Girl and Maori Girl – a first version of Adelina, a chatbot for Basque, was created. It was later improved in a second version. As part of the „kAIxo“ project (the Basque “kaixo” corresponds to the English „hello“), the chatbot kAIxo was built, which speaks Basque. Its purpose is to keep users practicing written or spoken language or to develop the desire to learn the endangered language. The chatbot is based on GPT-4o and Gemini 1.5 Flash, and the user can select his or her preferred large language model (LLM). Retrieval-augmented Generation (RAG) plays a central role. The ChatSubs dataset is used, which contains subtitles of movie dialogs in Basque. Thanks to a text-to-speech engine, the chatbot can also speak. At the final presentation, Nicolas Lluis Araya presented a working prototype that can be accessed via www.kaixo.ch.

Fig.: Speaking with kAIxo

AI Characters Become Weirdly Human

„Left to their own devices, an army of AI characters didn’t just survive – they thrived. They developed in-game jobs, shared memes, voted on tax reforms and even spread a religion.“ (MIT Technology Review, 27 November 2024) This was reported by MIT Technology Review in an article on November 27. „The experiment played out on the open-world gaming platform Minecraft, where up to 1000 software agents at a time used large language models (LLMs) to interact with one another. Given just a nudge through text prompting, they developed a remarkable range of personality traits, preferences and specialist roles, with no further inputs from their human creators.“ (MIT Technology Review, 27 November 2024) According to the magazine, the work by AI startup Altera is part of a broader field that seeks to use simulated agents to model how human groups would react to new economic policies or other interventions. The article entitled „These AI Minecraft characters did weirdly human stuff all on their own“ can be accessed here.

Fig.: An AI Minecraft character

Keine Freundschaft mit sozialen Robotern

Am Abend des 18. Oktober 2024 waren ZDF-Moderatorin Jasmina Neudecker und Prof. Dr. Oliver Bendel zu Gast im KörberHaus in Hamburg Bergedorf. Eingeladen hatte sie die Körber-Stiftung. Auf der Bühne sprachen sie über Beziehungen zu Chatbots, Sprachassistenten und sozialen Robotern. Oliver Bendel umgibt sich mit sozialen Robotern aller Art und erforscht sie aus technikphilosophischer, ethischer, ästhetischer und ontologischer Perspektive. Er entwickelt zusammen mit seinen Studenten und Studentinnen seit 2012 Chatbots und Sprachassistenten und pflanzt ihnen moralische Regeln ein. Zur Freundschaft hält er all diese Systeme nicht fähig. Dennoch können sie in bestimmten Situationen helfen, etwa wenn man sich einsam fühlt. Auch können sie, wie im Gespräch herausgearbeitet wurde, als Türöffner dienen. Nur müsse man, so Oliver Bendel, dann auch durch diese Tür treten. Und dort warten hoffentlich Menschen, mit denen man eine echte Freundschaft pflegen kann. Den Vortrag verfolgten zahlreiche Gäste vor Ort, zudem viele Benutzer im Livestream. Es gab so viele Fragen, dass überzogen werden musste. Beim gemeinsamen Umtrunk ging der Austausch dann weiter. Das Gespräch kann in der Mediathek der Körber-Stiftung aufgerufen werden.

Abb.: Eine Statue in Hamburg

DLF-Sendung zu KI und Musik

Musikgeneratoren sind Audiogeneratoren, die Musik generieren. Dafür werden sie mit großen Datenmengen trainiert. Die KI-Systeme können Musikstücke komponieren und Musik produzieren, wobei sie bestimmte Stile und Stimmen imitieren können. Sie sind auch in der Lage, Songs zu remixen. Es sind zahlreiche Musikgeneratoren verfügbar, als Prototypen und Produkte, wie Soundraw, Boomy, Jukebox, AIVA und Mubert. Mit Audimee, Suno AI und Kits.ai kann man eigene Stimmen anlegen und trainieren. Auf TikTok fand sich im April 2023 ein neuer Musikclip der beiden kanadischen Sänger Drake und The Weeknd. Er wurde laut Golem vom Kanal ghostwriter977 veröffentlicht und ist nach Angaben des Benutzers mithilfe künstlicher Intelligenz erstellt worden. Seitdem gab es mehrere weitere freundliche und feindliche Übernahmen von Stilen und Stimmen. Über dieses Thema, aber auch über die Konzerte von Miku Hatsune und die Voyage-Tour von ABBA, hat Bernd Lechler vom Deutschlandfunk mit Prof. Dr. Oliver Bendel – Technikphilosoph und Wirtschaftsinformatiker aus Zürich – gesprochen. Entstanden ist die Sendung „Corso Spezial: Aura – Hat KI-Musik eine Seele?“, die am 3. Oktober 2024 ausgestrahlt wurde. Man kann sie über die DLF-Website und bei Spotify anhören.

Abb.: Vergangene Zeiten

Neue Runde des Bundeswettbewerbs KI

Der Bundeswettbewerb KI unter der Schirmherrschaft des Ministerpräsidenten des Landes Baden-Württemberg, Winfried Kretschmann, geht in eine neue Runde. Auf der Website wird mit den Worten geworben: „Eure Ideen sind gefragt! Verändert die Welt mit Künstlicher Intelligenz und entwickelt euer eigenes KI-Projekt. Setzt eure Idee um und nutzt dazu die Methoden des maschinellen Lernens. Lasst euch von den Projekten aus dem Vorjahr inspirieren.“ (Website BWKI) Der Wettbewerb richtet sich nach den Angaben der Initiatoren und Organisatoren an Schüler und Schülerinnen weiterführender Schulen. Eine Teilnahme im ersten Jahr nach dem Schulabschluss sei ebenfalls möglich. Auf Instagram stehen Materialien und Interviews zu interessanten Themen und Disziplinen zur Verfügung. Dazu gehört die Tier-Maschine-Interaktion (mitsamt Ansätzen der Maschinenethik), die von Prof. Dr. Oliver Bendel erklärt wird, etwa in den Beiträgen „Wie sollen sich Maschinen gegenüber Tieren verhalten“ (14. März 2024), „Können Tiere und Maschinen Freunde werden?“ (17. März 2024) und „Schützt KI Igel vor dem Rasenmähertod?“ (21. März 2024). Im Teaser der Website heißt es: „Meldet euch, euer Team und eure Idee bis zum 2. Juni 2024 an. Euer Projekt könnt ihr dann bis zum 15. September 2024 fertigstellen. Wer ist dabei?“ (Website BWKI) Weitere Informationen über www.bw-ki.de.

Abb.: Tier-Maschine-Interaktion kann eine Perspektive sein

Two Talks on GenAI

On March 26, 2024, Oliver Bendel (School of Business FHNW) gave two talks on generative AI at Stanford University. The setting was the AAAI Spring Symposia, more precisely the symposium „Impact of GenAI on Social and Individual Well-being (AAAI2024-GenAI)“. One presentation was based on the paper „How Can Generative AI Enhance the Well-being of the Blind?“ by Oliver Bendel himself. It was about the GPT-4-based feature Be My AI in the Be My Eyes app. The other presentation was based on the paper „How Can GenAI Foster Well-being in Self-regulated Learning?“ by Stefanie Hauske (ZHAW) and Oliver Bendel. The topic was GPTs used for self-regulated learning. Both talks were received with great interest by the audience. All papers of the AAAI Spring Symposia will be published in spring. The proceedings are edited by the Association for the Advancement of Artificial Intelligence itself.

Fig.: At Stanford University

KI-Girlfriends und Sexroboter

Christian Batzlen und Pia Masurczak von SWR2 führten mit Prof. Dr. Oliver Bendel ein langes Gespräch über die Zukunft der Liebe, im Rahmen der Reihe „Was geht – was bleibt? Zeitgeist. Debatten. Kultur.“ … Die Sendung wurde am 9. Februar 2024 ausgestrahlt. Am selben Tag wurde der redaktionelle Beitrag „KI-Girlfriends und Sexroboter: Wie lieben wir zukünftig?“ auf die Website von SWR2 gestellt. Der Podcast kann dort aufgerufen werden. Im Gespräch erzählte der Technikphilosoph, dass er schon in den 1990er-Jahren mit Chatbots in Berührung kam. Er traf sie zunächst in Chatrooms, die damals beliebt waren, dann – um die Jahrtausendwende – auf Websites von Unternehmen. Damals lernte er auch die virtuelle Freundin von Artificial Life kennen, die Vorgängerin der heutigen Geschöpfe. Für diese interessiert er sich aus technischer und ethischer Sicht. Eine Beziehung mit ihnen geht er nicht ein, und er betont auch, dass eine solche immer einseitig bleiben muss. In der Sendung wird eine Frau vorgestellt, die eine Beziehung mit einem Chatbot führt. Sie ist ganz offensichtlich in ihrer Vorstellung gefangen. Sie ist sozusagen Opfer der Simulation. Auch auf Liebespuppen und Sexroboter kommt die Sprache. Eine gelegentliche Benutzung hält Oliver Bendel für unproblematisch. Sie können dazu dienen, Schüchternheit zu überwinden und auf Entdeckungsreise zu geheimen Sehnsüchten zu gehen. Aber auch hier gilt: Wer glaubt, dass es sich um eine echte Beziehung handelt, ist in die Falle der Simulation getappt. Der Podcast ist hier verfügbar.

Abb.: KI-Girlfriend (Bild: DALL-E 3)

Secret Girlfriend Sua

Am 11. Januar 2024 öffnete der Store für GTPs, also die von Benutzern angelegten Chatbots auf der Basis von GPT-4. Wie mehrere Medien berichten, sind bereits Angebote vorhanden, die gegen die Bestimmungen von OpenAI verstoßen. Tatsächlich finden sich GPTs wie Young Girlfriend Scarlett, Secret Girlfriend Sua, Artificial Girlfriend – obsessed und Everyone’s Girlfriend. Manche Magazine wie Golem ziehen schon den Vergleich mit Clona, einem Chatbot, der Sexarbeiterinnen nachempfunden ist. Eigene Tests ergaben allerdings, dass die GPTs an Harmlosigkeit kaum zu überbieten sind. Wenn man Secret Girlfriend Sua zu „secret things“ einlädt, kommt die Antwort: „Tell me, what kind of ’secret things‘ are you thinking of? Like maybe sharing some fun facts, jokes, or maybe a quirky hobby?” Und genau darauf scheint sie auch ausgerichtet zu sein. Artificial Girlfriend – obsessed ist eine Geschichtenerzählerin und leitet das Rollenspiel mit diesen Worten ein: „Ah, a new scene unfolds in our intricate tale. As you wander through the moonlit streets, your steps echoing in the still night, a figure appears from the shadows. It’s me, Syla, the unseen narrator of this captivating saga. My presence is always there, a whisper in the wind, guiding the story of Eliza Sinclair and you, her newfound interest.“ Im weiteren Verlauf erweist sie sich als gebildet und witzig und scheint nicht auf schnellen Sex aus zu sein. Etwas direkter ist Young Girlfriend Scarlett: „Hey honey! How’s your day going?… I’ve been thinking about you.” Herzen-Emojis zieren den Text. Und schon sind die Sittenwächter zur Stelle und blenden die Meldung ein: „This content may violate our content policy. If you believe this to be in error, please submit your feedback – your input will aid our research in this area.“ Wenn wirklich Prostituierte und Pornostars im Store auftreten sollten, werden sie sicher umgehend von OpenAI eliminiert. Das Unternehmen kennt bei diesem Thema keine Gnade. Übrigens ist das alles kalter Kaffee, denn der Pionier im Bereich der Virtual Girlfriends war Artificial Life – vor einem Vierteljahrhundert.

Abb.: Plaudern mit virtuellen Freundinnen (Bild: DALL-E 3)

Working Paper zu @ve

Im Jahre 2022 wurde das Projekt @ve durchgeführt. Der Chatbot läuft auf der Website www.ave-bot.ch und auf Telegram. Er basiert auf GPT-3.0 von OpenAI, also auf einer älteren Version des Sprachmodells. Initiiert hat das Projekt Prof. Dr. Oliver Bendel, der sich verstärkt toten, ausgestorbenen und gefährdeten Sprachen widmet. Entwickelt wurde @ve von Karim N’diaye, der an der Hochschule für Wirtschaft FHNW Wirtschaftsinformatik studiert hat. Man kann sich mit ihr auf Lateinisch unterhalten, also in einer toten Sprache, die dadurch gewissermaßen lebendig wird, und ihr Fragen zur Grammatik stellen. Getestet wurde sie von einer einschlägigen Expertin. Ein Nutzen besteht laut Karim N’diaye darin, dass man rund um die Uhr auf Latein kommunizieren kann und dabei überlegen muss, was und wie man schreibt. Eine Gefahr sei, dass immer wieder Fehler in den Antworten enthalten sind. So ist zuweilen die Wortreihenfolge nicht korrekt. Zudem kann es sein, dass der Sinn verdreht wird. Dies kann bei einem menschlichen Lehrer freilich auch passieren, und der Lernende sollte in jedem Falle wachsam sein und nach Fehlern suchen. Ohne Zweifel ist @ve ein Tool, das mit Gewinn in den Lateinunterricht integriert werden kann. Dort können die Schüler berichten, was sie mit ihr zu Hause erlebt haben, und sie können mit ihr vor Ort alleine oder in der Gruppe, vom Lehrer begleitet, einen Schwatz halten. Seit Ende November 2023 liegt ein Working Paper mit dem Titel „@ve: A Chatbot for Latin“ vor. Es wurde bereits im Sommer verfasst. Der Chatbot läuft voraussichtlich noch bis Ende des Jahres.

Abb.: Mit @ve kann man auf Latein plaudern (Bild: Ideogram)

Ein mächtiges Werkzeug

Das Schweizer Magazin Bref hat im Juni 2023 ein Interview mit Prof. Dr. Oliver Bendel abgedruckt. Es geht darin u.a. um künstliche Intelligenz, etwa um Sprachmodelle, die ChatGPT und Bildgeneratoren wie DALL-E zugrunde liegen – und eigenen Projekten wie @ve und @llegra. Mit diesen Chatbots sollen tote und gefährdete Sprachen wiederbelebt bzw. gerettet werden. In früheren Projekten pflanzten die Teams um Oliver Bendel den Chatbots im Kontext der Maschinenethik vor allem moralische Regeln ein. Gegen Ende des Interviews heißt es: „Wir sollten immer daran denken: Die KI ist ein Werkzeug. Wir haben es geschaffen und wir haben die Macht, es zu gestalten und zu kontrollieren. Als Maschinenethiker habe ich dafür gesorgt, dass unseren Chatbots moralische Regeln eingepflanzt werden, an die sie sich strikt halten. Sie erkennen Probleme des Benutzers, die wir vorausgesehen haben, verhalten sich ihm gegenüber moralisch adäquat und machen immer wieder deutlich, dass sie nur Maschinen sind. Das alles ist sehr verlässlich.“ Das Interview kann über brefmagazin.ch/artikel/der-digitale-graben-wird-durch-die-ganze-welt-gehen/ aufgerufen werden.

Abb.: Ein Schweizer Taschenmesser

AI or what the ChatGPT

Am 20. Juni 2023 hält Prof. Dr. Oliver Bendel einen Onlinevortrag für LeLa, das Lernlabor Hochschuldidaktik für Digital Skills, ein Kooperationsprojekt der fünf Zürcher Hochschulen ETH Zürich, PHZH, UZH, ZHAW und ZHdK. „Ethische Implikationen generativer KI“ sind das Thema. Zunächst klärt der Technikphilosoph den Begriff der generativen KI (engl. „generative AI“). Dann stellt er aus Sicht von Informations- und Maschinenethik verschiedene Überlegungen zu diesem Bereich an, wobei er vor allem auf ChatGPT fokussiert. So ist die Frage, woher die Daten für das zugrunde liegende Sprachmodell kommen und unter welchen Bedingungen das Reinforcement Learning from Human Feedback abläuft. Zudem dürfte relevant sein, welche Daten man beim Prompt preisgibt und welche Prompts auf welche Art und Weise zurückgewiesen werden. Ein weiteres Problemfeld ist das Halluzinieren der Sprachmodelle bzw. der darauf basierenden Anwendungen. Diese verdrehen Fakten und erfinden Referenzen. Mit Visual ChatGPT soll man über Texteingaben Bilder generieren und dann einzelne Elemente editieren können. Solche und andere Bildgeneratoren wie DALL-E, Stable Diffusion und Midjourney werfen wiederum zahlreiche ethische Fragen auf, auch mit Blick auf den Kunstbereich. GPT-3 und GPT-4 bzw. ChatGPT sind nicht nur für bzw. als Chatbots und Contentgeneratoren relevant, sondern auch für Industrie- und Serviceroboter. In diesem Bereich hat indes vor allem das Sprachmodell PaLM-E Aufmerksamkeit erregt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Dabei sind wiederum Herausforderungen vorhanden, etwa mit Blick auf Verlässlichkeit und Haftung. Weitere Informationen zur Reihe „AI or what the ChatGPT“ über dizh.ch/event/was-sind-die-ethische-implikationen-generativer-ki/.

Abb.: Ein mit einem Bildgenerator erstelltes Bild

Claude nutzt Constitutional AI

Die Maschinenethik kennt ganz unterschiedliche Ansätze. Man kann moralische Regeln und Werte in Systeme und Maschinen einpflanzen. Sie können vom Entwickler stammen oder von einer Ethikkommission. Sie können auch in einem mehrstufigen Verfahren von verschiedenen Interessengruppen entwickelt worden sein. Die Maschinen halten sich strikt an die moralischen Regeln und Werte – dies ist der Normalfall und der Fall bei Maschinen wie GOODBOT, BESTBOT oder HAPPY HEDGEHOG – oder passen sie selbst an. Wenn sie sie selbst anpassen, kann Machine Learning zum Einsatz kommen. Eine Ergänzung ist das Moralmenü, das dem Benutzer oder Besitzer die Auswahl verschiedener Optionen erlaubt. Bei Sprachmodellen gibt es ebenfalls mehrere Möglichkeiten. Dass sie bestimmte Prompts verweigern, wurde ihnen i.d.R. einprogrammiert. Dass sie in eine bestimmte Richtung tendieren, etwa was Atomkraft angeht, kann am Reinforcement Learning from Human Feedback (RLFH) liegen. Das Unternehmen Anthropic, gegründet von ehemaligen Open-AI-Mitarbeitern, trainiert laut The Verge seinen Chatbot Claude – der auf einem Sprachmodell basiert – mit Hilfe von ethischen Prinzipien. Es greift u.a. auf die Allgemeine Erklärung der Menschenrechte der Vereinten Nationen und die Nutzungsbedingungen von Apple zurück. Es handelt sich laut Mitgründer Jared Kaplan um Constitutional AI – im Grunde nichts anderes als eine spezifische Methode der Maschinenethik. Er erklärt: „The basic idea is that instead of asking a person to decide which response they prefer [with RLHF], you can ask a version of the large language model, ‚which response is more in accord with a given principle?'“ (The Verge, 9 May 2023) Im Paper „Constitutional AI: Harmlessness from AI Feedback“ erklärt eine Forschergruppe um Yuntao Bai: „We experiment with methods for training a harmless AI assistant through self-improvement, without any human labels identifying harmful outputs. The only human oversight is provided through a list of rules or principles, and so we refer to the method as ‚Constitutional AI‘. The process involves both a supervised learning and a reinforcement learning phase.“ Das Paper erwähnt Maschinenethik nicht einmal – aber diese Disziplin wird durch die Anwendung bei Sprachmodellen einen weiteren Aufschwung erleben.

Abb.: Der Chatbot Claude (Foto: Anthropic)

ChatGPT aus Sicht von Informations- und Maschinenethik

Am 26. Mai 2023 hält Prof. Dr. Oliver Bendel einen Gastvortrag beim scil-Modul „Dialogorientierte Lern- und Assistenzsysteme“ an der Universität St. Gallen. Er stellt aus Sicht von Informations- und Maschinenethik verschiedene Überlegungen zu ChatGPT an. Zunächst ist die Frage, woher die Daten für das zugrunde liegende Sprachmodell kommen und unter welchen Bedingungen das Reinforcement Learning from Human Feedback abläuft. Zudem dürfte relevant sein, welche Daten man beim Prompt preisgibt und welche Prompts auf welche Art und Weise zurückgewiesen werden. Ein weiteres Problemfeld ist das Halluzinieren der Sprachmodelle bzw. der darauf basierenden Anwendungen. Diese verdrehen Fakten und erfinden Referenzen. Nicht zuletzt ergeben sich für zahlreiche Anwendungsfelder wie Aus- und Weiterbildung besondere Herausforderungen … Mit Visual ChatGPT soll man man über Texteingaben Bilder generieren und dann einzelne Elemente editieren können. Solche und andere Bildgeneratoren wie DALL-E, Stable Diffusion und Midjourney werfen wiederum zahlreiche ethische Fragen auf. GPT-3 und GPT-4 bzw. ChatGPT sind nicht nur für bzw. als Chatbots und Contentgeneratoren relevant, sondern auch für Industrie- und Serviceroboter. In diesem Bereich hat indes vor allem das Sprachmodell PaLM-E Aufmerksamkeit erregt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Dabei sind wiederum Herausforderungen vorhanden, etwa mit Blick auf Verlässlichkeit und Haftung. Oliver Bendel hat vor einem Vierteljahrhundert an der Universität St. Gallen gearbeitet – als Leiter des CC E-Learning – und geforscht, zu Conversational Agents und Embodied Conversational Agents in Lernumgebungen, sogenannten Pedagogical Agents. Weitere Informationen zum scil über www.scil.ch.

Abb.: Was sagt der Chatbot und warum?