Tobias Buess, Yvo Keller und Alexander Shanmugam haben im Herbstsemester 2023 Data entwickelt, einen Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW. Betreuer waren Fernando Benites, ein Computerlinguist, und Oliver Bendel, ein Maschinenethiker. Der Chatbot kann Fragen zum Studiengang beantworten und mit Hilfe seiner künstlichen Moral auf die Sorgen und Bedürfnisse der Benutzer eingehen. Dem Chatbot stehen folgende Informationen aus dem Studiengang zur Verfügung: Spaces-Inhalte (Spaces ist die In-formations- und Kommunikationsplattform des Studiengangs), Handbuch, Ausbildungskonzept, Modulübersicht und Studienreglement. Als Sprachmodell wurde u.a. Mistral 7B genutzt. Fernando Benites gehört – wie seine frühere Hochschule festgestellt hat – „zu den Besten seines Fachs“. Oliver Bendel erfand 2012 den GOODBOT, einen regelbasierten Chatbot, der dann 2013 von drei Studenten der Hochschule für Wirtschaft FHNW implementiert wurde. Er konnte Probleme des Benutzers erkennen und auf mehreren Stufen eskalieren, bis hin zur Herausgabe einer Notfallnummer. Tobias Buess, Yvo Keller und Alexander Shanmugam haben diese Idee aufgegriffen. Wenn der Benutzer sich als labil erweist, wird er von Data an die Psychologische Beratungsstelle FHNW oder an Die Dargebotene Hand verwiesen. Der Chatbot ist ein Prototyp und wird im Moment von Studierenden getestet. Die Abschlusspräsentation des Teams findet am 26. Januar 2024 statt.
Abb.: Data ist eine moralische Maschine (Bild: DALL-E 3)
Die Maschinenethik kennt ganz unterschiedliche Ansätze. Man kann moralische Regeln und Werte in Systeme und Maschinen einpflanzen. Sie können vom Entwickler stammen oder von einer Ethikkommission. Sie können auch in einem mehrstufigen Verfahren von verschiedenen Interessengruppen entwickelt worden sein. Die Maschinen halten sich strikt an die moralischen Regeln und Werte – dies ist der Normalfall und der Fall bei Maschinen wie GOODBOT, BESTBOT oder HAPPY HEDGEHOG – oder passen sie selbst an. Wenn sie sie selbst anpassen, kann Machine Learning zum Einsatz kommen. Eine Ergänzung ist das Moralmenü, das dem Benutzer oder Besitzer die Auswahl verschiedener Optionen erlaubt. Bei Sprachmodellen gibt es ebenfalls mehrere Möglichkeiten. Dass sie bestimmte Prompts verweigern, wurde ihnen i.d.R. einprogrammiert. Dass sie in eine bestimmte Richtung tendieren, etwa was Atomkraft angeht, kann am Reinforcement Learning from Human Feedback (RLFH) liegen. Das Unternehmen Anthropic, gegründet von ehemaligen Open-AI-Mitarbeitern, trainiert laut The Verge seinen Chatbot Claude – der auf einem Sprachmodell basiert – mit Hilfe von ethischen Prinzipien. Es greift u.a. auf die Allgemeine Erklärung der Menschenrechte der Vereinten Nationen und die Nutzungsbedingungen von Apple zurück. Es handelt sich laut Mitgründer Jared Kaplan um Constitutional AI – im Grunde nichts anderes als eine spezifische Methode der Maschinenethik. Er erklärt: „The basic idea is that instead of asking a person to decide which response they prefer [with RLHF], you can ask a version of the large language model, ‚which response is more in accord with a given principle?'“ (The Verge, 9 May 2023) Im Paper „Constitutional AI: Harmlessness from AI Feedback“ erklärt eine Forschergruppe um Yuntao Bai: „We experiment with methods for training a harmless AI assistant through self-improvement, without any human labels identifying harmful outputs. The only human oversight is provided through a list of rules or principles, and so we refer to the method as ‚Constitutional AI‘. The process involves both a supervised learning and a reinforcement learning phase.“ Das Paper erwähnt Maschinenethik nicht einmal – aber diese Disziplin wird durch die Anwendung bei Sprachmodellen einen weiteren Aufschwung erleben.
Am 26. Mai 2023 hält Prof. Dr. Oliver Bendel einen Gastvortrag beim scil-Modul „Dialogorientierte Lern- und Assistenzsysteme“ an der Universität St. Gallen. Er stellt aus Sicht von Informations- und Maschinenethik verschiedene Überlegungen zu ChatGPT an. Zunächst ist die Frage, woher die Daten für das zugrunde liegende Sprachmodell kommen und unter welchen Bedingungen das Reinforcement Learning from Human Feedback abläuft. Zudem dürfte relevant sein, welche Daten man beim Prompt preisgibt und welche Prompts auf welche Art und Weise zurückgewiesen werden. Ein weiteres Problemfeld ist das Halluzinieren der Sprachmodelle bzw. der darauf basierenden Anwendungen. Diese verdrehen Fakten und erfinden Referenzen. Nicht zuletzt ergeben sich für zahlreiche Anwendungsfelder wie Aus- und Weiterbildung besondere Herausforderungen … Mit Visual ChatGPT soll man man über Texteingaben Bilder generieren und dann einzelne Elemente editieren können. Solche und andere Bildgeneratoren wie DALL-E, Stable Diffusion und Midjourney werfen wiederum zahlreiche ethische Fragen auf. GPT-3 und GPT-4 bzw. ChatGPT sind nicht nur für bzw. als Chatbots und Contentgeneratoren relevant, sondern auch für Industrie- und Serviceroboter. In diesem Bereich hat indes vor allem das Sprachmodell PaLM-E Aufmerksamkeit erregt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Dabei sind wiederum Herausforderungen vorhanden, etwa mit Blick auf Verlässlichkeit und Haftung. Oliver Bendel hat vor einem Vierteljahrhundert an der Universität St. Gallen gearbeitet – als Leiter des CC E-Learning – und geforscht, zu Conversational Agents und Embodied Conversational Agents in Lernumgebungen, sogenannten Pedagogical Agents. Weitere Informationen zum scil über www.scil.ch.