Tobias Buess, Yvo Keller und Alexander Shanmugam haben im Herbstsemester 2023 Data entwickelt, einen Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW. Betreuer waren Fernando Benites, ein Computerlinguist, und Oliver Bendel, ein Maschinenethiker. Der Chatbot kann Fragen zum Studiengang beantworten und mit Hilfe seiner künstlichen Moral auf die Sorgen und Bedürfnisse der Benutzer eingehen. Dem Chatbot stehen folgende Informationen aus dem Studiengang zur Verfügung: Spaces-Inhalte (Spaces ist die In-formations- und Kommunikationsplattform des Studiengangs), Handbuch, Ausbildungskonzept, Modulübersicht und Studienreglement. Als Sprachmodell wurde u.a. Mistral 7B genutzt. Fernando Benites gehört – wie seine frühere Hochschule festgestellt hat – „zu den Besten seines Fachs“. Oliver Bendel erfand 2012 den GOODBOT, einen regelbasierten Chatbot, der dann 2013 von drei Studenten der Hochschule für Wirtschaft FHNW implementiert wurde. Er konnte Probleme des Benutzers erkennen und auf mehreren Stufen eskalieren, bis hin zur Herausgabe einer Notfallnummer. Tobias Buess, Yvo Keller und Alexander Shanmugam haben diese Idee aufgegriffen. Wenn der Benutzer sich als labil erweist, wird er von Data an die Psychologische Beratungsstelle FHNW oder an Die Dargebotene Hand verwiesen. Der Chatbot ist ein Prototyp und wird im Moment von Studierenden getestet. Die Abschlusspräsentation des Teams findet am 26. Januar 2024 statt.
Abb.: Data ist eine moralische Maschine (Bild: DALL-E 3)
„‚ChatGPT‘ steht für ‚Chat‘ (dt. ‚Schwatz‘) und ‚Generative Pre-trained Transformer‘. Es handelt sich um einen Chatbot (bzw. ein System zum Produzieren von Content) von OpenAI, dem das Sprachmodell GPT-3.5 desselben Unternehmens zugrunde liegt. Die Trainingsdaten stammen u.a. aus Foren, Artikeln und Büchern sowie gesprochener Sprache. Benutzt wird eine spezielle Form von Machine Learning, nämlich Reinforcement Learning from Human Feedback (RLHF). Dabei sind Menschen involviert, die bestimmte Antworten für gut und richtig befinden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert.» Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon, der am 24. Januar 2023 erschienen ist. Es wird auf Entwicklung und Hintergrund eingegangen. Zudem wird die Perspektive der Ethik eingenommen. So wird der Chatbot zum ersten Mal als moralische Maschine bezeichnet und damit in die Nähe von GOODBOT und BESTBOT gerückt. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/chatgpt-124904 aufgerufen werden. Er wird in den nächsten Monaten immer wieder aktualisiert und erweitert.
Abb.: Einer der ersten Chatbots, die eine moralische Maschine waren
„Künstliche Moral (engl. ‚artificial morality‘), auch maschinelle Moral (engl. ‚machine morality‘) genannt, ist die Fähigkeit einer Maschine (i.d.R. eines autonomen Systems), sich an moralische Regeln zu halten respektive unter verschiedenen Optionen diejenige auszuwählen, die gut und richtig ist. Die moralischen Regeln sind der sogenannten moralischen Maschine gleichsam eingepflanzt worden; diese kann sie u.U. aber auch abändern und anpassen, etwa indem sie das Verhalten anderer – künstlicher oder natürlicher – Systeme übernimmt oder anderweitig aus Situationen lernt.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der am 20. Mai 2022 im Gabler Wirtschaftslexikon erschienen ist. Er ergänzt u.a. „Maschinenethik“ (2012) und „Moralische Maschinen“ (2019). Am Ende heißt es: „Am besten bewährt sich die künstliche Moral in geschlossenen oder halboffenen, übersichtlichen und weitgehend unveränderlichen Umgebungen, etwa in einem Haushalt oder auf einem Betriebsgelände.“ Dort können moralische Maschinen sowohl Tiere als auch Menschen schützen. Der Beitrag ist über wirtschaftslexikon.gabler.de/definition/kuenstliche-moral-123163 abrufbar.
Ende Juni 2018 ist der siebte Beitrag im Handbuch zur Maschinenethik bei Springer erschienen. Er stammt von Oliver Bendel, der auch der Herausgeber ist, und trägt den Titel „Pflegeroboter aus Sicht der Maschinenethik“. Er geht u.a. von Ergebnissen aus dem Buchbeitrag „Surgical, Therapeutic, Nursing and Sex Robots in Machine and Information Ethics“ aus, der 2015 im Springer-Buch „Machine Medical Ethics“ veröffentlicht wurde, erweitert die Fragestellungen zu Pflegerobotern und vertieft die Diskussion darüber. Seit Ende 2016 sitzen renommierte Wissenschaftlerinnen und Wissenschaftler an ihren Kapiteln zum „Handbuch Maschinenethik“. Ende 2018 soll das gedruckte Werk erscheinen. Mit dabei sind etwa Luís Moniz Pereira aus Lissabon, einer der bekanntesten Maschinenethiker der Welt, und Roboterethikerin Janina Loh, die in Wien mit Mark Coeckelbergh zusammenarbeitet. Ein Beitrag der Stuttgarter Philosophin Catrin Misselhorn, die ebenfalls einen hervorragenden Ruf in der Disziplin hat, kommt in wenigen Tagen heraus. Eine Übersicht über die Beiträge, die laufend elektronisch veröffentlicht werden, findet sich über link.springer.com/referencework/10.1007/978-3-658-17484-2 …
Abb.: Welche moralischen Regeln soll man dem Pflegeroboter beibringen?