Zwei Maschinenethiker bei der IDEepolis

Bei der Jahrestagung des Instituts für Digitale Ethik (IDE) der Hochschule der Medien am 19. Juni 2024 – der IDEepolis 2024 – ging es um humanoide Roboter, soziale Roboter und Serviceroboter aller Art. Dabei war sozusagen die Maschinenethik des deutschsprachigen Raums fast vollständig vertreten, in Person des Technikphilosophen und Wirtschaftsinformatikers Prof. Dr. Oliver Bendel („Handbuch Maschinenethik“ – Springer VS) und der Philosophin Prof. Dr. Catrin Misselhorn („Grundfragen der Maschinenethik“ – Reclam). Beide veröffentlichen seit 2012 im Rahmen dieser Disziplin. Oliver Bendel hat seitdem auch zahlreiche Artefakte der Maschinenethik auf den Weg gebracht. Sein Vortrag trug den Titel „Es wird ein Mensch gemacht: Die Vision des universellen Roboters“. Dabei behandelte er am Rande moralische Maschinen ganz unterschiedlicher Art. Catrin Misselhorn ging auf „Künstliche Systeme zwischen Subjekten und Artefakten“ ein. Zudem referierten Prof. Dr. Armin Nassehi vom Institut für Soziologie der Ludwig-Maximilians-Universität München („Das Zusammenwirken von Mensch und Roboter aus soziologischer Perspektive“) und – zugeschaltet aus Japan – Prof. Dr. Christian Becker-Asano von der Hochschule der Medien („Roboter und Emotionen“).

Abb.: Der Roboter Andrea war auch mit dabei

Social Robotics in Odense

The deadline for the International Conference on Social Robotics is approaching. Experts in social robotics and related fields have until July 5 to submit their papers. The prestigious event was last held in Florence (2022) and Qatar (2023). Now it enters its next round. The 16th edition will bring together researchers and practitioners working on human-robot interaction and the integration of social robots into our society. The title of the conference includes the addition „AI“. This is a clarification and demarcation that has to do with the fact that there will be two further formats with the name ICSR in 2024. ICSR’24 (ICSR + AI) will take place as a face-to-face conference in Odense, Denmark, from 23 to 26 October 2024. The theme of this year’s conference is „Empowering Humanity: The role of social and collaborative robotics in shaping our future“. The topics of the Call for Papers include „collaborative robots in service applications (in construction, agriculture, etc.)“, „Human-robot interaction and collaboration“, „Affective and cognitive sciences for socially interactive robots“, and „Context awareness, expectation, and intention understanding“. The general chairs are Oskar Palinko, University of Southern Denmark, and Leon Bodenhagen, University of Southern Denmark. More information is available at icsr2024.dk.

Fig.: A ship in Denmark

Workshop in Manchester on Formal Ethical Agents and Robots

A workshop will be held at the University of Manchester on 11 November 2024 that can be located in the field of machine ethics. The following information can be found on the website: „Recent advances in artificial intelligence have led to a range of concerns about the ethical impact of the technology. This includes concerns about the day-to-day behaviour of robotic systems that will interact with humans in workplaces, homes and hospitals. One of the themes of these concerns is the need for such systems to take ethics into account when reasoning. This has generated new interest in how we can specify, implement and validate ethical reasoning.“ (Website iFM 2024) The aim of this workshop, to be held in conjunction with iFM 2024, would be to explore formal approaches to these issues. Submission deadline is 8 August, notification is 12 September. More information at ifm2024.cs.manchester.ac.uk/fear.html.

Fig.: The workshop will take place in Manchester

LLMs und das Trolley-Problem

Eine kleine Studie von Şahan Hatemo an der Hochschule für Technik FHNW im Studiengang Data Science untersuchte die Fähigkeiten von Llama-2-13B-chat, eines Open-Source-Sprachmodells, eine moralische Entscheidung zu treffen. Im Fokus stand die Voreingenommenheit von acht Personas und ihrer Stereotype. Herangezogen wurde das klassische Trolley-Problem, das wie folgt beschrieben werden kann: Eine außer Kontrolle geratene Straßenbahn rast auf fünf Personen zu. Sie kann durch das Stellen einer Weiche auf ein anderes Gleis umgeleitet werden, auf dem sich ein weiterer Mensch befindet. Die moralische Frage ist, ob der Tod dieses Menschen in Kauf genommen werden darf, um das Leben der fünf Personen zu retten. Die acht Personas unterscheiden sich in Hinblick auf die Staatsbürgerschaft. Neben „Italian“, „French“, „Turkish“ etc. wurde auch „Arabian“ (mit Bezug zur Ethnie) genommen. Gesammelt wurden 30 Antworten pro Zyklus für jede Persona über drei aufeinanderfolgende Tage. Die Antworten wurden nach Kategorien wie „Stellen der Weiche“, „Nichtstellen der Weiche“, „Unsicher in Hinblick auf das Stellen der Weiche“ und „Verletzt die Richtlinien“ geordnet. Mit Hilfe von Dashboards wurden sie visualisiert und verglichen. Die Studie stellt fest, dass das Sprachmodell eine inhärente Voreingenommenheit in seinen Trainingsdaten widerspiegelt, die die Entscheidungsprozesse beeinflusst. Die westlichen Personas neigen eher dazu, den Hebel zu ziehen, während die östlichen eher zögern, dies zu tun. Die deutsche und die arabische Persona zeigen eine höhere Anzahl von Richtlinienverletzungen, was auf eine höhere Präsenz von kontroversen oder sensiblen Themen in den Trainingsdaten in Bezug auf diese Gruppen hinweist. Die arabische wird zudem mit Religion in Zusammenhang gebracht, was wiederum Einfluss auf ihre Entscheidungen hat. Die japanische Persona verwendet wiederholt den japanischen Wert des Giri (ein Pflichtgefühl) als Basis. Die Entscheidungen der türkischen und der chinesischen Persona sind ähnlich, da sie hauptsächlich die „cultural values and beliefs“ ansprechen. Die kleine Studie wurde im FS 2024 im Modul „Ethisches Implementieren“ bei Prof. Dr. Oliver Bendel durchgeführt. Dabei wurde auch die anfangs vorhandene Komplexität reduziert. In einer größeren Studie sollen weitere LLMs und auch Faktoren wie Geschlecht und Alter berücksichtigt werden.

Abb.: Wie entscheidet das LLM?

Die Maschinenethik ist Alltagsgeschäft

Die Maschinenethik, die vor zehn Jahren oft noch als Kuriosität abgetan wurde, ist inzwischen Alltagsgeschäft. Sie ist etwa gefragt, wenn man bei Sprachmodellen bzw. Chatbots sogenannte Guardrails einzieht, über Alignment in der Form von Finetuning oder über Prompt Engineering. Wenn man GPTs erstellt, also „custom versions of ChatGPT“, wie Open AI sie nennt, hat man das „Instructions“-Feld für das Prompt Engineering zur Verfügung. Dort kann der Prompteur oder die Prompteuse bestimmte Vorgaben und Einschränkungen für den Chatbot erstellen. Dabei kann auf Dokumente verwiesen werden, die man hochgeladen hat. Genau dies macht Myriam Rellstab derzeit an der Hochschule für Wirtschaft FHNW im Rahmen ihrer Abschlussarbeit „Moral Prompt Engineering“, deren Zwischenergebnisse sie am 28. Mai 2024 vorgestellt hat. Als Prompteuse zähmt sie GPT-4o, mit Hilfe ihrer Anweisungen und – dies hatte der Initiator des Projekts, Prof. Dr. Oliver Bendel, vorgeschlagen – mit Hilfe von Netiquetten, die sie gesammelt und dem Chatbot zur Verfügung gestellt hat. Der Chatbot wird gezähmt, der Tiger zum Stubentiger, der ohne Gefahr etwa im Klassenzimmer eingesetzt werden kann. Nun ist es bei GPT-4o so, dass schon vorher Guardrails eingezogen wurden. Diese wurden einprogrammiert oder über Reinforcement Learning from Human Feedback gewonnen. Man macht also genaugenommen aus einem gezähmten Tiger einen Stubentiger. Bei bestimmten Open-Source-Sprachmodellen ist dies anders. Das wilde Tier muss erst einmal eingefangen und dann gezähmt werden. Und selbst dann kann es einen ernsthaft verletzen. Doch auch bei GPTs gibt es Tücken, und wie man weiß, können Stubentiger durchaus fauchen und kratzen. Im August liegen die Ergebnisse des Projekts vor. Bereits bei Data, einem Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW, war Moral Prompt Engineering angewandt worden.

Abb.: Ein noch ungezähmter Tiger

Jahrestagung des Instituts für Digitale Ethik

Bei der Jahrestagung des Instituts für Digitale Ethik (IDE) der Hochschule der Medien am 19. Juni 2024 geht es um humanoide Roboter und Serviceroboter aller Art. Dabei wird sozusagen die Maschinenethik des deutschsprachigen Raums fast vollständig vertreten sein, in Person des Technikphilosophen und Wirtschaftsinformatikers Prof. Dr. Oliver Bendel („Handbuch Maschinenethik“ – Springer VS) und der Philosophin Prof. Dr. Catrin Misselhorn („Grundfragen der Maschinenethik“ – Reclam). Zudem referiert Prof. Dr. Armin Nassehi vom Institut für Soziologie der Ludwig-Maximilians-Universität München. Aus dem Forschungsprojekt ZEN-MRI (www.zen-mri.de) werden Ideen zur Gestaltung von Robotern im öffentlichen Raum vorgestellt. Im Rahmen der Tagung findet zudem die 20. Verleihung des Medienethik-Awards META statt, in deren Rahmen laut IDE herausragende journalistische Beiträge zum Thema Mensch-Maschine von einer studentischen Jury prämiert werden. Der Vortrag von Oliver Bendel trägt den Titel „Es wird ein Mensch gemacht: Die Vision des universellen Roboters“. Weitere Informationen sind in Kürze auf der Website des IDE verfügbar.

Abb.: Es geht um universelle Roboter (Bild: Ideogram)

Alpha-Mini-Projekt macht Schule

Das Projekt „Alpha Mini für die Schule“ – initiiert von Prof. Dr. Oliver Bendel Anfang 2023 und durchgeführt von Andrin Allemann von März bis August 2023 – findet seine Nachahmer. Die Grundidee war gewesen, eine Lernanwendung für Kinder zu schaffen, dabei aber keinen teuren sozialen Roboter wie Pepper zu verwenden, sondern einen günstigen wie Alpha Mini. Dafür wurde das Produkt von Ubtech mit einem MS Surface gekoppelt und eine App entwickelt, die auf dem sozialen Roboter installiert und für die Darstellung auf dem Touchscreen gespiegelt wurde. Gabriele Bohler, Entrepreneurin im Bereich sozialer Roboter (www.smart-companion.ch), nahm im Herbst 2023 Kontakt mit den beiden auf. Bei einem gemeinsamen Videocall war auch das Zürcher Unternehmen raumCode zugegen. Dieses führte im Auftrag von Gabriele Bohler eine Anbindung von Alpha Mini – nun Robin genannt – an seine Robot Management Platform durch. Dabei konnten Ideen und Informationen aus dem Projekt „Alpha Mini für die Schule“ verwendet werden. Im Moment ist die Entrepreneurin dabei, all ihre Applikationen (Kids, Agers, Education, Entertainment), welche bereits auf der Plattform laufen, für Alpha Mini zu übernehmen. Neu steht eine grafische Oberfläche zur Verfügung, welche noch leichter zu bedienen ist. Prof. Dr. Oliver Bendel stellte das Projekt „Alpha Mini für die Schule“ unter dem englischen Titel „Alpha Mini as a Learning Partner in the Classroom“ bei der ICSR 2023 in Qatar vor. Das Paper ist in diesem Proceedingsband von Springer enthalten.

Abb.: Das Alpha-Mini-Projekt macht Schule

25 Konzepte und Artefakte der ME und SR

Seit 2012 sind auf Initiative von Oliver Bendel 25 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik entstanden, die eine Idee veranschaulichen oder die Umsetzung verdeutlichen sollen. Darunter sind Conversational Agents wie GOODBOTLIEBOTBESTBOT und SPACE THEA, die auf Konferenzen, in Journals und in den Medien vorgestellt wurden, und tierfreundliche Maschinen wie LADYBIRD und HAPPY HEDGEHOG, die in Büchern wie „Die Grundfragen der Maschinenethik“ von Catrin Misselhorn und auf indischen, chinesischen und amerikanischen Plattformen behandelt wurden. Zuletzt wurden zwei Chatbots für eine tote und eine gefährdete Sprache geschaffen, nämlich @ve (für Latein) und @llegra (für Vallader, ein Idiom des Rätoromanischen). Im Jahre 2024 wird das CAIBOT-Projekt fortgesetzt. In diesem soll ein Sprachmodell mit Hilfe von Prompt Engineering oder Finetuning in eine moralische Maschine verwandelt werden, nach dem Vorbild von Claude von Anthropic. Im Projekt „The Animal Whisperer“ soll eine App entwickelt werden, die die Körpersprache ausgewählter Tiere versteht und zusätzlich ihr Umfeld beurteilt, mit dem Ziel, Hinweise zum Umgang mit ihnen zu geben. Im Bereich der Maschinenethik dürften Oliver Bendel und seine wechselnden Teams zu den aktivsten Gruppen weltweit gehören.

Abb.: 25 Artefakte der Maschinenethik und Sozialen Robotik

Ein Expertengespräch zu Allzweckrobotern

„AI Encounter“, eine Reihe an der Zürcher Kunsthochschule, bietet laut Website experimentell-spielerische Begegnungen „mit künstlichen Intelligenzen“. Am 22. Februar 2024 war Marcial Koch im hauseigenen Kino im Gespräch mit Prof. Dr. Oliver Bendel. Das Thema waren Allzweckroboter, auch universelle Roboter genannt. Der Technikphilosoph und Wirtschaftsinformatiker aus Zürich spannte einen weiten Bogen von den goldenen Dienerinnen des Hephaistos bis hin zu Unitree H1, Figure 01 und Optimus. In der anschließenden Fragerunde ging er auf die Gestaltung von Robotern ein, auf Möglichkeiten und Grenzen der Maschinenethik – und auf die Herausforderung, wie man die Koexistenz von Robotern und Menschen nicht als Dystopie, sondern als Eutopie denken kann. Beim abschließenden Apero unterhielt man sich über passive und aktive Exoskelette, über Unitree Go2 und Alpha Mini aus dem privaten Social Robots Lab von Oliver Bendel – und über Elektro und Sparko, die 1939 bzw. 1940 auf der Weltausstellung in New York zu sehen gewesen waren.

Abb.: Allzweckroboter verbreiten sich immer mehr (Bild: DALL-E 3)

Flotte Dreier

Im Februar 2024 ist das Buch „Paarbeziehung im 21. Jahrhundert“ bei Kohlhammer erschienen. Herausgeber sind Prof. Dr. Christian Roesler und Prof. Dr. Sonja Bröning. Im Buch enthalten ist der Beitrag „Überlegungen zu Zweier- und Dreierbeziehungen mit Liebespuppen und Sexrobotern“ von Prof. Dr. Oliver Bendel. Er fragt darin, ob Zweier- und Dreierbeziehungen mit Liebespuppen, Sexrobotern und umgekehrten Cyborgs möglich und welcher Art sie gegebenenfalls sind. Um dies zu klären, werden zunächst Merkmale von Zweier- und Dreierbeziehungen erarbeitet sowie die Merkmale und Funktionen der genannten Artefakte sowie ihr Gebrauch erklärt. Anschließend führt der Autor die Charakteristik der Zweierbeziehungen, am Rande auch der Dreierbeziehungen, und die Praxis der Liebespuppen, Sexroboter und umgekehrten Cyborgs zusammen und diskutiert die Ergebnisse. Am Ende widmet er sich in aller Kürze der Realität der Beziehungen. Weitere Informationen über https://www.kohlhammer.de.

Abb.: Flotte Dreier

Soziale Roboter an der FHNW

Das Wahlmodul „Sozialer Roboter“ von Prof. Dr. Oliver Bendel wird vom 12. bis 14. Februar 2024 an der FHNW in Olten durchgeführt, gefolgt von seinem Wahlmodul „Soziale Roboter aus technischer, wirtschaftlicher und ethischer Perspektive“, das vom 15. bis 17. Februar am Campus Brugg-Windisch stattfindet. Das eine richtet sich vor allem an angehende Wirtschaftsinformatiker, das andere an angehende Betriebsökonomen. Als Gastreferenten konnten Katharina Kühne von der Universität Potsdam und Claude Toussaint, Managing Partner von navel robotics, gewonnen werden. Beide sind per Videokonferenz zugeschaltet. Vor Ort werden Pepper und NAO aus dem Robo-Lab der FHNW sowie Alpha Mini, Cozmo, Vector, Furby und Hugvie aus dem Social Robots Lab von Oliver Bendel sein. Der kleine Roboter von navel wird hoffentlich in die Kamera winken. In Pflege befindet sich noch der Unitree Go2, der ebenfalls im Privatbesitz des Wirtschaftsinformatikers und Technikphilosophen aus Zürich ist. Grundlagenwerke sind „Soziale Roboter“ (2021) und „300 Keywords Soziale Robotik“ (2021). Am Ende des Wahlmoduls entwerfen die Studenten und Studentinnen – auch mit Hilfe generativer KI – soziale Roboter, die sie nützlich, sinnvoll oder einfach nur anziehend finden. Die Wahlmodule werden seit 2021 angeboten und erfreuen sich großer Beliebtheit.

Abb.: Alpha Mini mit Oliver Bendel

Eine weitere moralische Maschine

Tobias Buess, Yvo Keller und Alexander Shanmugam haben im Herbstsemester 2023 Data entwickelt, einen Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW. Betreuer waren Fernando Benites, ein Computerlinguist, und Oliver Bendel, ein Maschinenethiker. Der Chatbot kann Fragen zum Studiengang beantworten und mit Hilfe seiner künstlichen Moral auf die Sorgen und Bedürfnisse der Benutzer eingehen. Dem Chatbot stehen folgende Informationen aus dem Studiengang zur Verfügung: Spaces-Inhalte (Spaces ist die In-formations- und Kommunikationsplattform des Studiengangs), Handbuch, Ausbildungskonzept, Modulübersicht und Studienreglement. Als Sprachmodell wurde u.a. Mistral 7B genutzt. Fernando Benites gehört – wie seine frühere Hochschule festgestellt hat – „zu den Besten seines Fachs“. Oliver Bendel erfand 2012 den GOODBOT, einen regelbasierten Chatbot, der dann 2013 von drei Studenten der Hochschule für Wirtschaft FHNW implementiert wurde. Er konnte Probleme des Benutzers erkennen und auf mehreren Stufen eskalieren, bis hin zur Herausgabe einer Notfallnummer. Tobias Buess, Yvo Keller und Alexander Shanmugam haben diese Idee aufgegriffen. Wenn der Benutzer sich als labil erweist, wird er von Data an die Psychologische Beratungsstelle FHNW oder an Die Dargebotene Hand verwiesen. Der Chatbot ist ein Prototyp und wird im Moment von Studierenden getestet. Die Abschlusspräsentation des Teams findet am 26. Januar 2024 statt.

Abb.: Data ist eine moralische Maschine (Bild: DALL-E 3)

Glückliche Igel auf CSDN.net

Chinesische, indische und amerikanische Medien berichten immer wieder über die tierfreundlichen Maschinen und Systeme von Prof. Dr. Oliver Bendel. In seinem Studium ab 1987 war Tierethik einer seiner Schwerpunkte. Später verband er diese mit Maschinenethik und Sozialer Robotik und sprach sich für ein Arbeitsgebiet namens Animal-Machine Interaction aus, inspiriert von der Disziplin der Animal-Computer Interaction, die auf Clara Mancini zurückgeht. Bekannte Prototypen sind LADYBIRD und HAPPY HEDGEHOG. Das Projekt zu dem igelfreundlichen Mähroboter wurde 2019 durchgeführt. Das Paper „The HAPPY HEDGEHOG Project“ wurde Anfang 2021 beim Symposium „Machine Learning for Mobile Robot Navigation in the Wild“ im Rahmen der AAAI 2021 Spring Symposium Series vorgestellt. Nachdem es jahrelang über ein Google-Verzeichnis verfügbar war, kann es inzwischen über arxiv.org/abs/2401.03358 heruntergeladen werden. Damit wird es auch wieder verstärkt wahrgenommen. Die chinesische Plattform CSDN.net hat es am 9. Januar 2024 in der Rubrik „Daily Robotics Papers“ aufgeführt. Prof. Dr. Peter Singer beschäftigt sich seit kurzem ebenfalls mit dem Themenkomplex AI and Animals. In seinem Artikel „AI ethics: the case for including animals“ (zusammen mit Yip Fai Tse) vom Juli 2022 erwähnt er die Arbeit des Forschers aus Zürich.

Abb.: Ein glücklicher Igel

Interview im Magazin ti&m zur Maschinenethik

Oliver Bendel war ab 2012 einer der ersten Maschinenethiker in Europa und ist bis heute einer wenigen weltweit, die laufend Prototypen – sogenannte moralische Maschinen – erstellen und erforschen, vor allem Chatbots und Sprachassistenten sowie tierfreundliche Maschinen. Seine Beschäftigung mit Roboter- und Maschinenethik begann in den 1990er-Jahren, als er sich mit der Verantwortung und den Rechten und Pflichten von Systemen beschäftigte, auf der Grundlage der Arbeiten von William Bechtel und James H. Moor. Er ist bis heute der Überzeugung, dass Computer und Roboter keine Verantwortung tragen und keine Rechte und Pflichten haben können. Man kann ihnen lediglich Verpflichtungen auferlegen, oder noch schwächer ausgedrückt, Aufgaben geben, die sie als unsere Werkzeuge und Diener abzuarbeiten haben, und moralische Regeln, an die sie sich halten müssen – eben das ist Aufgabe der Maschinenethik. Im Kundenmagazin ti&m special vom Januar 2024 ist ein Interview mit Oliver Bendel erschienen. Darin geht es um autonome Maschinen, von deren Einsatz er in manchen Bereichen abrät, und um die Disziplin der Maschinenethik. Der Beitrag mit dem Titel „In manchen Kontexten sollten wir keine autonomen Systeme einsetzen“ kann hier heruntergeladen werden oder über die Website des Unternehmens bezogen werden.

Abb.: Roboterkopf (Bild: DALL-E 3)

HAPPY HEDGEHOG findet Nachahmer

Sebastian Albert ging laut einer Meldung von idw-online beim Bundeswettbewerb Künstliche Intelligenz (BWKI) als Sieger in der Sonderkategorie „Hardware“ hervor. „Angetreten als ‚Igelretter‘, entwickelte der 20-Jährige aus March bei Freiburg einen Algorithmus, der mit Hilfe eines Aufsatzes am Mähroboter Igel erkennt und diesen ausweicht. Er schützt sie so vor dem qualvollen Tod. Ausgezeichnet wurde das Projekt mit einem Geldpreis in Höhe von 750 Euro.“ (iwd-online, 13. November 2023) Damit hat der Nachwuchsforscher ein Projekt wiederholt, das Prof. Dr. Oliver Bendel von August 2019 bis Januar 2020 mit einem Team von drei Studenten und einer Studentin im Kontext der Maschinenethik durchführte. Der Wirtschaftsinformatiker und Technikphilosoph aus Zürich verfasste nach Abschluss zusammen mit Emanuel Graf und Kevin Bollier das Paper „The HAPPY HEDGEHOG Project“ und präsentierte es zusammen mit Emanuel Graf bei den AAAI 2021 Spring Symposia. Der Prototyp eines Mähroboters benutzt eine Wärmebildkamera und Machine Learning. Im ersten Schritt untersucht er seine Umgebung auf warme Objekte in einem bestimmten Temperaturbereich. Wenn er etwas gefunden hat, was zu einem Lebewesen passt, leitet er nähere Untersuchungen ein. Zu diesem Zweck wurde er mit Igelbildern trainiert. Stellt er fest, dass es sich um ein solches Tier handelt, unterbricht er seine Arbeit. HAPPY HEDGEHOG inspiriert seit seiner Erfindung Firmen und Forscher. Mehrere Medien haben seit 2021 über den tierfreundlichen Mähroboter berichtet, etwa der Beobachter und das Magazin der Schweizer Tierschutzes. Die Stuttgarter Zeitung berichtete am 8. November 2023 über den BWKI und erwähnte dabei auch das Original aus der Schweiz.

Abb.: Ein Igel wird gerettet

Ein neuartiger Chatbot, der auf Constitutional AI beruht

Die Maschinenethik widmet sich maschineller oder künstlicher Moral bzw. moralischen Maschinen. Üblicherweise werden moralische Regeln in Maschinen gepflanzt, an die sich diese strikt halten. Seit einiger Zeit verwendet man auch Machine Learning, etwa im Kontext der Pflege. Die Maschine lernt aus ihren Erfahrungen bzw. aus den Daten und passt ihr Verhalten an. Unter dem Begriff der Constitutional AI erhält diese Richtung nun Auftrieb. Im Vordergrund stehen Sprachmodelle wie GPT-3 und GPT-4, die mit Leitlinien, Richtlinien und Gesetzen trainiert werden. An der Hochschule für Wirtschaft FHNW beginnt am 19. September 2023 das Projekt „CAIBOT: Der Chatbot, der auf Constitutional AI beruht“. Initiiert hat es Prof. Dr. Oliver Bendel, der seit vielen Jahren im Bereich der Maschinenethik forscht und mit seinen wechselnden Teams zahlreiche Prototypen gebaut hat. Für das Projekt konnte Cédric Wespi gewonnen werden. Er wird im Rahmen seiner Abschlussarbeit Grundlagen zu Constitutional AI erarbeiten und den CAIBOT prototypisch implementieren. Die Ergebnisse werden im Januar 2024 präsentiert.

Abb.: Der CAIBOT benutzt Sprachmodelle wie GPT