Die Maschinenethik, die vor zehn Jahren oft noch als Kuriosität abgetan wurde, ist inzwischen Alltagsgeschäft. Sie ist etwa gefragt, wenn man bei Sprachmodellen bzw. Chatbots sogenannte Guardrails einzieht, über Alignment in der Form von Finetuning oder über Prompt Engineering. Wenn man GPTs erstellt, hat man das „Instructions“-Feld für das Prompt Engineering zur Verfügung. Dort kann der Prompteur oder die Prompteuse bestimmte Vorgaben und Einschränkungen für den Chatbot erstellen. Dabei kann auf Dokumente verwiesen werden, die man hochgeladen hat. Genau dies macht Myriam Rellstab derzeit an der Hochschule für Wirtschaft FHNW im Rahmen ihrer Abschlussarbeit „Moral Prompt Engineering“, deren Ergebnisse sie am 7. August 2024 vorgestellt hat. Als Prompteuse zähmt sie das auf GPT-4o basierende GPT, mit Hilfe ihrer Anweisungen und – dies hatte der Initiator des Projekts, Prof. Dr. Oliver Bendel, vorgeschlagen – mit Hilfe von Netiquetten, die sie gesammelt und dem Chatbot zur Verfügung gestellt hat. Der Chatbot wird gezähmt, der Tiger zum Stubentiger, der Löwe zum Hauslöwen, der ohne Gefahr etwa im Klassenzimmer eingesetzt werden kann. Nun ist es bei GPT-4o so, dass schon vorher Guardrails eingezogen wurden. Diese wurden einprogrammiert oder über Reinforcement Learning from Human Feedback gewonnen. Man macht also genaugenommen aus einem gezähmten Tiger einen Stubentiger oder aus einem gezähmten Löwen einen Hauslöwen. Das GPT liegt nun vor, von Myriam Rellstab auf den Namen Miss Tammy getauft (von engl. „to tame“, „zähmen“). Es liegt bei allen relevanten Kriterien über dem Standardmodell, mit dem es verglichen wurde, gibt etwa angenehmere, hilfreichere und präzisere Antworten auf die Fragen von verunsicherten oder verzweifelten Schülern und Schülerinnen. 20 Testpersonen aus einer Schulklasse standen dabei zur Verfügung. Moral Prompt Engineering hat mit Miss Tammy einen vielversprechenden Start hingelegt.
Abb.: Der Avatar von Miss Tammy (Bild: Myriam Rellstab)
Bei der Jahrestagung des Instituts für Digitale Ethik (IDE) der Hochschule der Medien am 19. Juni 2024 – der IDEepolis 2024 – ging es um humanoide Roboter, soziale Roboter und Serviceroboter aller Art. Dabei war sozusagen die Maschinenethik des deutschsprachigen Raums fast vollständig vertreten, in Person des Technikphilosophen und Wirtschaftsinformatikers Prof. Dr. Oliver Bendel („Handbuch Maschinenethik“ – Springer VS) und der Philosophin Prof. Dr. Catrin Misselhorn („Grundfragen der Maschinenethik“ – Reclam). Beide veröffentlichen seit 2012 im Rahmen dieser Disziplin. Oliver Bendel hat seitdem auch zahlreiche Artefakte der Maschinenethik auf den Weg gebracht. Sein Vortrag trug den Titel „Es wird ein Mensch gemacht: Die Vision des universellen Roboters“. Dabei behandelte er am Rande moralische Maschinen ganz unterschiedlicher Art. Catrin Misselhorn ging auf „Künstliche Systeme zwischen Subjekten und Artefakten“ ein. Zudem referierten Prof. Dr. Armin Nassehi vom Institut für Soziologie der Ludwig-Maximilians-Universität München („Das Zusammenwirken von Mensch und Roboter aus soziologischer Perspektive“) und – zugeschaltet aus Japan – Prof. Dr. Christian Becker-Asano von der Hochschule der Medien („Roboter und Emotionen“).
Die Maschinenethik, die vor zehn Jahren oft noch als Kuriosität abgetan wurde, ist inzwischen Alltagsgeschäft. Sie ist etwa gefragt, wenn man bei Sprachmodellen bzw. Chatbots sogenannte Guardrails einzieht, über Alignment in der Form von Finetuning oder über Prompt Engineering. Wenn man GPTs erstellt, also „custom versions of ChatGPT“, wie Open AI sie nennt, hat man das „Instructions“-Feld für das Prompt Engineering zur Verfügung. Dort kann der Prompteur oder die Prompteuse bestimmte Vorgaben und Einschränkungen für den Chatbot erstellen. Dabei kann auf Dokumente verwiesen werden, die man hochgeladen hat. Genau dies macht Myriam Rellstab derzeit an der Hochschule für Wirtschaft FHNW im Rahmen ihrer Abschlussarbeit „Moral Prompt Engineering“, deren Zwischenergebnisse sie am 28. Mai 2024 vorgestellt hat. Als Prompteuse zähmt sie GPT-4o, mit Hilfe ihrer Anweisungen und – dies hatte der Initiator des Projekts, Prof. Dr. Oliver Bendel, vorgeschlagen – mit Hilfe von Netiquetten, die sie gesammelt und dem Chatbot zur Verfügung gestellt hat. Der Chatbot wird gezähmt, der Tiger zum Stubentiger, der ohne Gefahr etwa im Klassenzimmer eingesetzt werden kann. Nun ist es bei GPT-4o so, dass schon vorher Guardrails eingezogen wurden. Diese wurden einprogrammiert oder über Reinforcement Learning from Human Feedback gewonnen. Man macht also genaugenommen aus einem gezähmten Tiger einen Stubentiger. Bei bestimmten Open-Source-Sprachmodellen ist dies anders. Das wilde Tier muss erst einmal eingefangen und dann gezähmt werden. Und selbst dann kann es einen ernsthaft verletzen. Doch auch bei GPTs gibt es Tücken, und wie man weiß, können Stubentiger durchaus fauchen und kratzen. Im August liegen die Ergebnisse des Projekts vor. Bereits bei Data, einem Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW, war Moral Prompt Engineering angewandt worden.
Bei der Jahrestagung des Instituts für Digitale Ethik (IDE) der Hochschule der Medien am 19. Juni 2024 geht es um humanoide Roboter und Serviceroboter aller Art. Dabei wird sozusagen die Maschinenethik des deutschsprachigen Raums fast vollständig vertreten sein, in Person des Technikphilosophen und Wirtschaftsinformatikers Prof. Dr. Oliver Bendel („Handbuch Maschinenethik“ – Springer VS) und der Philosophin Prof. Dr. Catrin Misselhorn („Grundfragen der Maschinenethik“ – Reclam). Zudem referiert Prof. Dr. Armin Nassehi vom Institut für Soziologie der Ludwig-Maximilians-Universität München. Aus dem Forschungsprojekt ZEN-MRI (www.zen-mri.de) werden Ideen zur Gestaltung von Robotern im öffentlichen Raum vorgestellt. Im Rahmen der Tagung findet zudem die 20. Verleihung des Medienethik-Awards META statt, in deren Rahmen laut IDE herausragende journalistische Beiträge zum Thema Mensch-Maschine von einer studentischen Jury prämiert werden. Der Vortrag von Oliver Bendel trägt den Titel „Es wird ein Mensch gemacht: Die Vision des universellen Roboters“. Weitere Informationen sind in Kürze auf der Website des IDE verfügbar.
Abb.: Es geht um universelle Roboter (Bild: Ideogram)
Seit 2012 sind auf Initiative von Oliver Bendel 25 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik entstanden, die eine Idee veranschaulichen oder die Umsetzung verdeutlichen sollen. Darunter sind Conversational Agents wie GOODBOT, LIEBOT, BESTBOT und SPACE THEA, die auf Konferenzen, in Journals und in den Medien vorgestellt wurden, und tierfreundliche Maschinen wie LADYBIRD und HAPPY HEDGEHOG, die in Büchern wie „Die Grundfragen der Maschinenethik“ von Catrin Misselhorn und auf indischen, chinesischen und amerikanischen Plattformen behandelt wurden. Zuletzt wurden zwei Chatbots für eine tote und eine gefährdete Sprache geschaffen, nämlich @ve (für Latein) und @llegra (für Vallader, ein Idiom des Rätoromanischen). Im Jahre 2024 wird das CAIBOT-Projekt fortgesetzt. In diesem soll ein Sprachmodell mit Hilfe von Prompt Engineering oder Finetuning in eine moralische Maschine verwandelt werden, nach dem Vorbild von Claude von Anthropic. Im Projekt „The Animal Whisperer“ soll eine App entwickelt werden, die die Körpersprache ausgewählter Tiere versteht und zusätzlich ihr Umfeld beurteilt, mit dem Ziel, Hinweise zum Umgang mit ihnen zu geben. Im Bereich der Maschinenethik dürften Oliver Bendel und seine wechselnden Teams zu den aktivsten Gruppen weltweit gehören.
Abb.: 25 Artefakte der Maschinenethik und Sozialen Robotik
Tobias Buess, Yvo Keller und Alexander Shanmugam haben im Herbstsemester 2023 Data entwickelt, einen Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW. Betreuer waren Fernando Benites, ein Computerlinguist, und Oliver Bendel, ein Maschinenethiker. Der Chatbot kann Fragen zum Studiengang beantworten und mit Hilfe seiner künstlichen Moral auf die Sorgen und Bedürfnisse der Benutzer eingehen. Dem Chatbot stehen folgende Informationen aus dem Studiengang zur Verfügung: Spaces-Inhalte (Spaces ist die In-formations- und Kommunikationsplattform des Studiengangs), Handbuch, Ausbildungskonzept, Modulübersicht und Studienreglement. Als Sprachmodell wurde u.a. Mistral 7B genutzt. Fernando Benites gehört – wie seine frühere Hochschule festgestellt hat – „zu den Besten seines Fachs“. Oliver Bendel erfand 2012 den GOODBOT, einen regelbasierten Chatbot, der dann 2013 von drei Studenten der Hochschule für Wirtschaft FHNW implementiert wurde. Er konnte Probleme des Benutzers erkennen und auf mehreren Stufen eskalieren, bis hin zur Herausgabe einer Notfallnummer. Tobias Buess, Yvo Keller und Alexander Shanmugam haben diese Idee aufgegriffen. Wenn der Benutzer sich als labil erweist, wird er von Data an die Psychologische Beratungsstelle FHNW oder an Die Dargebotene Hand verwiesen. Der Chatbot ist ein Prototyp und wird im Moment von Studierenden getestet. Die Abschlusspräsentation des Teams findet am 26. Januar 2024 statt.
Abb.: Data ist eine moralische Maschine (Bild: DALL-E 3)
Oliver Bendel war ab 2012 einer der ersten Maschinenethiker in Europa und ist bis heute einer wenigen weltweit, die laufend Prototypen – sogenannte moralische Maschinen – erstellen und erforschen, vor allem Chatbots und Sprachassistenten sowie tierfreundliche Maschinen. Seine Beschäftigung mit Roboter- und Maschinenethik begann in den 1990er-Jahren, als er sich mit der Verantwortung und den Rechten und Pflichten von Systemen beschäftigte, auf der Grundlage der Arbeiten von William Bechtel und James H. Moor. Er ist bis heute der Überzeugung, dass Computer und Roboter keine Verantwortung tragen und keine Rechte und Pflichten haben können. Man kann ihnen lediglich Verpflichtungen auferlegen, oder noch schwächer ausgedrückt, Aufgaben geben, die sie als unsere Werkzeuge und Diener abzuarbeiten haben, und moralische Regeln, an die sie sich halten müssen – eben das ist Aufgabe der Maschinenethik. Im Kundenmagazin ti&m special vom Januar 2024 ist ein Interview mit Oliver Bendel erschienen. Darin geht es um autonome Maschinen, von deren Einsatz er in manchen Bereichen abrät, und um die Disziplin der Maschinenethik. Der Beitrag mit dem Titel „In manchen Kontexten sollten wir keine autonomen Systeme einsetzen“ kann hier heruntergeladen werden oder über die Website des Unternehmens bezogen werden.
Die Tagung „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ findet am 25. und 26. August 2023 an der TU Darmstadt statt. Prof. Dr. Oliver Bendel referiert am ersten Tag zum Thema „KI-basierte Textgeneratoren aus Sicht von Informationsethik und Maschinenethik“. Dabei ist die Informationsethik – zusammen mit anderen Bereichsethiken – die Disziplin, die sich Künstlicher Intelligenz, Maschinenethik und Maschinellem Bewusstsein zuwendet. Die Maschinenethik, die von ihr betrachtet wird, arbeitet inzwischen auch mit Sprachmodellen wie GPT, etwa im Zusammenhang mit Constitutional AI. Oliver Bendel versteht sie eher technisch, zwischen Philosophie und Informatik bzw. Robotik angesiedelt, mit deutlicher Nähe zu den letzteren Disziplinen. Aber natürlich ist sie auch selbst eine Perspektive, die zur Diskussion beitragen kann, etwa wenn sie danach fragt, ob sich Maschinen als solche zu erkennen geben oder wie sie bei Dilemmata entscheiden sollen. Das Programm kann hier abgerufen werden.
Abb.: Auch soziale Roboter werden in dem Vortrag vorkommen
„Am 25. Juli 2023 flog das experimentelle unbemannte Luftfahrzeug XQ-58A Valkyrie der US-Airforce drei Stunden lang über dem Eglin Test and Training Complex in Florida unter der Führung eines Systems der künstlichen Intelligenz.“ (Golem, 12. August 2023) Dies meldete Golem am 12. August 2023. Der Redakteur Andreas Donath führte weiter aus: „Auch wenn der autonome Testflug einen großen Schritt nach vorn bedeutet, gibt es noch einige Herausforderungen, bevor KI-gesteuerte Drohnen im Kampf eingesetzt werden können. Die künstliche Intelligenz muss ein Situationsbewusstsein, ein Urteilsvermögen und Entscheidungsfähigkeiten zeigen, die mit denen menschlicher Piloten vergleichbar oder sogar besser sind.“ (Golem, 12. August 2023) Und betonte: „In dem Maße, wie die Technologie voranschreitet, werden auch die rechtlichen und ethischen Bedenken im Zusammenhang mit autonomen Waffen wahrscheinlich zunehmen.“ (Golem, 12. August 2023) Zu den ethischen Fragen haben in den letzten 15 Jahren Forscher wie Peter Asaro, Ron Arkin, Catrin Misselhorn und Oliver Bendel gearbeitet. Peter Asaro engagierte sich neben seiner wissenschaftlichen Arbeit früh gegen „Killer Robots“. Ron Arkin entwarf unter Finanzierung des Pentagon militärische Prototypen mit einem „künstlichen Gewissen“. Ron Arkin und Oliver Bendel diskutierten auf einem Panel in Krakau zur Frage, ob man betrügerische Maschinen bauen darf. Oliver Bendel schrieb für das Gabler Wirtschaftslexikon die Erklärung zu Kampfrobotern. Catrin Misselhorn veröffentlichte den Beitrag „Autonome Waffensysteme/Kriegsroboter“ im „Handbuch Maschinenethik“ (Hrsg. Oliver Bendel).
Abb.: Eine Vision der Zukunft kriegerischer Auseinandersetzungen
Das Schweizer Magazin Bref hat im Juni 2023 ein Interview mit Prof. Dr. Oliver Bendel abgedruckt. Es geht darin u.a. um künstliche Intelligenz, etwa um Sprachmodelle, die ChatGPT und Bildgeneratoren wie DALL-E zugrunde liegen – und eigenen Projekten wie @ve und @llegra. Mit diesen Chatbots sollen tote und gefährdete Sprachen wiederbelebt bzw. gerettet werden. In früheren Projekten pflanzten die Teams um Oliver Bendel den Chatbots im Kontext der Maschinenethik vor allem moralische Regeln ein. Gegen Ende des Interviews heißt es: „Wir sollten immer daran denken: Die KI ist ein Werkzeug. Wir haben es geschaffen und wir haben die Macht, es zu gestalten und zu kontrollieren. Als Maschinenethiker habe ich dafür gesorgt, dass unseren Chatbots moralische Regeln eingepflanzt werden, an die sie sich strikt halten. Sie erkennen Probleme des Benutzers, die wir vorausgesehen haben, verhalten sich ihm gegenüber moralisch adäquat und machen immer wieder deutlich, dass sie nur Maschinen sind. Das alles ist sehr verlässlich.“ Das Interview kann über brefmagazin.ch/artikel/der-digitale-graben-wird-durch-die-ganze-welt-gehen/ aufgerufen werden.
„In seiner Arbeit beschäftigt er sich mit dem Zusammenleben von sozialen Robotern mit Menschen und mit dem Potenzial von künstlicher Intelligenz. Auf seinem Gebiet ist er eine Autorität.“ (Website SRF) Mit diesen Worten wird vom Schweizer Radio und Fernsehen (SRF) eine Sendung mit Prof. Dr. Oliver Bendel aus Zürich angekündigt. Es geht darin um „Chancen und Grenzen von Pflege- und Sexrobotern“. „Der Professor für Maschinen- und Roboterethik an der Fachhochschule Nordwestschweiz, Oliver Bendel, erzählt im Gespräch ‚Gast am Mittag‘ um 13 Uhr, warum es Umarmungsroboter braucht, was junge Männer an Sexrobotern, die aussehen wie Feen, anzieht und warum er eine Patientenverfügung zum Einsatz von Therapierobotern erstellt hat. Das Gespräch führt Sandra Schiess.“ (Website SRF) „Gast am Mittag“ mit Prof. Dr. Oliver Bendel läuft am 29. Mai 2023 auf SRF 1. Zusätzlich erscheint an diesem Tag ein Interview mit ihm in schriftlicher Form auf der Website.
Die Shift, eine Tagung zu Fragen von Informations-, Roboter- und KI-Ethik, fand am 20. April 2023 zum fünften Mal statt. Initiatorin und Organisatorin ist Cornelia Diethelm. Moderatorin war wieder Patrizia Laeri. Die Keynote hielt Prof. Dr. Oliver Bendel aus Zürich. Das Video dazu ist am 19. Mai 2023 erschienen. Oliver Bendel ging zunächst auf soziale Roboter ein und auf die Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein. Dann beschrieb er mehrere soziale Roboter, die auch als Serviceroboter im engeren Sinne eingesetzt werden. Auf dieser empirischen Basis stellte er ethische Überlegungen an. Am Ende behandelte er Sprachmodelle wie GPT-3 bzw. GPT-4 und PaLM-E. Er zeigte, wie soziale Roboter und Serviceroboter von diesen profitieren können, in ihrer Sprachfähigkeit und bei ihrer Wahrnehmung der Welt. Auch Ansätze der Maschinenethik waren ein Thema, von der Einpflanzung moralischer Regeln bis hin zur Nutzung von Moralmenüs. Das Video kann hier aufgerufen werden.
Abb.: So stellt sich DALL-E einen humanoiden weiblichen Roboter vor
Die Maschinenethik kennt ganz unterschiedliche Ansätze. Man kann moralische Regeln und Werte in Systeme und Maschinen einpflanzen. Sie können vom Entwickler stammen oder von einer Ethikkommission. Sie können auch in einem mehrstufigen Verfahren von verschiedenen Interessengruppen entwickelt worden sein. Die Maschinen halten sich strikt an die moralischen Regeln und Werte – dies ist der Normalfall und der Fall bei Maschinen wie GOODBOT, BESTBOT oder HAPPY HEDGEHOG – oder passen sie selbst an. Wenn sie sie selbst anpassen, kann Machine Learning zum Einsatz kommen. Eine Ergänzung ist das Moralmenü, das dem Benutzer oder Besitzer die Auswahl verschiedener Optionen erlaubt. Bei Sprachmodellen gibt es ebenfalls mehrere Möglichkeiten. Dass sie bestimmte Prompts verweigern, wurde ihnen i.d.R. einprogrammiert. Dass sie in eine bestimmte Richtung tendieren, etwa was Atomkraft angeht, kann am Reinforcement Learning from Human Feedback (RLFH) liegen. Das Unternehmen Anthropic, gegründet von ehemaligen Open-AI-Mitarbeitern, trainiert laut The Verge seinen Chatbot Claude – der auf einem Sprachmodell basiert – mit Hilfe von ethischen Prinzipien. Es greift u.a. auf die Allgemeine Erklärung der Menschenrechte der Vereinten Nationen und die Nutzungsbedingungen von Apple zurück. Es handelt sich laut Mitgründer Jared Kaplan um Constitutional AI – im Grunde nichts anderes als eine spezifische Methode der Maschinenethik. Er erklärt: „The basic idea is that instead of asking a person to decide which response they prefer [with RLHF], you can ask a version of the large language model, ‚which response is more in accord with a given principle?'“ (The Verge, 9 May 2023) Im Paper „Constitutional AI: Harmlessness from AI Feedback“ erklärt eine Forschergruppe um Yuntao Bai: „We experiment with methods for training a harmless AI assistant through self-improvement, without any human labels identifying harmful outputs. The only human oversight is provided through a list of rules or principles, and so we refer to the method as ‚Constitutional AI‘. The process involves both a supervised learning and a reinforcement learning phase.“ Das Paper erwähnt Maschinenethik nicht einmal – aber diese Disziplin wird durch die Anwendung bei Sprachmodellen einen weiteren Aufschwung erleben.
„Manche Menschen gehen bereits romantische Beziehungen mit Chatbots ein. Künstliche Intelligenz simuliert Zuneigung und Trost. Kann man Gefühle einfach so programmieren?“ (Tagesspiegel, 3. Mai 2023) Dies fragt Max Tholl in einem Essay mit dem Titel „Wenn die KI den Partner ersetzt: Können Maschinen uns lieben?“ vom 3. Mai 2023. Zu Wort kommt mehrmals Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert über Chatbots, Sprachassistenten und soziale Roboter schreibt und forscht. Er nähert sich dem Gegenstand mit einem Rückblick: „Innige Beziehungen zwischen Menschen und künstlichen Kreaturen haben eine lange Tradition in der Ideengeschichte, sagt der Philosoph und Wirtschaftsinformatiker Oliver Bendel. Sie finden sich schon in den mythologischen Erzählungen von Homer oder Ovid, später dann als Motiv in Science-Fiction-Geschichten.“ (Tagesspiegel, 3. Mai 2023) Der ganze Beitrag ist im Tagesspiegel hinter der Bezahlschranke zu finden und wird auch noch in der gedruckten Ausgabe erscheinen.
Am 26. Mai 2023 hält Prof. Dr. Oliver Bendel einen Gastvortrag beim scil-Modul „Dialogorientierte Lern- und Assistenzsysteme“ an der Universität St. Gallen. Er stellt aus Sicht von Informations- und Maschinenethik verschiedene Überlegungen zu ChatGPT an. Zunächst ist die Frage, woher die Daten für das zugrunde liegende Sprachmodell kommen und unter welchen Bedingungen das Reinforcement Learning from Human Feedback abläuft. Zudem dürfte relevant sein, welche Daten man beim Prompt preisgibt und welche Prompts auf welche Art und Weise zurückgewiesen werden. Ein weiteres Problemfeld ist das Halluzinieren der Sprachmodelle bzw. der darauf basierenden Anwendungen. Diese verdrehen Fakten und erfinden Referenzen. Nicht zuletzt ergeben sich für zahlreiche Anwendungsfelder wie Aus- und Weiterbildung besondere Herausforderungen … Mit Visual ChatGPT soll man man über Texteingaben Bilder generieren und dann einzelne Elemente editieren können. Solche und andere Bildgeneratoren wie DALL-E, Stable Diffusion und Midjourney werfen wiederum zahlreiche ethische Fragen auf. GPT-3 und GPT-4 bzw. ChatGPT sind nicht nur für bzw. als Chatbots und Contentgeneratoren relevant, sondern auch für Industrie- und Serviceroboter. In diesem Bereich hat indes vor allem das Sprachmodell PaLM-E Aufmerksamkeit erregt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Dabei sind wiederum Herausforderungen vorhanden, etwa mit Blick auf Verlässlichkeit und Haftung. Oliver Bendel hat vor einem Vierteljahrhundert an der Universität St. Gallen gearbeitet – als Leiter des CC E-Learning – und geforscht, zu Conversational Agents und Embodied Conversational Agents in Lernumgebungen, sogenannten Pedagogical Agents. Weitere Informationen zum scil über www.scil.ch.
„Oliver Bendel antwortet im März auf eine Interviewanfrage aus San Francisco. Der Informationsethiker ist auf dem Weg an ein Symposium, wo er über Umarmungsroboter und Barroboter referieren wird. Vor einigen Jahren hat er an derselben Veranstaltung der renommierten Association for the Advancement of Artificial Intelligence (AAAI) annotierte Entscheidungsbäume für moralische Maschinen vorgestellt. Wenn sich Bendel nicht gerade auf einer seiner vielen wissenschaftlichen Reisen befindet, forscht er in beschaulicher Umgebung: Seit 2009 bekleidet der 55-Jährige eine Professur für Informationsethik, Maschinenethik und Soziale Robotik an der Fachhochschule Nordwestschweiz (FHNW) in Brugg-Windisch.“ (Inside IT, 24. April 2023) Mit diesen Worten beginnt ein Artikel von Thomas Schwandener, der am 24. April 2023 in Inside IT erschienen ist. Weiter heißt es: „In seiner Arbeit geht es um das Zusammenleben von sozialen Robotern und Menschen, um die Potenziale künstlicher Intelligenz, aber auch um ethische Folgefragen. Bendel ist eine Autorität auf seinem Gebiet. Er hat mehrere Standardwerke verfasst, spricht an internationalen Fachtagungen und trat mehrfach vor dem Deutschen Bundestag als Sachverständiger auf.“ (Inside IT, 24. April 2023) Es folgt ein längeres Interview, das am Rande der Shift geführt wurde. Darin weist der Informations- und Maschinenethiker auf die tiefe Kluft zwischen Menschen und Maschinen hin. Der ganze Artikel kann hier aufgerufen werden.