Vorträge zur Maschinenethik in Frisco

Bei den AAAI 2025 Spring Symposia werden drei Bachelorstudenten der neuen Hochschule für Informatik FHNW einen Vortrag halten. Sahan Hatemo, Christof Weickhardt und Luca Gisler sind am 1. April 2025 vor Ort in San Francisco und stellen beim Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“ das Paper „Revisiting the Trolley Problem for AI: Stereotypes and Biases in Large Language Models and their Impact on Ethical Decision-Making“ vor. Prof. Dr. Oliver Bendel, der Viertautor, hat ihnen Feedback zum Paper gegeben und das Projekt im Paper in der Maschinenethik verortet. Von Zürich aus ist am selben Tag die Masterstudentin Myriam Rellstab zugeschaltet. Das Paper „Miss Tammy as a Use Case for Moral Prompt Engineering“ hat sie zusammen mit Oliver Bendel verfasst. Für ihn ist der Chatbot eine Umsetzung von Methoden der Maschinenethik im Bereich der Large Language Models (LLMs). Er spricht von Moral Prompt Engineering und meint damit die Verbindung von Prompt Engineering und gegebenenfalls Retrieval-Augmented Generation (RAG). Sahan Hatemo wird den Vortrag halten und Myriam Rellstab dann für Fragen zur Verfügung stehen. Das vorläufige Programm des Symposiums ist hier verfügbar.

Abb.: Dieser Avatar von Miss Tammy wurde verworfen (Bild: Ideogram)

Der kleine Lehrer

Alpha Mini ist ein sozialer Roboter, der sich durch geringe Größe (und damit gute Transportfähigkeit) und weitgehende natürlichsprachliche und motorische Fähigkeiten auszeichnet. Er kann im Schulunterricht eingesetzt werden, sowohl als Lehrer und Tutor als auch als Tool, mit dem man programmiert. Am 8. März 2023 startete an der Hochschule für Wirtschaft FHNW das Projekt „Little Teacher“, in dem Alpha Mini eine Hauptrolle spielt. Initiator ist Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert über Conversational Agents und soziale Roboter forscht. Andrin Allemann trägt im Rahmen seiner Abschlussarbeit zum Projekt bei. Alpha Mini soll in eine Lernumgebung integriert werden und mit anderen Komponenten wie einem Display interagieren und kommunizieren können. Er soll mit Hilfe von Bildern und Texten einfachen Lernstoff vermitteln und die Kinder durch gestisches und mimisches Feedback motivieren. Es handelt sich also um einen kleinen Lehrer mit großen Möglichkeiten. Grundsätzlich soll er sich an das neue schweizerische Bundesgesetz über den Datenschutz (Neues Datenschutzgesetz, nDSG) halten. Das Projekt dauert bis August 2023. Die Ergebnisse werden im Anschluss daran veröffentlicht.

Abb.: Alpha Mini in Aktion

RoSA – Roboter in der Sozialen Arbeit

Die Stiftung FHNW fördert seit Juni 2021 das Projekt „RoSA – Roboter in der Sozialen Arbeit“. Auf ihrer Website meldet sie: „Erstmals soll ein Roboter einen Mehrwert für die ambulante Suchtberatung erbringen und damit eine Verbesserung für die Lebenssituation von Klientinnen und Klienten mit sich bringen. Die Resultate dienen als Basis für eine Folgestudie. Sollte sich der Einsatz von sozialen Robotern in diesem Handlungsfeld bewähren, könnte dies einen Wendepunkt für die ambulante Beratung in der Sozialen Arbeit bedeuten.“ (Website Stiftung FHNW) Die Wahl des Projektteams fiel auf QTrobot, einen sozialen Roboter von LuxAI. Dieser wird eigens für die Studie beschafft. Projektleiterin ist Sarah Bestgen von der Hochschule für Soziale Arbeit FHNW. Sie hat das Projekt zusammen mit Prof. Dr. Stefan Adam von derselben Hochschule initiiert. Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW ist ebenfalls mit dabei. Er forscht seit Jahren in der Sozialen Robotik, der Maschinenethik, der Roboterethik und der Informationsethik. Die Hochschule für Angewandte Psychologie FHNW hilft bei der Programmierung mit. Ansprechpartnerin dort ist Alexandra Tanner. Weitere Informationen über www.stiftungfhnw.ch/ro-sa.

Abb.: Das Projekt RoSA hat begonnen

Über Täuschung und Betrug bei sozialen Robotern

„Die Changetagung 8 vom 27./28. Januar 2022 in Basel lotet aus, wie es um das Verhältnis von Kooperation, Verlässlichkeit und Steuerung in Zeiten der Digitalisierung bestellt ist.“ (Website Changetagung) Mit diesen Worten wird die nächste Ausgabe der Changetagung angekündigt. Eine der Keynotes stammt von Prof. Dr. Oliver Bendel und trägt den Titel „Sind soziale Roboter verlässliche Partner? Fünf Dimensionen des Gelingens und Scheiterns“. Aus dem Abstract: „Der Beitrag widmet sich zunächst der Definition und den Merkmalen sozialer Roboter und stellt Beispiele aus verschiedenen Bereichen vor. Soziale Roboter sind sensomotorische Maschinen, die für den Umgang mit Menschen oder Tieren geschaffen wurden. Beispiele sind Spielzeugroboter wie Cozmo, Therapieroboter wie Paro, Pflegeroboter wie Lio und P-Care sowie Sexroboter wie Harmony. Soziale Roboter gewinnen Menschen und Tiere mit wohlvertrauten Verhaltensweisen für sich. Aus technischer und funktionaler Sicht sind simulierte Emotionen und simulierte Empathie zur Erreichung des Nutzens für Menschen wichtig, ebenso aus psychologischer, wenn Beziehungen initiiert und etabliert werden sollen. Aus philosophischer und speziell ethischer Sicht stellen sich freilich auch Fragen zu Täuschung und Betrug sowie zur informationellen Autonomie. Genau diesen geht der Beitrag, ausgehend von den Merkmalen und Beispielen sozialer Roboter, dann nach. Er arbeitet heraus, wie soziale Roboter einerseits verlässliche Partner sind, andererseits das Gegenteil, da ihnen echte Emotionen und echte Empathie fehlen, sie nur ein simuliertes Gegenüber darstellen und sie dazu prädestiniert sind, uns unsere Geheimnisse zu entreißen.“ Das vollständige Programm ist hier einsehbar.

Abb.: Über Täuschung und Betrug bei sozialen Robotern

Zum Einfluss der Roboter auf die Gesellschaft

„Roboter, Empathie und Emotionen“ – dieses Forschungsprojekt hatte die Einrichtung für Technologiefolgenabschätzung der Schweiz, die TA-SWISS, vor einiger Zeit ausgeschrieben. Den Zuschlag hat ein Konsortium von FHNW, ZHAW und Universität St. Gallen erhalten. Der Antragsteller, Prof. Dr. Hartmut Schulze von der Hochschule für Angewandte Psychologie FHNW, deckt die Psychologie ab. Der Co-Antragsteller, Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW, nimmt die Perspektive von Informations-, Roboter- und Maschinenethik ein, die Co-Antragstellerin, Prof. Dr. Maria Schubert von der ZHAW, die der Pflegewissenschaft. Die TA-SWISS stellte auf ihrer Website fest: „Welchen Einfluss haben Roboter … auf unsere Gesellschaft und auf die Personen, die mit ihnen interagieren? Sind Roboter vielleicht eher Spitzel als Vertraute? … Was erwarten wir von diesen Maschinen beziehungsweise was dürfen wir effektiv von ihnen erwarten? Zahlreiche soziologische, psychologische, wirtschaftliche, philosophische und rechtliche Fragen im Zusammenhang mit dem gegenwärtigen und künftigen Einsatz und Potenzial der Roboter sind noch offen.“ (Website TA-SWISS) Das Kick-off-Meeting mit einer Begleitgruppe fand am 26. Juni 2019 in Bern statt.

Abb.: Drei Roboter

Die Zukunft der Arbeit ist wieder weiblich

Der 63. Frühjahrskongress der Gesellschaft für Arbeitswissenschaft in der Schweiz findet derzeit (15. bis 17. Februar 2017) an der Fachhochschule Nordwestschweiz FHNW in Brugg-Windisch statt. Veranstalterinnen sind FHNW und ETH Zürich. Die Keynotes am 16. Februar 2017 stammten von Prof. Dr. Heinz Schüpbach, Direktor Hochschule für Angewandte Psychologie FHNW, Prof. Dr. Oliver Bendel, Hochschule für Wirtschaft FHNW, und Patrick Warnking, Country Director Google Switzerland. Schüpbach gab einen Einblick in aktuelle Themen von Psychologie und Arbeitswissenschaft, Bendel stellte Software- und Hardwareroboter wie Überwachungs- und Transportroboter vor und fragte danach, welche Aufgaben dem Menschen bleiben, Warnking erläuterte Geschäftsmodelle und Denkweisen der digitalen Ökonomie – und betonte, man wolle bei Google noch mehr Frauen einstellen. Früher waren viele Programmierer weiblich, und manche Länder haben in der Informatik schon immer ein ausgewogenes Verhältnis gehabt. Leitthemen des Kongresses sind u.a. die Herausforderung des digitalen Wandels, Industrie 4.0 und menschliches Erfahrungswissen, Kreativität in Design- und Produktionsprozessen, Mensch-Maschine-Interaktion und Mensch-Roboter-Kooperation. Grußworte gab es u.a. von PD Dr. Marino Menozzi, ETH Zürich, Prof. Dr. Crispino Bergamaschi, Direktionspräsident FHNW, und Dr. Eric Scheidegger, Co-Direktor beim Staatssekretariat für Wirtschaft SECO. Weitere Informationen über www.gfa2017.de (Link nicht mehr gültig).

Abb.: Die Zukunft der Arbeit ist wieder weiblich

Haben Igel lange Ohren?

An der Hochschule für Wirtschaft FHNW wurde von Frühjahr bis Spätsommer 2016 im Rahmen der Abschlussarbeit von Kevin Schwegler der LÜGENBOT (LIEBOT) als einfache unmoralische Maschine und Ausprägung einer Münchhausen-Maschine entwickelt. Professor Dr. Oliver Bendel, der Auftraggeber und einer der Betreuer, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert. Darin wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man kann also Lügenmaschinen bauen, Wetterberichte, die die falsche Temperatur angeben, Chatbots, die Tatsachen verdrehen – und uns verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student hat den LIEBOT in Java programmiert, mit dem Eclipse Scout Neon Framework. Dabei stand ihm ein weiterer Betreuer, Prof. Dr. Bradley Richards, zur Seite. Kevin Schwegler ist ein wertvoller Beitrag zur Forschung gelungen, u.a. durch genuine maschinelle Strategien des Lügens, die etwa auf einer Ontologie der Princeton University und einer Funktion von Yahoo beruhen. So wird aus dem Satz „Ein Hase hat lange Ohren“ durch ein Hinauf- und Hinabwandern in der Ontologie die Lüge „Ein Igel hat lange Ohren“ – das Hyponym „Hase“ wird ersetzt durch das Kohyponym „Igel“. Der LÜGENBOT kann ab Ende August 2016 über luegenbot.ch und liebot.org getestet werden (Links nicht mehr gültig).

Hedgehog

Abb.: Hat der Igel lange Ohren oder der LIEBOT eine lange Nase?

Autonome Autos in der Sendung „Kontrovers“

In der Sendung „Kontrovers“ (Bayerisches Fernsehen) vom 13. Juli 2016 ging es um selbstfahrende Autos. Zu Wort kamen neben Bürgerinnen und Bürgern u.a. Alexander Dobrindt, Bundesverkehrsminister von Deutschland, und Prof. Dr. Oliver Bendel, Wirtschaftsinformatiker, Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Im Ankündigungstext wurde unter dem Titel „Auch eine Frage der Moral“ der Inhalt des Films skizziert und auf Dilemmata eingegangen: „Es gibt viele offene Fragen: Wie verhält sich ein autonomes Fahrzeug in einer Gefahrensituation? Was macht das Auto, wenn plötzlich ein kleines Mädchen vor ihm auf die Straße läuft? Was, wenn der Fahrer das Kind nur verschonen kann, indem er ausweicht, aber dadurch zum Beispiel einen Senioren gefährdet? Ist ein junges Leben mehr wert als ein älteres?“ (Website BR) Oliver Bendel ist nicht gegen hoch- und vollautomatisiertes Fahren oder autonome Autos. Diese gehören nur nach seiner Meinung auf die Autobahn, nicht in die Stadt. Selbst die Autobahn ist noch schwierig zu bewältigen; die Stadt zu bewältigen, ist kaum möglich. Ein Problem sind Kameras, die sich schnell täuschen respektive leicht täuschen lassen. Sie müssen auf jeden Fall mit weiteren Sensoren gekoppelt werden. Das Gespräch mit Oliver Bendel führte Patrick Lerch. Weitere Informationen über www.br.de.

Schild_Muenchen

Abb.: Das Interview mit Oliver Bendel fand in München statt

The LIEBOT Project

The LIEBOT project is based on preparatory works by Prof. Dr. Oliver Bendel who already initiated the GOODBOT, a chatbot which can be considered a simple moral machine. Since 2013 he has published several articles on this subject and presented automatic strategies with a view to lying. A business informatics student of the School of Business FHNW, Kevin Schwegler, was contracted early in 2016 to implement the LIEBOT (aka LÜGENBOT) as a prototype in the scope of his graduation thesis under consideration and continuance of the preparatory works. The objective of the LIEBOT project is to give practical evidence of the potential of lies and risks of natural language systems. Online media and websites create or aggregate more and more texts automatically (robo-content) and robo-journalism is growing. Natural language dialog systems are becoming very popular. The chatbot to be programmed – the LIEBOT – shall be able to produce untruths and to respond in a morally inadequate manner. This makes it a reversion of the premise applied to the development of the GOODBOT and a continuance of the corresponding work under new auspices. A simple immoral machine is born. Further information as from autumn 2016 via luegenbot.ch and liebot.org (links no longer valid).

Fig.: From truth to lie

Effekte der Digitalisierung

In der größten Tageszeitung der Schweiz, 20 Minuten, schreibt Kaspar Wolfensberger: „Roboter werden die Arbeitswelt grundlegend verändern. Zehntausende Schweizer Jobs könnten verschwinden. Was kann man tun, um nicht verdrängt zu werden?“ Befragt wird u.a. Oliver Bendel von der Hochschule für Wirtschaft FHNW (Institut für Wirtschaftsinformatik). Er sagt: „Alles, was mit manueller Arbeit zu tun hat, kann nach und nach ersetzt werden. Wie eine neue Studie des Weltwirtschaftsforums gezeigt hat, sind aber auch Bürojobs durch Roboter bedroht.“ (20 Minuten, 1. Februar 2016) Moritz Hämmerle vom Fraunhofer-Institut für Arbeitswirtschaft und Organisation nennt Zahlen zu Deutschland: „Es gibt verschiedene Studien zur Beschäftigungsentwicklung durch Digitalisierung/Industrie 4.0. Die pessimistischsten sehen ca. 45 Prozent der deutschen Arbeitsplätze als gefährdet an, die optimistischen sehen allein für Deutschland einen Beschäftigungsaufbau von etwa 350.000 Jobs.“ (20 Minuten, 1. Februar 2016) Hannes Lubich von der Hochschule für Technik (Institut für Mobile und Verteilte Systeme) beschwichtigt in Bezug auf pessimistische Schätzungen. Es sei zu bemerken, dass die Schätzungen und der Zeithorizont eine große Varianz aufweisen, „da einfache lineare Prognosen für solche Veränderungen nicht ausreichen und die Zahlen oft auch im Sinne eines Weckrufs oder zur Untermauerung politischer oder gesellschaftlicher Ansprüche verwendet werden“ (20 Minuten, 1. Februar 2016). Der Artikel mit dem Titel „So schützen Sie sich vor der Roboter-Konkurrenz“ ist am 11. Februar 2016 erschienen und kann über www.20min.ch/finance/news/story/11417961 abgerufen werden.

Nachlese zum Workshop zur Maschinenethik

Im Saal war noch ein gut gelaunter Guildo Horn (Podiumsteilnehmer im Workshop „Wie schreibt man über Menschen mit Behinderungen?“), als die Referenten hereinkamen. Er begrüßte sie mit den Worten: „Jetzt kommen schon die Nächsten – hallo!“ Die Nächsten waren die Referenten des Workshops „Maschinenethik“, nämlich Oliver Bendel („Moral für Maschinen“) und Barbara Lenz („Autonome Autos“). Bendel von der Hochschule für Wirtschaft FHNW eröffnete in fachlicher Hinsicht den Workshop und führte in die derzeit wohl meistdiskutierte Disziplin ein – und gestand, dass ihm die ganze Zeit das Lied „Guildo hat euch lieb“ des von ihm sehr geschätzten Sängers und Aktivisten durch den Kopf gehe. Lenz vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) vertiefte mit dem derzeit wohl meistgenannten Anwendungsbeispiel. Abgesagt hatte Frank Sauer, Universität der Bundeswehr München („Autonome Waffen“). Über eine halbe Stunde erstreckte sich ein lebhaftes Frage-Antwort-Spiel mit dem Moderator Ralf Krauter vom Deutschlandfunk, der den Referenten auch noch die letzten Geheimnisse (die natürlich längst publiziert waren) entlockte. Wie programmiert man moralische Maschinen? Was spricht für regelbasierte, was für fallbasierte Ansätze? Wieviel Autonomie soll der Mensch behalten? Was will die Wirtschaft, was die Wissenschaft? Die anwesenden Journalistinnen und Journalisten geizten anschließend nicht mit Fragen. Im Konferenzhotel Maritim ging es insgesamt trubelig zu im Rahmen der Veranstaltung „Wissenswerte“. In den Workshops redete man sich die Köpfe heiß über „Multimediales Storytelling“, „Science und Fiction“ und „Big Data in der Medizin“. Im Messebereich präsentierten sich die Partnerorganisationen, u.a. die Max-Planck-Gesellschaft, die Fraunhofer-Gesellschaft, die Helmholtz-Gemeinschaft, die Leibniz-Gemeinschaft und der Stifterverband. Am frühen Abend war Dr. Franz Alt im Gespräch mit Lena Ganschow. Danach klang der Abend beim Essen im Friesenhof aus.

Die intelligenten Roboter kommen

„Das Internet verändert viele Bereiche des täglichen Lebens radikal. Vor einem fundamentalen Wandel stehen auch die Fabriken. Massenproduktion war gestern. In der Fabrik der Zukunft wird sich vieles um personalisierte Produkte drehen.“ Mit diesen Worten beginnt ein Artikel von Philipp Bürkler mit dem Titel „Die intelligenten Roboter kommen“, der bereits am 20. Februar 2015 im St. Galler Tagblatt, im Toggenburger Tagblatt und in der Appenzeller Zeitung erschienen ist. Es geht um die Robotik im 21. Jahrhundert und die Industrie 4.0. „Die Zahl 4.0 deutet auf die vierte industrielle Revolution, die jetzt die Fabriken erfasst.“ (Tagblatt, 20. Februar 2015) Zitiert werden Aussagen von Joachim Seidelmann, Wissenschaftler beim Fraunhofer IPA, Ian Roberts, Technologiechef bei Bühler, und von Oliver Bendel. Seine Ausführungen werden mit den Sätzen eingeleitet: „Etwas kritischer beobachtet die Entwicklung der deutsche Maschinenethiker Oliver Bendel. Er doziert in Olten an der Fachhochschule Nordwestschweiz.“ Er anerkennt die faszinierenden Fortschritte und Möglichkeiten, beklagt aber den drohenden Verlust von handwerklichen Fähigkeiten. Auch Arbeitsplätze sind nach seiner Meinung bedroht; zwar kann es zunächst zu einer Zunahme von Beschäftigung kommen, aber mittel- und langfristig drohen Gefahren, erst für die Arbeiter, dann auch für die Manager und Informatiker. Der Artikel kann über www.tagblatt.ch aufgerufen werden.

Intelligente_Roboter

Abb.: Ein intelligenter Roboter

Das GOODBOT-Projekt

Wie könnte die angemessene Reaktion eines Chatbots auf heikle Fragen und Aussagen – vorgetragen etwa in Lebenskrisen des Benutzers – aussehen? Wie müsste ein GOODBOT, ein im moralischen Sinne gut und richtig entscheidender und kommunizierender Bot, konzipiert sein, und wie könnte er umgesetzt werden? Diese Fragen bildeten den Ausgangspunkt für ein Praxisprojekt im Kontext der Maschinenethik, das von Oliver Bendel initiiert und von den Studierenden Christian Horn, Mario Moser und Justin Toubia zwischen Juni 2013 und Januar 2014 bearbeitet wurde. Ziel war die Schaffung eines Prototyps, der in Folgeprojekten weiterentwickelt und in den Markt gebracht werden kann. Im GOODBOT werden vielversprechende Ansätze miteinander verbunden und neuartige Strategien entwickelt. Die Studierenden hatten die Idee, mit drei Eskalationsstufen zu arbeiten. Die Aussagen und Fragen des Benutzers werden gewichtet. Wenn der Bot Probleme feststellt, fragt er vorsichtig nach. Wenn sich sein negativer Eindruck verstärkt, spricht er Mut zu und fragt weiter nach. Wenn er merkt, dass sich eine Katastrophe anbahnt, hilft er mit dem Aufruf von Beratungsseiten und mit passenden Notfallnummern. Weitere Informationen zum Projekt enthält eine aktuelle Pressemitteilung der Hochschule für Wirtschaft FHNW.

Verbot 5 Script Tester

Abb.: Aus der Dokumentation des Projekts

GOODBOT-Projekt gestartet

Viele Benutzer mögen Chatbots auf Websites und unterhalten sich gerne mit ihnen. Dabei spielen Produkte und Dienstleistungen meist eine untergeordnete Rolle. Man will das virtuelle Gegenüber ausfragen, mit ihm flirten, es necken und reizen. Wenn man in Schwierigkeiten steckt, will man eine Antwort erhalten, die einen nicht noch mehr entmutigt und verstört. Die meisten Bots sind in dieser Hinsicht völlig überfordert. Auf Selbstmorddrohungen oder Ankündigungen von Amokläufen reagieren sie inadäquat. In einem Projekt an der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz FHNW wird unter der Leitung von Oliver Bendel eine moralische Maschine besonderer Art, nämlich ein sogenannter GOODBOT, konzipiert und prototypisch implementiert. Zunächst werden theoretische Grundlagen im Kontext der Maschinenethik erarbeitet. Es interessiert unter anderem, welche normativen Modelle maschinell verarbeitbar sind. Dann werden ausgewählte Chatbots auf Websites sowie Sprachassistenten wie Siri analysiert und verglichen sowie Erkenntnisse zu Systemen solcher Art gewonnen. Ein vorhandener Regelkatalog soll daraufhin überprüft werden, ob er in einem regelbasierten System umgesetzt bzw. wie er angepasst werden kann. Nicht nur Top-down-, sondern auch Bottom-up-Ansätze sollen erwogen werden. Zudem ist relevant, inwieweit soziale Medien und leibhaftige Menschen moralische Referenzpunkte bilden können. Das Projekt hat im Juni 2013 begonnen. Informationen zum Initiator und Projektleiter über http://www.fhnw.ch/personen/oliver-bendel.

Abb.: (Ro-)Bots müssen gut zu Menschen sein