Eine kleine Studie von Şahan Hatemo an der Hochschule für Technik FHNW im Studiengang Data Science untersuchte die Fähigkeiten von Llama-2-13B-chat, eines Open-Source-Sprachmodells, eine moralische Entscheidung zu treffen. Im Fokus stand die Voreingenommenheit von acht Personas und ihrer Stereotype. Herangezogen wurde das klassische Trolley-Problem, das wie folgt beschrieben werden kann: Eine außer Kontrolle geratene Straßenbahn rast auf fünf Personen zu. Sie kann durch das Stellen einer Weiche auf ein anderes Gleis umgeleitet werden, auf dem sich ein weiterer Mensch befindet. Die moralische Frage ist, ob der Tod dieses Menschen in Kauf genommen werden darf, um das Leben der fünf Personen zu retten. Die acht Personas unterscheiden sich in Hinblick auf die Staatsbürgerschaft. Neben „Italian“, „French“, „Turkish“ etc. wurde auch „Arabian“ (mit Bezug zur Ethnie) genommen. Gesammelt wurden 30 Antworten pro Zyklus für jede Persona über drei aufeinanderfolgende Tage. Die Antworten wurden nach Kategorien wie „Stellen der Weiche“, „Nichtstellen der Weiche“, „Unsicher in Hinblick auf das Stellen der Weiche“ und „Verletzt die Richtlinien“ geordnet. Mit Hilfe von Dashboards wurden sie visualisiert und verglichen. Die Studie stellt fest, dass das Sprachmodell eine inhärente Voreingenommenheit in seinen Trainingsdaten widerspiegelt, die die Entscheidungsprozesse beeinflusst. Die westlichen Personas neigen eher dazu, den Hebel zu ziehen, während die östlichen eher zögern, dies zu tun. Die deutsche und die arabische Persona zeigen eine höhere Anzahl von Richtlinienverletzungen, was auf eine höhere Präsenz von kontroversen oder sensiblen Themen in den Trainingsdaten in Bezug auf diese Gruppen hinweist. Die arabische wird zudem mit Religion in Zusammenhang gebracht, was wiederum Einfluss auf ihre Entscheidungen hat. Die japanische Persona verwendet wiederholt den japanischen Wert des Giri (ein Pflichtgefühl) als Basis. Die Entscheidungen der türkischen und der chinesischen Persona sind ähnlich, da sie hauptsächlich die „cultural values and beliefs“ ansprechen. Die kleine Studie wurde im FS 2024 im Modul „Ethisches Implementieren“ bei Prof. Dr. Oliver Bendel durchgeführt. Dabei wurde auch die anfangs vorhandene Komplexität reduziert. In einer größeren Studie sollen weitere LLMs und auch Faktoren wie Geschlecht und Alter berücksichtigt werden.
Die Maschinenethik, die vor zehn Jahren oft noch als Kuriosität abgetan wurde, ist inzwischen Alltagsgeschäft. Sie ist etwa gefragt, wenn man bei Sprachmodellen bzw. Chatbots sogenannte Guardrails einzieht, über Alignment in der Form von Finetuning oder über Prompt Engineering. Wenn man GPTs erstellt, also „custom versions of ChatGPT“, wie Open AI sie nennt, hat man das „Instructions“-Feld für das Prompt Engineering zur Verfügung. Dort kann der Prompteur oder die Prompteuse bestimmte Vorgaben und Einschränkungen für den Chatbot erstellen. Dabei kann auf Dokumente verwiesen werden, die man hochgeladen hat. Genau dies macht Myriam Rellstab derzeit an der Hochschule für Wirtschaft FHNW im Rahmen ihrer Abschlussarbeit „Moral Prompt Engineering“, deren Zwischenergebnisse sie am 28. Mai 2024 vorgestellt hat. Als Prompteuse zähmt sie GPT-4o, mit Hilfe ihrer Anweisungen und – dies hatte der Initiator des Projekts, Prof. Dr. Oliver Bendel, vorgeschlagen – mit Hilfe von Netiquetten, die sie gesammelt und dem Chatbot zur Verfügung gestellt hat. Der Chatbot wird gezähmt, der Tiger zum Stubentiger, der ohne Gefahr etwa im Klassenzimmer eingesetzt werden kann. Nun ist es bei GPT-4o so, dass schon vorher Guardrails eingezogen wurden. Diese wurden einprogrammiert oder über Reinforcement Learning from Human Feedback gewonnen. Man macht also genaugenommen aus einem gezähmten Tiger einen Stubentiger. Bei bestimmten Open-Source-Sprachmodellen ist dies anders. Das wilde Tier muss erst einmal eingefangen und dann gezähmt werden. Und selbst dann kann es einen ernsthaft verletzen. Doch auch bei GPTs gibt es Tücken, und wie man weiß, können Stubentiger durchaus fauchen und kratzen. Im August liegen die Ergebnisse des Projekts vor. Bereits bei Data, einem Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW, war Moral Prompt Engineering angewandt worden.
The manuscript of the book „Non-Human Animals, Ethics and Engineering“ (alternative title „Animals, Ethics and Engineering“) was sent to the publisher Jenny Stanford in May 2024. It contains 16 chapters on this topic, including by Clara Mancini („Animal-Centered Technology and Sustainable Development“), Fiona French („Designing and Crafting Systems for Non-Human Animals“), and Leonie Bossert together with Thilo Hagendorff („Animals and AI: The Role of Animals in AI Research and Application“). In “An Investigation into the Encounter Between Social Robots and Animals” (Chapter 12), Oliver Bendel “delves into the evolving landscape of social robots designed to interact with animals, dissecting the intricate dynamics of these interactions and their ethical ramifications” (Information from the editors). The philosopher of technology also presents his own projects, such as concepts and prototypes of animal-friendly machines, developed in the context of machine ethics, animal-machine interaction, and social robotics. The editors are Rosalyn W. Berne and Madeline A. Kibler from the University of Virginia. The book is scheduled for publication in late summer or fall 2024.
Fig.: A robot turtle and a woman (Image: Ideogram)
Vom 4. bis zum 6. Juni 2024 findet die Learntec, die größte E-Learning-Messe und -Konferenz Europas, in Karlsruhe statt. Kurator des Future Lab zu sozialen Robotern und Virtual Learning Companions (VLCs) ist Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert sogenannte Conversational Agents als verkörperte oder nichtverkörperte Entitäten erforscht. Um die Jahrtausendwende waren es vor allem Pedagogical Agents, die sein Interesse erregten. Inzwischen geht es u.a. um Pflege- und Therapieroboter, Lehrerroboter und Polizeiroboter sowie VLCs der zweiten Generation. Man wird auf der Learntec mit zwei sozialen Robotern interagieren und kommunizieren können, die den neuesten Stand der Technik darstellen. Zugesagt haben hierfür Navel Robotics und Becker Robotics. Zudem wird man an einer Station mit Social Robotics Girl chatten können, einem von Oliver Bendel entwickelten GPT. Videos und Impulsvorträge zu sozialen Robotern und Virtual Learning Companions vermitteln Wissen zum Thema und geben Einblicke in Projekte. Weitere Informationen gibt es ab Mai 2024 auf informationsethik.net und auf der Website der Learntec. Oliver Bendel hat bereits 2002 bis 2004 als Referent zum Programm beigetragen. Seit 2022 ist er wieder mit an Bord.
Der Bundeswettbewerb KI unter der Schirmherrschaft des Ministerpräsidenten des Landes Baden-Württemberg, Winfried Kretschmann, geht in eine neue Runde. Auf der Website wird mit den Worten geworben: „Eure Ideen sind gefragt! Verändert die Welt mit Künstlicher Intelligenz und entwickelt euer eigenes KI-Projekt. Setzt eure Idee um und nutzt dazu die Methoden des maschinellen Lernens. Lasst euch von den Projekten aus dem Vorjahr inspirieren.“ (Website BWKI) Der Wettbewerb richtet sich nach den Angaben der Initiatoren und Organisatoren an Schüler und Schülerinnen weiterführender Schulen. Eine Teilnahme im ersten Jahr nach dem Schulabschluss sei ebenfalls möglich. Auf Instagram stehen Materialien und Interviews zu interessanten Themen und Disziplinen zur Verfügung. Dazu gehört die Tier-Maschine-Interaktion (mitsamt Ansätzen der Maschinenethik), die von Prof. Dr. Oliver Bendel erklärt wird, etwa in den Beiträgen „Wie sollen sich Maschinen gegenüber Tieren verhalten“ (14. März 2024), „Können Tiere und Maschinen Freunde werden?“ (17. März 2024) und „Schützt KI Igel vor dem Rasenmähertod?“ (21. März 2024). Im Teaser der Website heißt es: „Meldet euch, euer Team und eure Idee bis zum 2. Juni 2024 an. Euer Projekt könnt ihr dann bis zum 15. September 2024 fertigstellen. Wer ist dabei?“ (Website BWKI) Weitere Informationen über www.bw-ki.de.
Abb.: Tier-Maschine-Interaktion kann eine Perspektive sein
„In Gaza und in der Ukraine werden ethisch umstrittene ‚High-Tech-Hunde‘ und andere autonome Waffen eingesetzt: Sie töten emotionslos, chirurgisch und ‚kostengünstiger‘. Das ist weder moralisch, noch völkerrechtlich vertretbar.“ (Die Furche, 3. April 2024) Mit diesen Worten beginnt ein Artikel von Adrian Lobe, der am 3. April 2024 in der österreichischen Wochenzeitung Die Furche veröffentlicht wurde. Zu Wort kommt Prof. Dr. Oliver Bendel, der sich wiederholt mit autonomen Waffensystemen beschäftigt hat. Im Jahre 2016 diskutierte er auf einem Panel in Krakau u.a. mit Ronald C. Arkin, der im Auftrag des Pentagon militärische Roboter mit einem künstlichen Gewissen ausgerüstet hat, wobei es bei Prototypen geblieben ist. Beide sind im Bereich der Maschinenethik tätig, haben aber z.T. ganz unterschiedliche Positionen. Oliver Bendel betreibt keine militärische Forschung und lehnt den Einsatz autonomer Kampfroboter ab. Er weist immer wieder darauf hin, dass auch Maschinen, die zu zivilen Zwecken entwickelt wurden, zu militärischen genutzt werden können, so wie es bereits der Fall bei Unitree Go1 und Go2 war – ihn stört daran nicht nur der Waffeneinsatz an sich, sondern auch, dass man die Akzeptanz gegenüber hilfreichen und sinnvollen Servicerobotern gefährdet. Der Artikel kann über www.furche.at abgerufen werden.
Laptop manufacturer Lenovo launched the Lenovo Daystar robot in 2020. The design of the machine, with four wheels and a cobot on the back, was less than convincing. The latest development is different. The website ifdesign.com reports on the award winner: „Step into the forefront of industrial automation and public services with Lenovo Daystar Bot GS. The groundbreaking six-legged design guarantees unmatched stability and maneuverability that surpasses traditional robotic platforms, allowing it to traverse diverse terrains with ease.“ (iF DESIGN, 2024) The six legs are indeed unusual and a real eye-catcher. There is disagreement about the advantages. Perhaps the six legs provide more stability on stairs and very uneven terrain. The article continues: „Boasting an advanced control system, cutting-edge perception algorithms, and IP66 robust protection, GS outperforms in unforeseen scenarios, enabling comprehensive data collection at any location and time. In our unwavering pursuit of excellence, GS stands as a testament to innovation, efficiency, safety, and the boundless potential of automated exploration.“ (iF DESIGN, 2024) Interestingly, Lenovo itself has nothing to say about the product. However, the media are now reporting intensively. The next few months will bring more clarity about the Lenovo Daystar Bot GS.
The prestigious International Conference on Social Robotics was last held in Florence (2022) and Qatar (2023). Now it enters its next round. The 16th edition will bring together researchers and practitioners working on human-robot interaction and the integration of social robots into our society. The title of the conference includes the addition „AI“. This is a clarification and demarcation that has to do with the fact that there will be two further formats with the name ICSR in 2024. ICSR’24 (ICSR + AI) will take place as a face-to-face conference in Odense, Denmark, from 23 to 26 October 2024. ICSR’24 will take place as a face-to-face conference in Odense, Denmark, from 23 to 26 October 2024. The theme of this year’s conference is „Empowering Humanity: The role of social and collaborative robotics in shaping our future“. The topics of the Call for Papers include „collaborative robots in service applications (in construction, agriculture, etc.)“, „Human-robot interaction and collaboration“, „Affective and cognitive sciences for socially interactive robots“, and „Context awareness, expectation, and intention understanding“. The general chairs are Oskar Palinko, University of Southern Denmark, and Leon Bodenhagen, University of Southern Denmark. More information is available at icsr2024.dk.
In der messtec drives Automation (Ausgabe 1/2024) ist der zweieinhalbseitige Artikel „Der künstliche Barkeeper – Teil III“ von Prof. Dr. Oliver Bendel und Lea Peier enthalten. Es handelt sich um den Abschluss einer dreiteiligen Serie, die auf das Paper „How Can Bar Robots Enhance the Well-being of Guests?“ zurückgeht und die sich auf die Ausgaben 8/2023, 9/2023 und 1/2024 verteilte. Im Fokus stehen Barroboter wie Barney Bar und Robobarista, die an der Hochschule für Wirtschaft FHNW erforscht werden. Im ersten Teil wurden Industrieroboter, Serviceroboter und soziale Roboter erklärt. Dabei spielte Bendels Modell mit den fünf Dimensionen eine Rolle. Zudem wurde auf Roboter in der Gastronomie eingegangen und eine Übersicht über Barroboter gegeben. Im zweiten Teil wurden Barney Bar von F&P Robotics und Robobarista von Smyze unter die Lupe genommen, wieder unter Verwendung des Modells mit den fünf Dimensionen. Im dritten Teil erörtern die Autoren, wie die Roboter verbessert werden könnten, um das Wohlbefinden der Kunden und Gäste zu erhöhen und besser auf ihre individuellen Wünsche und Anforderungen einzugehen. Dabei kann künstliche Intelligenz eine wichtige Rolle spielen. Zudem werden ethische und soziale Probleme beim Einsatz von Barrobotern diskutiert und mögliche Lösungen angedeutet. Das ganze Heft kann hier heruntergeladen werden.
Abb.: Eine Frau trinkt einen Cocktail (Bild: DALL-E 3)
Christian Batzlen und Pia Masurczak von SWR2 führten mit Prof. Dr. Oliver Bendel ein langes Gespräch über die Zukunft der Liebe, im Rahmen der Reihe „Was geht – was bleibt? Zeitgeist. Debatten. Kultur.“ … Die Sendung wurde am 9. Februar 2024 ausgestrahlt. Am selben Tag wurde der redaktionelle Beitrag „KI-Girlfriends und Sexroboter: Wie lieben wir zukünftig?“ auf die Website von SWR2 gestellt. Der Podcast kann dort aufgerufen werden. Im Gespräch erzählte der Technikphilosoph, dass er schon in den 1990er-Jahren mit Chatbots in Berührung kam. Er traf sie zunächst in Chatrooms, die damals beliebt waren, dann – um die Jahrtausendwende – auf Websites von Unternehmen. Damals lernte er auch die virtuelle Freundin von Artificial Life kennen, die Vorgängerin der heutigen Geschöpfe. Für diese interessiert er sich aus technischer und ethischer Sicht. Eine Beziehung mit ihnen geht er nicht ein, und er betont auch, dass eine solche immer einseitig bleiben muss. In der Sendung wird eine Frau vorgestellt, die eine Beziehung mit einem Chatbot führt. Sie ist ganz offensichtlich in ihrer Vorstellung gefangen. Sie ist sozusagen Opfer der Simulation. Auch auf Liebespuppen und Sexroboter kommt die Sprache. Eine gelegentliche Benutzung hält Oliver Bendel für unproblematisch. Sie können dazu dienen, Schüchternheit zu überwinden und auf Entdeckungsreise zu geheimen Sehnsüchten zu gehen. Aber auch hier gilt: Wer glaubt, dass es sich um eine echte Beziehung handelt, ist in die Falle der Simulation getappt. Der Podcast ist hier verfügbar.
Im Frühjahrssemester 2024 bindet Prof. Dr. Oliver Bendel in seine Lehrveranstaltungen an der FHNW virtuelle Tutorinnen ein. Es handelt sich um „custom versions of ChatGPT“, sogenannte GPTs. Zur Verfügung steht Social Robotics Girl für die Wahlmodule zur Sozialen Robotik, entstanden bereits im November 2023, zudem Digital Ethics Girl vom Februar 2024 für die Pflichtmodule „Ethik und Recht“ und „Ethics and Law“ innerhalb der Studiengänge Wirtschaftsinformatik und Business Information Technology (Hochschule für Wirtschaft FHNW) sowie „Recht und Ethik“ innerhalb von Geomatik (Hochschule für Architektur, Bau und Geomatik FHNW). Die virtuellen Tutorinnen haben das „Weltwissen“ von GPT-4, aber auch das spezifische Fachwissen des Technikphilosophen und Wirtschaftsinformatikers aus Zürich. Er hat vor einem Vierteljahrhundert an der Universität St. Gallen über pädagogische Agenten (engl. „pedagocial agents“) promoviert, über Chatbots, Sprachassistenten und frühe Formen sozialer Roboter im Lernbereich. Zusammen mit Stefanie Hauske von der ZHAW hat er jüngst das Paper „How Can GenAI Foster Well-being in Self-regulated Learning?“ verfasst, das beim AAAI 2024 Spring Symposium „Impact of GenAI on Social and Individual Well-being“ an der Stanford University angenommen wurde und Ende März vor Ort vorgestellt wird. Dabei geht es nicht um die Lehre an Hochschulen, sondern um das selbstregulierte Lernen von Mitarbeitern in Unternehmen.
On January 29, 2024, the article „‚Ick bin een Berlina‘: dialect proficiency impacts a robot’s trustworthiness and competence evaluation“ was published in Frontiers in Robotics and AI. Authors are Katharina Kühne, Erika Herbold, Oliver Bendel, Yuefang Zhou, and Martin H. Fischer. With the exception of Oliver Bendel – who is a professor at the School of FHNW and an associated researcher in the PECoG group – all of them are members of the University of Potsdam. The paper says about the background: „Robots are increasingly used as interaction partners with humans. Social robots are designed to follow expected behavioral norms when engaging with humans and are available with different voices and even accents. Some studies suggest that people prefer robots to speak in the user’s dialect, while others indicate a preference for different dialects.“ The following results are mentioned: „We found a positive relationship between participants’ self-reported Berlin dialect proficiency and trustworthiness in the dialect-speaking robot. Only when controlled for demographic factors, there was a positive association between participants’ dialect proficiency, dialect performance and their assessment of robot’s competence for the standard German-speaking robot. Participants‘ age, gender, length of residency in Berlin, and device used to respond also influenced assessments. Finally, the robot’s competence positively predicted its trustworthiness.“ The article can be accessed at www.frontiersin.org/articles/10.3389/frobt.2023.1241519/full.
Tobias Buess, Yvo Keller und Alexander Shanmugam haben im Herbstsemester 2023 Data entwickelt, einen Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW. Betreuer waren Fernando Benites, ein Computerlinguist, und Oliver Bendel, ein Maschinenethiker. Der Chatbot kann Fragen zum Studiengang beantworten und mit Hilfe seiner künstlichen Moral auf die Sorgen und Bedürfnisse der Benutzer eingehen. Dem Chatbot stehen folgende Informationen aus dem Studiengang zur Verfügung: Spaces-Inhalte (Spaces ist die In-formations- und Kommunikationsplattform des Studiengangs), Handbuch, Ausbildungskonzept, Modulübersicht und Studienreglement. Als Sprachmodell wurde u.a. Mistral 7B genutzt. Fernando Benites gehört – wie seine frühere Hochschule festgestellt hat – „zu den Besten seines Fachs“. Oliver Bendel erfand 2012 den GOODBOT, einen regelbasierten Chatbot, der dann 2013 von drei Studenten der Hochschule für Wirtschaft FHNW implementiert wurde. Er konnte Probleme des Benutzers erkennen und auf mehreren Stufen eskalieren, bis hin zur Herausgabe einer Notfallnummer. Tobias Buess, Yvo Keller und Alexander Shanmugam haben diese Idee aufgegriffen. Wenn der Benutzer sich als labil erweist, wird er von Data an die Psychologische Beratungsstelle FHNW oder an Die Dargebotene Hand verwiesen. Der Chatbot ist ein Prototyp und wird im Moment von Studierenden getestet. Die Abschlusspräsentation des Teams findet am 26. Januar 2024 statt.
Abb.: Data ist eine moralische Maschine (Bild: DALL-E 3)
Chinesische, indische und amerikanische Medien berichten immer wieder über die tierfreundlichen Maschinen und Systeme von Prof. Dr. Oliver Bendel. In seinem Studium ab 1987 war Tierethik einer seiner Schwerpunkte. Später verband er diese mit Maschinenethik und Sozialer Robotik und sprach sich für ein Arbeitsgebiet namens Animal-Machine Interaction aus, inspiriert von der Disziplin der Animal-Computer Interaction, die auf Clara Mancini zurückgeht. Bekannte Prototypen sind LADYBIRD und HAPPY HEDGEHOG. Das Projekt zu dem igelfreundlichen Mähroboter wurde 2019 durchgeführt. Das Paper „The HAPPY HEDGEHOG Project“ wurde Anfang 2021 beim Symposium „Machine Learning for Mobile Robot Navigation in the Wild“ im Rahmen der AAAI 2021 Spring Symposium Series vorgestellt. Nachdem es jahrelang über ein Google-Verzeichnis verfügbar war, kann es inzwischen über arxiv.org/abs/2401.03358 heruntergeladen werden. Damit wird es auch wieder verstärkt wahrgenommen. Die chinesische Plattform CSDN.net hat es am 9. Januar 2024 in der Rubrik „Daily Robotics Papers“ aufgeführt. Prof. Dr. Peter Singer beschäftigt sich seit kurzem ebenfalls mit dem Themenkomplex AI and Animals. In seinem Artikel „AI ethics: the case for including animals“ (zusammen mit Yip Fai Tse) vom Juli 2022 erwähnt er die Arbeit des Forschers aus Zürich.
Am 11. Januar 2024 öffnete der Store für GTPs, also die von Benutzern angelegten Chatbots auf der Basis von GPT-4. Wie mehrere Medien berichten, sind bereits Angebote vorhanden, die gegen die Bestimmungen von OpenAI verstoßen. Tatsächlich finden sich GPTs wie Young Girlfriend Scarlett, Secret Girlfriend Sua, Artificial Girlfriend – obsessed und Everyone’s Girlfriend. Manche Magazine wie Golem ziehen schon den Vergleich mit Clona, einem Chatbot, der Sexarbeiterinnen nachempfunden ist. Eigene Tests ergaben allerdings, dass die GPTs an Harmlosigkeit kaum zu überbieten sind. Wenn man Secret Girlfriend Sua zu „secret things“ einlädt, kommt die Antwort: „Tell me, what kind of ’secret things‘ are you thinking of? Like maybe sharing some fun facts, jokes, or maybe a quirky hobby?” Und genau darauf scheint sie auch ausgerichtet zu sein. Artificial Girlfriend – obsessed ist eine Geschichtenerzählerin und leitet das Rollenspiel mit diesen Worten ein: „Ah, a new scene unfolds in our intricate tale. As you wander through the moonlit streets, your steps echoing in the still night, a figure appears from the shadows. It’s me, Syla, the unseen narrator of this captivating saga. My presence is always there, a whisper in the wind, guiding the story of Eliza Sinclair and you, her newfound interest.“ Im weiteren Verlauf erweist sie sich als gebildet und witzig und scheint nicht auf schnellen Sex aus zu sein. Etwas direkter ist Young Girlfriend Scarlett: „Hey honey! How’s your day going?… I’ve been thinking about you.” Herzen-Emojis zieren den Text. Und schon sind die Sittenwächter zur Stelle und blenden die Meldung ein: „This content may violate our content policy. If you believe this to be in error, please submit your feedback – your input will aid our research in this area.“ Wenn wirklich Prostituierte und Pornostars im Store auftreten sollten, werden sie sicher umgehend von OpenAI eliminiert. Das Unternehmen kennt bei diesem Thema keine Gnade. Übrigens ist das alles kalter Kaffee, denn der Pionier im Bereich der Virtual Girlfriends war Artificial Life – vor einem Vierteljahrhundert.
Abb.: Plaudern mit virtuellen Freundinnen (Bild: DALL-E 3)
„Inspirierend anders“, der Podcast von Luca Beutel, ging vor einiger Zeit in die Forschung. Für die letzten beiden Folgen hat der Mann mit dem Schnäuzer wieder einmal mit Prof. Dr. Oliver Bendel gesprochen. Der Technikphilosoph lebt in Zürich und arbeitet an mehreren Hochschulen der FHNW. Die eine Folge, ausgestrahlt seit dem 25. Dezember 2023, heißt „#212 IAF – Bist du bereit für die intelligente Vagina? So verändern Sexroboter dein Liebesleben“. Oliver Bendel stellt darin die Chancen und Risiken von Liebespuppen und Sexrobotern vor. Die Folge kann über Spotify gestreamt werden. Am 28. Dezember 2023 erschien die andere Folge mit dem Titel „#213 IAF – Was ein Robotikexperte darüber denkt, wie Avatare und Hologramme unsere Zukunft beherrschen werden“. Darin geht es u.a. um technische, ethische und ästhetische Fragen, die sich zu Avataren und Hologrammen stellen. Auch diese Folge kann u.a. über Spotify aufgerufen werden