Die HMD ist eine traditionsreiche Fachzeitschrift für Wirtschaftsinformatik. Diejenigen Schwerpunkthefte, die besonderes Interesse wecken, werden in der Edition HMD in Buchform nochmals aufgelegt, indem ihre Beiträge modifiziert, aktualisiert und dann gebündelt werden. Anfang August 2023 ist der Band „Robotik in der Wirtschaftsinformatik“ erschienen. Herausgeber sind Sara D’Onofrio und Stefan Meinhardt. Prof. Dr. Oliver Bendel ist mit seinem Beitrag „Serviceroboter als klassische und als soziale Roboter“ vertreten. Aus dem Abstract: „Serviceroboter verbreiten sich stark, vor allem in den Bereichen Sicherheit, Transport und Reinigung, aber auch in Pflege und Therapie. Soziale Roboter sind ebenfalls auf dem Vormarsch, als Companion Robots oder als Unterhaltungs- und Spielzeugroboter. Das vorliegende Kapitel liefert zunächst eine Definition und Einteilung von Servicerobotern. Zudem werden soziale Roboter erklärt, unter Verwendung einer Systematisierung, die als Abbildung umgesetzt wurde, und es wird auf Robot Enhancement verwiesen. Dann geht das Kapitel auf ausgewählte Typen von Servicerobotern ein. Es werden Merkmale behandelt und Beispiele genannt, bis hin zu konkreten Produkten und Einsatzorten. Bei jedem Typ wird die Frage gestellt, ob man manche Beispiele den sozialen Robotern zuordnen kann oder ob künftige Beispiele mit sozialen Fähigkeiten denkbar sind.“ Das Buch kann über link.springer.com/book/10.1007/978-3-658-39621-3 heruntergeladen bzw. bezogen werden.
Mit Liebespuppen und Sexrobotern beschäftigt sich Prof. Dr. Oliver Bendel seit 2013, beginnend mit dem Fachartikel „Dr. Robot entdeckt die Moral“, veröffentlicht in IT for Health. 2015 stellte er in seinem Beitrag „Surgical, Therapeutic, Nursing and Sex Robots in Machine and Information Ethics“ für das Buch „Machine Medical Ethics“ (Springer) die Lustmaschinen in eine Reihe mit anderen Robotern aus dem Gesundheitsbereich und betrachtete sie aus ethischer Sicht. Es folgten weitere Artikel und Buchbeiträge und 2020 das vielbeachtete Buch „Maschinenliebe“ (Springer Gabler). Zuletzt erschien „Sexroboter als soziale Roboter für unterschiedliche Bedürfnisse und Anliegen“ im Herausgeberband „Faktor Mensch“ (Springer Vieweg). Christoph Holz, ein Podcaster, unterhielt sich mit dem Informations- und Maschinenethiker über verschiedene Themen in den Bereichen Soziale Robotik, Künstliche Intelligenz und Ethik. Die erste Folge „Maschinenliebe aus philosophischer Sicht“ wurde am 19. Juli 2023 veröffentlicht. Sie kann über Spotify abgerufen werden.
Am 14. Juli 2023 war die Abschlusspräsentation des Projekts „Little Teacher“, in dem Alpha Mini eine Hauptrolle spielt. Initiator war Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert über Conversational Agents und soziale Roboter forscht. Andrin Allemann trug im Rahmen seiner Abschlussarbeit zum Projekt bei und hat die Implementierung durchgeführt. Alpha Mini ist in dieser Anwendung für die Schule oder das Lernen im Kinderzimmer gedacht. Er wurde mit einem Tablet bzw. Laptop (einem Microsoft Surface) verbunden. Er kann mit Hilfe von Bildern und Texten auf dem Display einfachen Lernstoff zu Geografie und Biologie vermitteln und die Kinder durch verbales, gestisches und mimisches Feedback motivieren. Es handelt sich also um einen kleinen Lehrer mit großen Möglichkeiten. Alpha Mini ist ein sozialer Roboter, der sich durch geringe Größe (und damit gute Transportfähigkeit) und weitgehende natürlichsprachliche und motorische Fähigkeiten auszeichnet. Er ist wesentlich günstiger als andere humanoide Roboter mit vergleichbaren Möglichkeiten. Allerdings hat er anders als Pepper kein integriertes Tablet. Im Projekt konnte gezeigt werden, dass eine Verbindung zwischen verschiedenen Komponenten einer Lernumgebung möglich ist und man damit Lernerfolg und Lernfreude unterstützen kann. Das Projekt war am 8. März 2023 gestartet. Projektabschluss ist am 11. August 2023. Bis dahin werden noch kleinere Fehler behoben und mehrere Tests durchgeführt. Die Ergebnisse werden in einem Paper veröffentlicht.
Seit März 2023 wird im Auftrag von Prof. Dr. Oliver Bendel der Chatbot @llegra für das rätoromanische Idiom Vallader entwickelt, das im Unterengadin zwischen Martina im Nordosten und Zernez im Südwesten sowie im Val Müstair auftritt und gefährdet ist. Der Entwickler Dalil Jabou hat auf das Sprachmodell GPT-4 gesetzt und alle wesentlichen technischen Probleme gelöst. Der Benutzer kann Text in Englisch, Deutsch oder Rätoromanisch eintippen und bekommt Text in Vallader ausgegeben. Zudem spricht @llegra das Idiom mit Hilfe eines Text-to-Speech-Systems der Firma SlowSoft aus Zürich. Ein kleiner Test mit einem Experten fand bereits statt und führte zu einer ersten Verbesserung. Oliver Bendel war am 9. Juli mit @llegra im Unterengadin unterwegs und suchte nach einer Testperson mit Vallader als Muttersprache. In Tarasp Fontana bei Scuol sprach er mehrere ältere Frauen an. Eine verwies auf eine Dame von vielleicht 78 Jahren, die sich in der Nähe befand und gerade vom Nordic Walking kam. Die Vallader-Sprecherin hörte sich die Antwort des Chatbots auf eine Frage zu Tarasp an und begann ungefragt, das Gesprochene ins Deutsche zu übersetzen. Dann wurde @llegra gefragt, ob sie Scuol kennt. Sie gab wiederum in Vallader eine längere Auskunft. Die ältere Dame bestätigte, dass die Aussprache gut und der Inhalt verständlich ist. Sie begann zu strahlen und fragte, ob es sich um künstliche Intelligenz handle. Oliver Bendel bestätigte dies, strahlte ebenfalls, fuhr weiter und ließ sich von @llegra in Scuol noch Informationen zum dortigen Museum d’Engiadina Bassa geben. Das Projekt wird im August 2023 abgeschlossen. Die Ergebnisse werden danach veröffentlicht.
Das Schweizer Magazin Bref hat im Juni 2023 ein Interview mit Prof. Dr. Oliver Bendel abgedruckt. Es geht darin u.a. um künstliche Intelligenz, etwa um Sprachmodelle, die ChatGPT und Bildgeneratoren wie DALL-E zugrunde liegen – und eigenen Projekten wie @ve und @llegra. Mit diesen Chatbots sollen tote und gefährdete Sprachen wiederbelebt bzw. gerettet werden. In früheren Projekten pflanzten die Teams um Oliver Bendel den Chatbots im Kontext der Maschinenethik vor allem moralische Regeln ein. Gegen Ende des Interviews heißt es: „Wir sollten immer daran denken: Die KI ist ein Werkzeug. Wir haben es geschaffen und wir haben die Macht, es zu gestalten und zu kontrollieren. Als Maschinenethiker habe ich dafür gesorgt, dass unseren Chatbots moralische Regeln eingepflanzt werden, an die sie sich strikt halten. Sie erkennen Probleme des Benutzers, die wir vorausgesehen haben, verhalten sich ihm gegenüber moralisch adäquat und machen immer wieder deutlich, dass sie nur Maschinen sind. Das alles ist sehr verlässlich.“ Das Interview kann über brefmagazin.ch/artikel/der-digitale-graben-wird-durch-die-ganze-welt-gehen/ aufgerufen werden.
Der Beitrag „Mode“ ist am 20. Juni 2023 im Gabler Wirtschaftslexikon erschienen. Nach einer Einführung und der Darstellung von Geschichte und Hintergrund wird den Themenkomplexen „Mode und Wirtschaft“ und „Mode und Technik“ jeweils ein Abschnitt gewidmet. Im letzteren heißt es: „Wearables wie Smartphones, Smartwatches und Smartrings sowie Smartcams ergänzen Kopf, Körper und Kleidung. Datenbrillen bestimmen noch nicht den modernen und modischen Auftritt in der Öffentlichkeit, werden aber im Büro, in der Fabrik und im Haushalt immer selbstverständlicher. Kleidung selbst wird technifiziert und kann – Stichwort Smart Clothes – Strom leiten, der Eingabe und Erfassung dienen oder aber der Ausgabe, als Display für verschiedene Inhalte. Sie richtet sich zudem mit Mustern, 2D- oder 3D-Codes und Computerchips an Kameras, Sensoren und Systemen aus, um einerseits mit der Umgebung interagieren zu können, andererseits digitale Selbstverteidigung zu ermöglichen. Der Cyborg, der technische Strukturen in seine biologischen einpasst, sei es in invasiver (NFC-Chips) oder nichtinvasiver Form (smarte Kontaktlinsen, Datenbrillen), wird zum Anführer einer Mode des Transhumanismus und einer avantgardistischen Bewegung des Human Enhancement. Avatare und Hologramme als digitale Models verbannen die Mode in den Hintergrund und unterstreichen in virtuellen Umgebungen ihre Andersartigkeit in der Ähnlichkeit. Die Mode für soziale Roboter fällt in den Bereich des Robot Enhancement.“ Danach folgen Betrachtungen aus ethischer Perspektive. Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/mode-125144 aufgerufen werden.
Der Beitrag zum Thema „Darf man Maschinen wehtun?“ läuft am 15. Juni 2023 ab 19.05 Uhr bei Deutschlandfunk Kultur. Für das Hintergrundgespräch stand Prof. Dr. Oliver Bendel zur Verfügung. Er wird auch zweimal in dem Beitrag zitiert. Der Technikphilosoph streicht gerne heraus, dass KI-Systeme und Roboter Meister im Simulieren sind. Sie simulieren Intelligenz, Moral und Bewusstsein. Zugleich ist ihm wichtig, auf den tiefen Graben zwischen Menschen und Maschinen hinzuweisen. Er besteht darin, dass diese nicht empfinden und leiden können, dass sie keine echte Moral (zu der ein freier Willen gehört) und kein echtes Bewusstsein (zu dem eine Haltung zur Welt oder zum Ich gehört, die oft mit Überraschung, Freude und Angst einhergeht) haben. Da sie nicht empfinden und leiden können, kann man ihnen nicht wehtun. Und man darf ihnen auch in einem bestimmten Sinne wehtun, d.h. man kann mit ihnen im Prinzip machen, was man will, ohne Rücksicht auf sie als moralische Objekte (die sie nicht sind). Moralische Objekte können natürlich die Besitzer oder Benutzer der KI-Systeme und Roboter sein. Deshalb sollte man nicht unbedingt einen sozialen Roboter vor den Augen seines Besitzers oder Benutzers zerlegen, so wenig wie man einen Teddybären vor den Augen des Jungen oder Mädchens zerlegen sollte, dessen Spielkamerad er ist. Oliver Bendel ist wichtig, dass Maschinen keine Rechte haben können, auch keine Würde. Werte kann man ihnen zuschreiben. Schon Pflanzen sind Maschinen in dieser Hinsicht voraus. Die Bundesverfassung der Schweiz „verlangt, im Umgang mit Tieren, Pflanzen und anderen Organismen der Würde der Kreatur Rechnung zu tragen“ (Website BAFU). Der Technikphilosoph hält diese Verfassungsnorm für einen rechtlichen und zivilisatorischen Fortschritt. Er ist dafür, sich weiter für Pflanzen und Tiere einzusetzen, nicht für Maschinen, so sehr er sich mit diesen verbunden fühlt. Das Programm des Senders kann über www.deutschlandfunkkultur.de/programm aufgerufen werden.
Abb.: Ein von DALL-E erstelltes Bild eines Roboters
Am 20. Juni 2023 hält Prof. Dr. Oliver Bendel einen Onlinevortrag für LeLa, das Lernlabor Hochschuldidaktik für Digital Skills, ein Kooperationsprojekt der fünf Zürcher Hochschulen ETH Zürich, PHZH, UZH, ZHAW und ZHdK. „Ethische Implikationen generativer KI“ sind das Thema. Zunächst klärt der Technikphilosoph den Begriff der generativen KI (engl. „generative AI“). Dann stellt er aus Sicht von Informations- und Maschinenethik verschiedene Überlegungen zu diesem Bereich an, wobei er vor allem auf ChatGPT fokussiert. So ist die Frage, woher die Daten für das zugrunde liegende Sprachmodell kommen und unter welchen Bedingungen das Reinforcement Learning from Human Feedback abläuft. Zudem dürfte relevant sein, welche Daten man beim Prompt preisgibt und welche Prompts auf welche Art und Weise zurückgewiesen werden. Ein weiteres Problemfeld ist das Halluzinieren der Sprachmodelle bzw. der darauf basierenden Anwendungen. Diese verdrehen Fakten und erfinden Referenzen. Mit Visual ChatGPT soll man über Texteingaben Bilder generieren und dann einzelne Elemente editieren können. Solche und andere Bildgeneratoren wie DALL-E, Stable Diffusion und Midjourney werfen wiederum zahlreiche ethische Fragen auf, auch mit Blick auf den Kunstbereich. GPT-3 und GPT-4 bzw. ChatGPT sind nicht nur für bzw. als Chatbots und Contentgeneratoren relevant, sondern auch für Industrie- und Serviceroboter. In diesem Bereich hat indes vor allem das Sprachmodell PaLM-E Aufmerksamkeit erregt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Dabei sind wiederum Herausforderungen vorhanden, etwa mit Blick auf Verlässlichkeit und Haftung. Weitere Informationen zur Reihe „AI or what the ChatGPT“ über dizh.ch/event/was-sind-die-ethische-implikationen-generativer-ki/.
„In seiner Arbeit beschäftigt er sich mit dem Zusammenleben von sozialen Robotern mit Menschen und mit dem Potenzial von künstlicher Intelligenz. Auf seinem Gebiet ist er eine Autorität.“ (Website SRF) Mit diesen Worten wird vom Schweizer Radio und Fernsehen (SRF) eine Sendung mit Prof. Dr. Oliver Bendel aus Zürich angekündigt. Es geht darin um „Chancen und Grenzen von Pflege- und Sexrobotern“. „Der Professor für Maschinen- und Roboterethik an der Fachhochschule Nordwestschweiz, Oliver Bendel, erzählt im Gespräch ‚Gast am Mittag‘ um 13 Uhr, warum es Umarmungsroboter braucht, was junge Männer an Sexrobotern, die aussehen wie Feen, anzieht und warum er eine Patientenverfügung zum Einsatz von Therapierobotern erstellt hat. Das Gespräch führt Sandra Schiess.“ (Website SRF) „Gast am Mittag“ mit Prof. Dr. Oliver Bendel läuft am 29. Mai 2023 auf SRF 1. Zusätzlich erscheint an diesem Tag ein Interview mit ihm in schriftlicher Form auf der Website.
Am 26. Mai 2023 ist Heft 4/2023 der Zeitschrift messtec drives Automation erschienen. Darin enthalten ist der Beitrag „Die Mächtigkeit von Sprachmodellen“ von Prof. Dr. Oliver Bendel. Er geht auf Anwendungen ein, die man noch wenig kennt, die aber relevant sein werden für Service- und Industrieroboter und für Brain-Computer-Interfaces. In diesem Bereich hat vor allem das Sprachmodell PaLM-E für Aufmerksamkeit gesorgt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität miteinander verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Aber nicht nur Google und TU Berlin forschen auf diesem Gebiet – in dem Paper „ChatGPT for Robotics“ hat auch Microsoft erste Ergebnisse vorgestellt. Sprachmodelle mit solchen Wahrnehmungs- und Steuerungsmöglichkeiten wären interessant für Lio und Optimus oder für soziale Roboter im Bildungsbereich, die nicht nur kommunizieren, sondern in vielfältiger Weise interagieren. Wichtig ist, dass den Fähigkeiten bei der Wahrnehmung und Steuerung entsprechende Fähigkeiten der Motorik gegenüberstehen. Der Zweiseiter kann über www.wileyindustrynews.com/messtec-drives-automation/messtec-drives-automation-04-23 heruntergeladen werden.
Die Shift, eine Tagung zu Fragen von Informations-, Roboter- und KI-Ethik, fand am 20. April 2023 zum fünften Mal statt. Initiatorin und Organisatorin ist Cornelia Diethelm. Moderatorin war wieder Patrizia Laeri. Die Keynote hielt Prof. Dr. Oliver Bendel aus Zürich. Das Video dazu ist am 19. Mai 2023 erschienen. Oliver Bendel ging zunächst auf soziale Roboter ein und auf die Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein. Dann beschrieb er mehrere soziale Roboter, die auch als Serviceroboter im engeren Sinne eingesetzt werden. Auf dieser empirischen Basis stellte er ethische Überlegungen an. Am Ende behandelte er Sprachmodelle wie GPT-3 bzw. GPT-4 und PaLM-E. Er zeigte, wie soziale Roboter und Serviceroboter von diesen profitieren können, in ihrer Sprachfähigkeit und bei ihrer Wahrnehmung der Welt. Auch Ansätze der Maschinenethik waren ein Thema, von der Einpflanzung moralischer Regeln bis hin zur Nutzung von Moralmenüs. Das Video kann hier aufgerufen werden.
Abb.: So stellt sich DALL-E einen humanoiden weiblichen Roboter vor
On 5 June 2023, Prof. Dr. Oliver Bendel will give a talk on „Care robots from an ethical perspective“ at the Institute of Ethics, History and Humanities (iEH2) of the University of Geneva. The event will take place in room A04.2910 (CMU). Care and therapy robots can be understood as service robots and in many cases also as social robots. In the talk by Professor Dr. Oliver Bendel from Zurich, the goals, tasks, and characteristics will be clarified and, based on this, considerations will be made from the perspective of ethics. In the end, it should become clear which types of robots and prototypes or products exist in the healthcare sector, what purposes they serve, what functions they assume, and what implications and consequences this has for individuals and society. Care robots may contribute to personal autonomy while weakening informational autonomy. Therapy robots may enhance personal performance and satisfaction, but in individual cases they may also violate human dignity. It is important to design service robots and social robots in the healthcare sector in such a way that they meet as many requirements and needs as possible and are useful tools for caregivers and those in need of care. Disciplines such as machine ethics can help in this regard. Prof. Dr. Oliver Bendel is the editor of several relevant standard works, including „Pflegeroboter“ („Care Robots“, 2018) and „Soziale Roboter“ („Social Robots“, 2021). He has also advised the German Bundestag on this topic. More information via www.unige.ch/medecine/ieh2/fr/la-une/prochain-colloque-ieh2/.
Die Maschinenethik kennt ganz unterschiedliche Ansätze. Man kann moralische Regeln und Werte in Systeme und Maschinen einpflanzen. Sie können vom Entwickler stammen oder von einer Ethikkommission. Sie können auch in einem mehrstufigen Verfahren von verschiedenen Interessengruppen entwickelt worden sein. Die Maschinen halten sich strikt an die moralischen Regeln und Werte – dies ist der Normalfall und der Fall bei Maschinen wie GOODBOT, BESTBOT oder HAPPY HEDGEHOG – oder passen sie selbst an. Wenn sie sie selbst anpassen, kann Machine Learning zum Einsatz kommen. Eine Ergänzung ist das Moralmenü, das dem Benutzer oder Besitzer die Auswahl verschiedener Optionen erlaubt. Bei Sprachmodellen gibt es ebenfalls mehrere Möglichkeiten. Dass sie bestimmte Prompts verweigern, wurde ihnen i.d.R. einprogrammiert. Dass sie in eine bestimmte Richtung tendieren, etwa was Atomkraft angeht, kann am Reinforcement Learning from Human Feedback (RLFH) liegen. Das Unternehmen Anthropic, gegründet von ehemaligen Open-AI-Mitarbeitern, trainiert laut The Verge seinen Chatbot Claude – der auf einem Sprachmodell basiert – mit Hilfe von ethischen Prinzipien. Es greift u.a. auf die Allgemeine Erklärung der Menschenrechte der Vereinten Nationen und die Nutzungsbedingungen von Apple zurück. Es handelt sich laut Mitgründer Jared Kaplan um Constitutional AI – im Grunde nichts anderes als eine spezifische Methode der Maschinenethik. Er erklärt: „The basic idea is that instead of asking a person to decide which response they prefer [with RLHF], you can ask a version of the large language model, ‚which response is more in accord with a given principle?'“ (The Verge, 9 May 2023) Im Paper „Constitutional AI: Harmlessness from AI Feedback“ erklärt eine Forschergruppe um Yuntao Bai: „We experiment with methods for training a harmless AI assistant through self-improvement, without any human labels identifying harmful outputs. The only human oversight is provided through a list of rules or principles, and so we refer to the method as ‚Constitutional AI‘. The process involves both a supervised learning and a reinforcement learning phase.“ Das Paper erwähnt Maschinenethik nicht einmal – aber diese Disziplin wird durch die Anwendung bei Sprachmodellen einen weiteren Aufschwung erleben.
„Inspirierend anders“, der Podcast von Luca Beutel, ging vor kurzem in die Forschung. Für die ersten beiden Folgen hat der Mann mit dem Schnäuzer mit Prof. Dr. Oliver Bendel gesprochen. Der Technikphilosoph lebt in Zürich und arbeitet an mehreren Hochschulen der FHNW. Die erste Folge, ausgestrahlt seit dem 2. Mai 2023, heißt „#165 IAF – Die ultimative Maschine: Wie Robotik die Grenzen der Menschheit erweitert“. Oliver Bendel stellt darin die Grundlagen der Robotik dar und bringt diese in einen Zusammenhang mit der Künstlichen Intelligenz (KI). Ursprünglich wurden deren Gegenstände zusammengedacht. Dann haben sie sich aber getrennt entwickelt. Nun wachsen Roboter und KI-Systeme immer mehr zusammen. Am 9. Mai 2023 erschien die zweite Folge mit dem Titel „#167 IAF – Menschliche Bedürfnisse, robotische Lösungen: Die Zukunft der menschenähnlichen Roboter“. Darin geht es u.a. um ethische und ästhetische Fragen, die sich zu sozialen Robotern wie Pflegerobotern und Sexrobotern stellen. Auch die zweite Folge kann u.a. über Spotify aufgerufen werden.
Abb.: So stellt sich DALL-E einen humanoiden Roboter vor
In der c’t 11/2023 ist der Artikel „Virtuelle Freunde? KI-Chatbots leisten Gesellschaft und wecken einseitige Gefühle“ erschienen. Arne Grävemeyer geht auf fünf Seiten auf das Thema ein. Befragt hat er dazu Prof. Dr. Oliver Bendel. Eine Frage war, ob solche Programme und Figuren – die Emotionen zeigen (ohne sie zu haben) und hervorrufen – sich als solche offenbaren sollten. Seine Antwort: „Aus ethischer Sicht würde ich das fordern. Man sollte wissen, ob man mit Menschen oder Maschinen kommuniziert. Unsere eigenen Emotionen sind ein wertvolles Gut. Wir entwickeln sie fast automatisch, wenn wir auf menschenähnliche Entitäten stoßen. Wir haben aber die Möglichkeit, die Emotionen zu begrenzen, wenn wir wissen, dass es sich um Programme und Maschinen handelt. Dazu gehört, dass wir diese abstellen und nicht ständig an sie denken, wenn sie nicht bei uns sind. Auch unsere Zeit ist ein kostbares Gut. Wir sollten selbst entscheiden, mit wem oder was wir sie verbringen.“ (c’t, 11/2023) Insgesamt wurden schriftlich und telefonisch etliche Fragen gestellt. Einige Antworten sind in den Artikel eingeflossen, der seit 5. Mai 2023 erhältlich ist.
„Manche Menschen gehen bereits romantische Beziehungen mit Chatbots ein. Künstliche Intelligenz simuliert Zuneigung und Trost. Kann man Gefühle einfach so programmieren?“ (Tagesspiegel, 3. Mai 2023) Dies fragt Max Tholl in einem Essay mit dem Titel „Wenn die KI den Partner ersetzt: Können Maschinen uns lieben?“ vom 3. Mai 2023. Zu Wort kommt mehrmals Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert über Chatbots, Sprachassistenten und soziale Roboter schreibt und forscht. Er nähert sich dem Gegenstand mit einem Rückblick: „Innige Beziehungen zwischen Menschen und künstlichen Kreaturen haben eine lange Tradition in der Ideengeschichte, sagt der Philosoph und Wirtschaftsinformatiker Oliver Bendel. Sie finden sich schon in den mythologischen Erzählungen von Homer oder Ovid, später dann als Motiv in Science-Fiction-Geschichten.“ (Tagesspiegel, 3. Mai 2023) Der ganze Beitrag ist im Tagesspiegel hinter der Bezahlschranke zu finden und wird auch noch in der gedruckten Ausgabe erscheinen.