Keine Freundschaft mit sozialen Robotern

Am Abend des 18. Oktober 2024 waren ZDF-Moderatorin Jasmina Neudecker und Prof. Dr. Oliver Bendel zu Gast im KörberHaus in Hamburg Bergedorf. Eingeladen hatte sie die Körber-Stiftung. Auf der Bühne sprachen sie über Beziehungen zu Chatbots, Sprachassistenten und sozialen Robotern. Oliver Bendel umgibt sich mit sozialen Robotern aller Art und erforscht sie aus technikphilosophischer, ethischer, ästhetischer und ontologischer Perspektive. Er entwickelt zusammen mit seinen Studenten und Studentinnen seit 2012 Chatbots und Sprachassistenten und pflanzt ihnen moralische Regeln ein. Zur Freundschaft hält er all diese Systeme nicht fähig. Dennoch können sie in bestimmten Situationen helfen, etwa wenn man sich einsam fühlt. Auch können sie, wie im Gespräch herausgearbeitet wurde, als Türöffner dienen. Nur müsse man, so Oliver Bendel, dann auch durch diese Tür treten. Und dort warten hoffentlich Menschen, mit denen man eine echte Freundschaft pflegen kann. Den Vortrag verfolgten zahlreiche Gäste vor Ort, zudem viele Benutzer im Livestream. Es gab so viele Fragen, dass überzogen werden musste. Beim gemeinsamen Umtrunk ging der Austausch dann weiter. Das Gespräch kann in der Mediathek der Körber-Stiftung aufgerufen werden.

Abb.: Eine Statue in Hamburg

Textgeneratoren aus Sicht der Ethik

Die Tagung „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ findet am 25. und 26. August 2023 an der TU Darmstadt statt. Prof. Dr. Oliver Bendel referiert am ersten Tag zum Thema „KI-basierte Textgeneratoren aus Sicht von Informationsethik und Maschinenethik“. Dabei ist die Informationsethik – zusammen mit anderen Bereichsethiken – die Disziplin, die sich Künstlicher Intelligenz, Maschinenethik und Maschinellem Bewusstsein zuwendet. Die Maschinenethik, die von ihr betrachtet wird, arbeitet inzwischen auch mit Sprachmodellen wie GPT, etwa im Zusammenhang mit Constitutional AI. Oliver Bendel versteht sie eher technisch, zwischen Philosophie und Informatik bzw. Robotik angesiedelt, mit deutlicher Nähe zu den letzteren Disziplinen. Aber natürlich ist sie auch selbst eine Perspektive, die zur Diskussion beitragen kann, etwa wenn sie danach fragt, ob sich Maschinen als solche zu erkennen geben oder wie sie bei Dilemmata entscheiden sollen. Das Programm kann hier abgerufen werden.

Abb.: Auch soziale Roboter werden in dem Vortrag vorkommen

Ein mächtiges Werkzeug

Das Schweizer Magazin Bref hat im Juni 2023 ein Interview mit Prof. Dr. Oliver Bendel abgedruckt. Es geht darin u.a. um künstliche Intelligenz, etwa um Sprachmodelle, die ChatGPT und Bildgeneratoren wie DALL-E zugrunde liegen – und eigenen Projekten wie @ve und @llegra. Mit diesen Chatbots sollen tote und gefährdete Sprachen wiederbelebt bzw. gerettet werden. In früheren Projekten pflanzten die Teams um Oliver Bendel den Chatbots im Kontext der Maschinenethik vor allem moralische Regeln ein. Gegen Ende des Interviews heißt es: „Wir sollten immer daran denken: Die KI ist ein Werkzeug. Wir haben es geschaffen und wir haben die Macht, es zu gestalten und zu kontrollieren. Als Maschinenethiker habe ich dafür gesorgt, dass unseren Chatbots moralische Regeln eingepflanzt werden, an die sie sich strikt halten. Sie erkennen Probleme des Benutzers, die wir vorausgesehen haben, verhalten sich ihm gegenüber moralisch adäquat und machen immer wieder deutlich, dass sie nur Maschinen sind. Das alles ist sehr verlässlich.“ Das Interview kann über brefmagazin.ch/artikel/der-digitale-graben-wird-durch-die-ganze-welt-gehen/ aufgerufen werden.

Abb.: Ein Schweizer Taschenmesser

Über ChatGPT und Co. bei BR24

BR24 hat sich mit Oliver Bendel – Technikphilosoph, Informationsethiker und Maschinenethiker – über DeepL Write, ChatGPT und andere KI-Anwendungen unterhalten. Bei DeepL Write sieht er das Problem, dass das Unternehmen nicht die offiziellen Rechtschreibregeln befolgt, sondern eigene – oder aus dem Datenmaterial abgeleitete. Auch Microsoft Word hat seit vielen Jahren eine ungeeignete Rechtschreibprüfung, was vermutlich mit der zunehmend genutzten KI zusammenhängt. ChatGPT sieht Oliver Bendel als mächtiges Werkzeug an, das man für allerlei Belange nutzen kann. Hochschulen und Medien müssen freilich darauf reagieren. Studenten und Studentinnen müssen grundsätzlich fremdes geistiges Eigentum markieren und referenzieren – vielleicht gibt es bei ChatGPT kein geistiges Eigentum in diesem Sinne mehr, aber man kann auf jeden Fall sagen, dass es sich nicht um das geistige Eigentum der Anwender handelt. Auch Gesichtserkennung hält Oliver Bendel für eine mächtige Technologie. Man solle die Forschung dazu nicht begrenzen, wohl aber die Anwendung, und Gesichtserkennung zum Zweck der Massenüberwachung verbieten. Er berichtet von einem System, das von ihm und Ali Yürekkirmaz konzipiert wurde und das Gesichtserkennung für Bären in den Alpen vorsieht. Ihr Paper „A Face Recognition System for Bears: Protection for Animals and Humans in the Alps“ wird demnächst in den Proceedings der „Ninth International Conference on Animal-Computer Interaction (ACI’22)“ erscheinen. Bei BR24 stehen ein Podcast mit dem Interview von Cosima Weiske mit Oliver Bendel und ein Artikel mit Aussagen von ihm zur Verfügung.

Abb.: Gesichtserkennung kann man auf Bären anwenden

Grundlagen der KI-Ethik

Wie bereits in seinen Büchern „400 Keywords Informationsethik“ und „450 Keywords Digitalisierung“ beschäftigt sich Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon mit der KI-Ethik. Er stellt ausführlich dar, wie diese mit den klassischen Bereichsethiken und mit der Maschinenethik verbunden ist. Am Ende heißt es: „Die KI-Ethik erhält Auftrieb durch Entwicklungen seit 2022 wie ChatGPT, DeepL Write und DALL-E 2 oder Lensa. Zunächst handelt es sich dabei um ebenso mächtige wie disruptive Tools. Bei ChatGPT stellt sich die Frage, wie fehleranfällig und vorurteilsbeladen das Reinforcement Learning from Human Feedback (RLHF) ist. Zudem kann die Datenqualität unter die Lupe genommen werden. Auch wenn Dokumente und Quellen von Arbeitskräften klassifiziert und qualifiziert werden, bedeutet das nicht unbedingt, dass ihre Verwendung unproblematisch ist. Die Arbeitsverhältnisse selbst thematisiert die Wirtschaftsethik. Bei DeepL Write kann man beanstanden, dass dieses Lektorprogramm offensichtlich nicht den Regeln des Rechtschreibrats, sondern eigenen Regeln folgt. So werden Rechtschreibfehler, die mit Sonderzeichen im Wortinneren zusammenhängen, also mit einer sogenannten geschlechtergerechten Sprache, nicht als solche erkannt bzw. beanstandet. Dies kann man in der Informationsethik und in der Medienethik untersuchen. DALL-E 2 und Lensa schaffen auf der Grundlage von Text- und Bildmaterial wirkungsstarke Visualisierungen. Angeblich werden bei Lensa die weiblichen Avatare sexualisiert, was aber nicht von allen Benutzern bestätigt werden kann. Die KI-Ethik dringt zum Kern vor, zum Machine Learning, und widmet sich der Herkunft und Qualität der Daten und dem Aufbau, der Anpassung und der Weiterentwicklung der Algorithmen. Sie behandelt mehr und mehr, wie Roboterethik und Maschinenethik, ganz grundsätzliche Aspekte, etwa in Bezug auf das Verhältnis zwischen (den Funktionsweisen und Endresultaten) künstlicher und menschlicher Intelligenz.“ Der Beitrag ist am 24. Januar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/ki-ethik-124922 abgerufen werden.

Abb.: Wo sich Mensch und Maschine berühren

Proceedings von „How Fair is Fair?“ erschienen

Am 17. November 2022 sind die Proceedings von „How Fair is Fair? Achieving Wellbeing AI“ (Organisatoren: Takashi Kido und Keiki Takadama) auf CEUR-WS erschienen. Das AAAI 2022 Spring Symposium fand vom 21. bis 23. März 2022 an der Stanford University statt. Im elektronischen Band finden sich sieben Full Papers mit 6 – 8 Seiten: „Should Social Robots in Retail Manipulate Customers?“ von Oliver Bendel und Liliana Margarida Dos Santos Alves (3. Platz der Best Presentation Awards), „The SPACE THEA Project“ von Martin Spathelf und Oliver Bendel (2. Platz der Best Presentation Awards), „Monitoring and Maintaining Student Online Classroom Participation Using Cobots, Edge Intelligence, Virtual Reality, and Artificial Ethnographies“ von Ana Djuric, Meina Zhu, Weisong Shi, Thomas Palazzolo und Robert G. Reynolds, „AI Agents for Facilitating Social Interactions and Wellbeing“ von Hiro Taiyo Hamada und Ryota Kanai (1. Platz der Best Presentation Awards) , „Sense and Sensitivity: Knowledge Graphs as Training Data for Processing Cognitive Bias, Context and Information Not Uttered in Spoken Interaction“ von Christina Alexandris, „Fairness-aware Naive Bayes Classifier for Data with Multiple Sensitive Features“ von Stelios Boulitsakis-Logothetis und „A Thermal Environment that Promotes Efficient Napping“ von Miki Nakai, Tomoyoshi Ashikaga, Takahiro Ohga und Keiki Takadama. Zudem gibt es mehrere Short Papers und Extended Abstracts. Die Proceedings können über ceur-ws.org/Vol-3276/ abgerufen werden.

Abb.: Der Stanford Bunny

Wieviel Gewalt verträgt die Virtualität?

„Obszöne Übergriffe auf sogenannte Chatbots befeuern die Diskussion darüber, welche Regeln und Grenzen für die Nutzung gelten sollen. In der Netzkultur blickt Emily Thomey auf die Debatte über künstliche Intelligenz und unseren Umgang mit ihr.“ (Website WDR 5 Scala) Mit diesen Worten wird in eine Sendung bei WDR 5 Scala (Netzkultur) am 18. März 2022 eingeführt. Zu Wort kommt Oliver Bendel, der sich in seiner Forschung seit der Jahrtausendwende mit Conversational Agents und seit vielen Jahren auch mit Beziehungen zu Artefakten – vor allem zu Robotern – beschäftigt. Er sieht Unterschiede zwischen Phantasie, Fiktionalität, Virtualität und Realität. In der Virtualität – in Spielewelten und in Unterhaltungen mit Chatbots und Sprachassistenten – müssen nach seiner Meinung auch grenzwertige Rollenspiele erlaubt sein. Problematisch wird es, wenn der Benutzer die Akte und Sprechakte in die Realität bringt und sich z.B. vor Freunden damit brüstet, eine digitale Frau erniedrigt zu haben. Auch die Einübung von Praktiken an Liebespuppen und Sexrobotern kann seiner Ansicht nach problematisch sein. Die Sendung mit dem Titel „Ethikdebatte im Umgang mit Chatbots“ kann über www1.wdr.de abgerufen werden.

Abb.: Auch in Fortnite gibt es Gewalt

KI trifft Ethik

Das Magazin What’s N3xt wartet in seiner Ausgabe 1/2021 mit Beiträgen zu Robotik und KI auf. In „Uns fehlen Helden!“ erklärt ein bekannter Investor, „was ihn antreibt und warum er auf technologische Innovationen steht“. „Mit 10‑xDNA beschreibt Frank Thelen die Denkweise, die erforderlich ist, um die vor uns liegenden technologischen Fortschritte und Innovationen zu erfassen und zu nutzen.“ (What’s N3xt, 1/2021) In „Nächste Ausfahrt Zukunft“ steht Ranga Yogeshwar Rede und Antwort. „Wir vertrauen Algorithmen, die wir nicht mal nachvollziehen können. Und diese Systeme lernen schneller, als wir Menschen es tun. Neuronale Netze und Machine Learning sind Teil unseres täglichen Lebens geworden.“ (What’s N3xt, 1/2021) „KI trifft Ethik“ wird mit den folgenden Worten angeteasert: „Wie kriegt man menschliche Moral in künstliche Intelligenzen?“ (What’s N3xt, 1/2021) Die Antwort kennt der Informations- und Maschinenethiker Oliver Bendel, der moralische Maschinen baut, Chatbots und Serviceroboter, die moralischen Regeln folgen. Das gesamte Magazin kann hier heruntergeladen werden.

Abb.: KI trifft Ethik

Sinn und Unsinn von Responsible AI

„Mit dem Begriff der Responsible AI werden Bestrebungen zusammengefasst, Systeme künstlicher Intelligenz in verantwortungsvoller Weise zu entwickeln respektive einzusetzen und Systeme zu schaffen, die über bestimmte Merkmale und Fähigkeiten – etwa sozialer oder moralischer Art – verfügen. Angesprochen werden damit u.a. Erklärbarkeit (Explainable AI), Vertrauenswürdigkeit (Trustworthy AI), Datenschutz, Verlässlichkeit und Sicherheit. Der Ausdruck hat sich allmählich seit der Jahrtausendwende und dann verstärkt ab ca. 2010 verbreitet. Er wird – wie ‚Explainable AI‘ und ‚Trustworthy AI‘ – vielfach im Marketing von Staaten und Verbünden wie der EU, technologieorientierten Unternehmen bzw. Unternehmensberatungen sowie wissenschaftsfördernden Stiftungen verwendet, die sich, ihre Produkte, ihr Consulting und ihr Funding ins rechte Licht rücken wollen. Er kann aber ebenso den Namen einer Forschungsgruppe mit entsprechender Ausrichtung schmücken.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der am 20. Februar 2021 im Gabler Wirtschaftslexikon erschienen ist. Am Ende heißt es: „Letztlich ist ‚Responsible AI‘ ein diffuser Begriff, der hohe Erwartungen weckt, jedoch kaum erfüllt.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/responsible-ai-123232 abgerufen werden.

Abb.: Sinn und Unsinn von Responsible AI

Responsible AI

„HASLER RESPONSIBLE AI“ is a research program of the Hasler Foundation open to research institutions within the higher education sector or non-commercial research institutions outside the higher education sector. The foundation explains the goals of the program in a call for project proposals: „The HASLER RESPONSIBLE AI program will support research projects that investigate machine-learning algorithms and artificial intelligence systems whose results meet requirements on responsibility and trustworthiness. Projects are expected to seriously engage in the application of the new models and methods in scenarios that are relevant to society. In addition, projects should respect the interdisciplinary character of research in the area of RESPONSIBLE AI by involving the necessary expertise.“ (CfPP by Hasler Foundation) Deadline for submission of short proposals is 24 January 2021. More information at haslerstiftung.ch.

Fig.: Responsible AI

A New AI Magazine

AAAI has announced the launch of the Interactive AI Magazine. According to the organization, the new platform provides online access to articles and columns from AI Magazine, as well as news and articles from AI Topics and other materials from AAAI. „Interactive AI Magazine is a work in progress. We plan to add lot more content on the ecosystem of AI beyond the technical progress represented by the AAAI conference, such as AI applications, AI industry, education in AI, AI ethics, and AI and society, as well as conference calendars and reports, honors and awards, classifieds, obituaries, etc. We also plan to add multimedia such as blogs and podcasts, and make the website more interactive, for example, by enabling commentary on posted articles. We hope that over time Interactive AI Magazine will become both an important source of information on AI and an online forum for conversations among the AI community.“ (AAAI Press Release) More information via interactiveaimag.org.

Fig.: A magazine for interested people, cyborgs and robots