Überlegungen zum künstlichen Bewusstsein

„Was sollte Ihrer Einschätzung nach zum Thema ‚Bewusste Künstliche Intelligenz‘ diskutiert werden, geschehen oder unterbleiben? Welche Forschungsansätze und Narrative gehören weiterentwickelt, aufgelöst und ersetzt, welche Irrwege endlich beendet, und welche Ansätze und Nischen sollten deutlich mehr Aufmerksamkeit erhalten? Aus welchen Gründen wird derzeit überhaupt über Künstliches Bewusstsein gesprochen, und was halten Sie für vielversprechend, möchte man ‚Bewusstsein‘ künstlich bewirken?“ Diese Fragen stellte Ende 2020 das KIT – Karlsruher Institut für Technologie verschiedenen Experten auf dem Gebiet. Oliver Bendel reichte im Frühjahr 2021 den Beitrag „Soziale Roboter und ihr Sprung in die Zukunft“ ein. Er stellte die drei Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein (Künstliches Bewusstsein) in einen Zusammenhang und klärte, welchen Gegenstand sie jeweils haben und welchen Ursprung oder welches Vorbild dieser wiederum hat. Dann zeigte er auf, wie die Soziale Robotik die drei Disziplinen einbezieht und ausnutzt. Der Band soll 2023 bei KIT Scientific Publishing unter dem Titel „Künstliche Intelligenz und Bewusstsein – Statements 2021“ erscheinen. Der Beitrag kann hier als Preprint heruntergeladen werden.

Abb.: Überlegungen zum künstlichen Bewusstsein

Neue Antwortmaschinen

Stephanie Schnydrig von CH Media war im Gespräch mit Oliver Bendel und fragte u.a., wie ChatGPT und Co. unsere Art, Dinge im Internet zu suchen, verändern werden. Die Antwort des Wirtschaftsinformatikers und Technikphilosophen lautete: „Die Benutzer erhalten nicht nur eine Liste mit Websites, sondern auch eine Antwort in natürlicher Sprache bzw. einen fertigen Text. So kann man bei Bing – in das ChatGPT integriert ist – nach einem Rezept für ein Drei-Gänge-Menü für sechs Personen fragen, die sich vegetarisch ernähren. Bing schlägt nicht nur das Drei-Gänge-Menü vor, sondern erlaubt auch gezielte Nachfragen zur Zubereitung. Die Benutzer müssen nicht hunderte von Rezepten vergleichen und bewerten. Ihr Aufwand reduziert sich. Zugleich stellt sich die Frage, ob das Rezept wirklich etwas taugt. Aus welchen Quellen stammt es? Und sind wirklich alle Gänge vegetarisch? Wen kann ich zur Verantwortung ziehen, wenn etwas schiefgeht? Zum Teil können die Systeme die Quellen nennen, zum Teil aber auch nicht – Machine Learning verwischt sozusagen die Herkunft ein Stück weit. Vermutlich werden wir, sofern die Systeme gesprochene Sprache beherrschen, viel mehr mit Suchmaschinen sprechen als früher. Die Ausgaben taugen grundsätzlich zum Dialog, und die Systeme finden auf fast alles eine Antwort. Ich konnte schon vor Jahren Google Assistant fragen, wer Rihanna ist. Der Sprachassistent hat die Antwort auf Wikipedia gefunden und vorgelesen. Heute bedient sich ein Tool aus tausenden Quellen und variiert die Antwort. Man hat ganz andere Möglichkeiten.“ Es wurden weitere Fragen gestellt und Antworten gegeben. Die eine oder andere Aussage wurde im Artikel „Bingen wir bald, anstatt zu googeln?“ verwendet, der am 9. Februar 2023 in der Luzerner Zeitung und verschiedenen anderen Schweizer Zeitungen erschienen ist.

Abb.: Wie lautet die Antwort?

Robots in Bars, Cafés, and Restaurants

As part of the AAAI 2023 Spring Symposia in San Francisco, the symposium „Socially Responsible AI for Well-being“ is organized by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The paper „How Can Bar Robots Enhance the Well-being of Guests?“ by Oliver Bendel and Lea K. Peier was accepted. The talk will take place between March 26 and 29, 2023 at Hyatt Regency, San Francisco Airport. The symposium website states: „For our happiness, AI is not enough to be productive in exponential growth or economic/financial supremacies but should be socially responsible from the viewpoint of fairness, transparency, accountability, reliability, safety, privacy, and security. For example, AI diagnosis system should provide responsible results (e.g., a high-accuracy of diagnostics result with an understandable explanation) but the results should be socially accepted (e.g., data for AI (machine learning) should not be biased (i.e., the amount of data for learning should be equal among races and/or locations). Like this example, a decision of AI affects our well-being, which suggests the importance of discussing ‚What is socially responsible?‘ in several potential situations of well-being in the coming AI age.“ (Website AAAI) According to the organizers, the first perspective is „(Individually) Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to design Responsible AI for well-being. The second perspective is „Socially Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to implement social aspects in Responsible AI for well-being. More information via www.aaai.org/Symposia/Spring/sss23.php#ss09.

Fig.: Humans and robots can bring water

Grundlagen der KI-Ethik

Wie bereits in seinen Büchern „400 Keywords Informationsethik“ und „450 Keywords Digitalisierung“ beschäftigt sich Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon mit der KI-Ethik. Er stellt ausführlich dar, wie diese mit den klassischen Bereichsethiken und mit der Maschinenethik verbunden ist. Am Ende heißt es: „Die KI-Ethik erhält Auftrieb durch Entwicklungen seit 2022 wie ChatGPT, DeepL Write und DALL-E 2 oder Lensa. Zunächst handelt es sich dabei um ebenso mächtige wie disruptive Tools. Bei ChatGPT stellt sich die Frage, wie fehleranfällig und vorurteilsbeladen das Reinforcement Learning from Human Feedback (RLHF) ist. Zudem kann die Datenqualität unter die Lupe genommen werden. Auch wenn Dokumente und Quellen von Arbeitskräften klassifiziert und qualifiziert werden, bedeutet das nicht unbedingt, dass ihre Verwendung unproblematisch ist. Die Arbeitsverhältnisse selbst thematisiert die Wirtschaftsethik. Bei DeepL Write kann man beanstanden, dass dieses Lektorprogramm offensichtlich nicht den Regeln des Rechtschreibrats, sondern eigenen Regeln folgt. So werden Rechtschreibfehler, die mit Sonderzeichen im Wortinneren zusammenhängen, also mit einer sogenannten geschlechtergerechten Sprache, nicht als solche erkannt bzw. beanstandet. Dies kann man in der Informationsethik und in der Medienethik untersuchen. DALL-E 2 und Lensa schaffen auf der Grundlage von Text- und Bildmaterial wirkungsstarke Visualisierungen. Angeblich werden bei Lensa die weiblichen Avatare sexualisiert, was aber nicht von allen Benutzern bestätigt werden kann. Die KI-Ethik dringt zum Kern vor, zum Machine Learning, und widmet sich der Herkunft und Qualität der Daten und dem Aufbau, der Anpassung und der Weiterentwicklung der Algorithmen. Sie behandelt mehr und mehr, wie Roboterethik und Maschinenethik, ganz grundsätzliche Aspekte, etwa in Bezug auf das Verhältnis zwischen (den Funktionsweisen und Endresultaten) künstlicher und menschlicher Intelligenz.“ Der Beitrag ist am 24. Januar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/ki-ethik-124922 abgerufen werden.

Abb.: Wo sich Mensch und Maschine berühren

Woke KI?

DeepL Write ist ein KI-basiertes Lektorprogramm, das seit 17. Januar 2023 als Betaversion über www.deepl.com/write verfügbar ist, für die deutsche und die englische Sprache. Es wurde nun mit Hilfe einer Rechtschreibtafel geprüft, die Oliver Bendel im Jahre 2015 erstellt und seitdem immer wieder aktualisiert hat. 1. Der Satz „Alkohol in Maßen ist gesund.“ wurde nicht beanstandet. Bei „Herzlich willkommen“ wurde „Willkommen“ vorgeschlagen. Als weitere Alternative zeigte das Tool „Herzlich Willkommen“ an, also eine falsche Schreibweise. 2. „Frühlingserwachen“ wurde nicht beanstandet. Als erste Alternative zu „Social-Media-Konferenz“ wurde „Social Media Konferenz“ vorgeschlagen, also eine falsche Schreibweise. Hier muss zwingend durchgekoppelt werden. Für „Donaudampfschifffahrtsgesellschaftskapitänsmütze“ offerierte DeepL Write solide Optionen wie „Kapitänsmütze der Donaudampfschifffahrtsgesellschaft“. 3. Zu „Wir betreten unser neues Haus, in dem man komfortabel wohnen kann.“ wurden merkwürdige Alternativen wie „Betreten unseres neuen Hauses, in dem es sich gut leben lässt.“ aufgeführt. „Wirksam führen“ wurde als korrekt erkannt, ebenso „Lenny und Laura gehen schwimmen.“ (wobei hier die Alternative „Lenny und Laura gehen baden.“ aufgelistet wurde). 4. Der korrekte Plural in „Die erste und die zweite Sturmwarnung wurden missachtet.“ war auch Bestandteil der verschiedenen Varianten. 5. „Das gibt’s doch nicht!“ wurde als korrekt erkannt, ebenso „Willis Würstchenbude“. Allerdings zeigte das Tool hier als erste Alternative „Willi’s Würstchenbude“ an. Diese Schreibweise lässt der Duden inzwischen zu, was freilich nicht für das Wörterbuch spricht. 6. „Der Chef fragt sie, ob sie zufrieden ist.“ wurde korrekt als Aussagesatz erkannt und nicht zum Fragesatz umformuliert. 7. Bei „Komm, wir essen, Oma!“ lautete eine Alternative „Komm, lass uns essen, Oma!“. Die Oma blieb in allen Fällen unversehrt. „Die Ärzt*innen“ wurde als korrekt angesehen, obwohl diese Schreibweise in der amtlich fixierten Sprache nicht existiert. Erst als zweite Alternative wurde „Ärztinnen und Ärzte“ unterbreitet. Hier wäre „Ärzte und Ärztinnen“ vorzuziehen, wenn man zuerst die am wenigsten komplexe Form aufführen will. Die weibliche Form nennt man bei Begrüßungen zuerst. Das korrekte generische Maskulinum fehlt bei den Vorschlägen ganz. Das Ergebnis des Tests ist, dass DeepL Write in wesentlichen Aspekten versagt, in Bezug auf Groß- und Kleinschreibung, Zusammen- und Getrenntschreibung und die amtlich fixierten Regeln. Es werden zum Teil eigene Rechtschreibregeln angewandt. Oder Regeln, die eine ideologisch motivierte Gruppe aufgestellt hat – böse Zungen würden deshalb von woker KI sprechen. Damit ist der Nutzen des Tools grundsätzlich in Frage gestellt. „Schreiben Sie klar, präzise und fehlerfrei“, so heißt es auf der Website – das kann man offenbar besser, indem man sich auf sein Sprachgefühl und den Rechtschreibrat verlässt.

Abb.: Die Rechtschreibtafel

AAAI Symposium on AI for Well-being

As part of the AAAI 2023 Spring Symposia in San Francisco, the symposium „Socially Responsible AI for Well-being“ is organized by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The AAAI website states: „For our happiness, AI is not enough to be productive in exponential growth or economic/financial supremacies but should be socially responsible from the viewpoint of fairness, transparency, accountability, reliability, safety, privacy, and security. For example, AI diagnosis system should provide responsible results (e.g., a high-accuracy of diagnostics result with an understandable explanation) but the results should be socially accepted (e.g., data for AI (machine learning) should not be biased (i.e., the amount of data for learning should be equal among races and/or locations). Like this example, a decision of AI affects our well-being, which suggests the importance of discussing ‚What is socially responsible?‘ in several potential situations of well-being in the coming AI age.“ (Website AAAI) According to the organizers, the first perspective is „(Individually) Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to design Responsible AI for well-being. The second perspective is „Socially Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to implement social aspects in Responsible AI for well-being. More information via www.aaai.org/Symposia/Spring/sss23.php#ss09.

Fig.: Golden Gate Bridge

Plaudern wie die alten Römer

Chatbots und Sprachassistenten – sogenannte Conversational Agents – entstanden an der Hochschule für Wirtschaft FHNW von 2012 bis 2022 vor allem im Kontext der Maschinenethik und Sozialen Robotik. Prof. Dr. Oliver Bendel möchte sich nun verstärkt um tote, ausgestorbene und gefährdete Sprachen kümmern. @ve ist ein erster Versuch in dieser Richtung. Gewonnen werden konnte dafür im September 2022 der Entwickler Karim N’diaye. Er stellte am 17. November 2022 an der Hochschule die Zwischenergebnisse vor. Der Chatbot basiert auf GPT-3, einem Sprachmodell, das Deep Learning einsetzt, um natürlichsprachliche Fähigkeiten zu erlangen. Das neuronale Netzwerk weist etwa 175 Milliarden Parameter auf, was einen Rekord darstellt. Kombiniert mit einer Wissensdatenbank, welche Informationen über die lateinische Sprache enthält, kann @ve präzise Antworten auf Benutzeranfragen generieren. Mit ihr kann man also auf Lateinisch plaudern und etwas darüber erfahren. Weitere Projekte mit Chatbots und Sprachassistenten ab 2023 sollen sich gefährdeten und aussterbenden Sprachen widmen. Latein wird an vielen Schulen und Hochschulen gelehrt und immer noch für das eine oder andere Studium – etwa der Philosophie – vorausgesetzt respektive gewünscht. Mit „Romulus“ hat Sky Italia eine Serie in dieser toten Sprache produziert und sie damit ein Stück weit lebendig gemacht. In Deutschland ist sie auf Magenta TV mit Untertiteln zu sehen. Informationen zu @ve werden Ende Dezember 2022 über www.ave-bot.ch bereitgestellt.

Abb.: Ein Gladiator

Proceedings von „How Fair is Fair?“ erschienen

Am 17. November 2022 sind die Proceedings von „How Fair is Fair? Achieving Wellbeing AI“ (Organisatoren: Takashi Kido und Keiki Takadama) auf CEUR-WS erschienen. Das AAAI 2022 Spring Symposium fand vom 21. bis 23. März 2022 an der Stanford University statt. Im elektronischen Band finden sich sieben Full Papers mit 6 – 8 Seiten: „Should Social Robots in Retail Manipulate Customers?“ von Oliver Bendel und Liliana Margarida Dos Santos Alves (3. Platz der Best Presentation Awards), „The SPACE THEA Project“ von Martin Spathelf und Oliver Bendel (2. Platz der Best Presentation Awards), „Monitoring and Maintaining Student Online Classroom Participation Using Cobots, Edge Intelligence, Virtual Reality, and Artificial Ethnographies“ von Ana Djuric, Meina Zhu, Weisong Shi, Thomas Palazzolo und Robert G. Reynolds, „AI Agents for Facilitating Social Interactions and Wellbeing“ von Hiro Taiyo Hamada und Ryota Kanai (1. Platz der Best Presentation Awards) , „Sense and Sensitivity: Knowledge Graphs as Training Data for Processing Cognitive Bias, Context and Information Not Uttered in Spoken Interaction“ von Christina Alexandris, „Fairness-aware Naive Bayes Classifier for Data with Multiple Sensitive Features“ von Stelios Boulitsakis-Logothetis und „A Thermal Environment that Promotes Efficient Napping“ von Miki Nakai, Tomoyoshi Ashikaga, Takahiro Ohga und Keiki Takadama. Zudem gibt es mehrere Short Papers und Extended Abstracts. Die Proceedings können über ceur-ws.org/Vol-3276/ abgerufen werden.

Abb.: Der Stanford Bunny

Unfassbar verliebt

Am 3. Oktober 2022 ist auf der Website des österreichischen Standard der Artikel „Wie ‚Fiktosexuelle‘ Beziehungen mit virtuellen Figuren führen“ erschienen. In der gedruckten Ausgabe war er schon ein paar Tage vorher zu lesen, unter dem Titel „Unfassbar verliebt„. Im Teaser heißt es: „Es gibt Menschen, die tatsächlich Beziehungen mit Hologrammen, virtuellen Avataren und smarten Assistentinnen führen. Dennoch bleibt die Maschinenliebe eine Illusion …“. Zu Wort kommt mehrmals Prof. Dr. Oliver Bendel, dessen Buch „Maschinenliebe“ über Liebespuppen, Sexroboter und virtuelle Figuren aller Art im Jahre 2020 herausgekommen ist. Mitgeschrieben haben einige der führenden Experten in diesem Bereich, u.a. Sophie Wennerscheid, Tanja Kubes, Melike Şahinol, Kate Devlin, Nicola Döring und Yuefang Zhou. Im Buch „AI Love You“ von Yuefang Zhou und Martin Fischer veröffentlichte Oliver Bendel auch den Beitrag „Hologram Girl“, der auf Beziehungen zu Hologrammen und Projektionen eingeht. Der Artikel im Standard kann hier abgerufen werden.

Abb.: Unfassbar verliebt in eine Fantasyfigur

Meine Freundin, der Chatbot

Chatbots stehen auf Websites von Unternehmen bereit, um über Produkte und Dienstleistungen zu informieren. Einige dienen auch einfach der Unterhaltung und Entspannung. Kuki (früher Mitsuku) und Replika lernen dazu und erinnern sich an Aussagen der Benutzer. Manche Benutzer wenden den Chatbots und Sprachassistenten gegenüber verbale Gewalt an. Dies kann innerhalb von Rollenspielen passieren und als Ventil funktionieren. Man verbleibt innerhalb der Virtualität. Fragwürdig ist es, wenn die Realität in der Weise einbezogen wird, dass sich die Benutzer vor Freunden mit ihren Taten brüsten und sich ihr Verhalten in ihren Beziehungen verändert. Was die Beziehungen zu den Chatbots und Sprachassistenten anbetrifft, muss beachtet werden, dass sie einseitig sind. Die Softwareroboter zeigen Emotionen und Empathie, aber sie haben sie nicht. Sie scheinen sich für ihr Gegenüber zu interessieren, aber in Wirklichkeit ist da nichts, was sich interessieren könnte. Natürlich ist es wichtig, die Phantasie in der Realität wachzuhalten, und dies kann über Fiktionalität und Virtualität geschehen. Problematisch wird es jedoch, wenn dauerhaft die Grenzen verschwimmen und man den Chatbot oder Sprachassistenten für einen ernstzunehmenden Partner hält. Der österreichische Standard hat Oliver Bendel zu dieser Thematik interviewt. Der Beitrag von Jakob Pallinger ist am 15. April 2022 in der Printausgabe erschienen („Meine Freundin, der Roboter“), am 17. April in der Onlineversion („Warum immer mehr Menschen künstliche Freunde und Partner haben“).

Abb.: Meine Freundin, der Chatbot, taucht gleich auf

Menschen und Tiere verstehen

Maschinelle Übersetzung (engl. ‚machine translation‘) ist die automatische Übersetzung von einer natürlichen Sprache in eine andere. Sie wird erforscht und entwickelt innerhalb der Künstlichen Intelligenz.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon zur maschinellen Übersetzung von Oliver Bendel, veröffentlicht im März 2022. Eingegangen wird auch auf das Earth Species Project, in dem man die maschinelle Übersetzung zwischen tierischer und menschlicher Sprache anstrebt. „Interessant für erste Versuche sind Wale und Affen und andere Tiere, die Töne zur Verständigung benutzen. Bedenken muss man, dass mit tierischen und menschlichen Sprachen unterschiedliche Weltmodelle verbunden sind.“ Am Ende wird die Perspektive der Ethik eingenommen: „Ungewollte Bedeutungsverschiebungen und ihre Folgen mag man in der Medienethik thematisieren. Die Übersetzung von wissenschaftlichen Texten und Gebrauchstexten wird weitgehend automatisiert, was in der Wirtschaftsethik analysiert werden kann.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/maschinelle-uebersetzung-123753 abgerufen werden.

Abb.: Menschen und Tiere verstehen

Hey Replika, You Bitch!

Breitband (DLF Kultur) hat sich mit Oliver Bendel über Chatbots unterhalten, mit denen man Beziehungen führen und Phantasien ausleben kann. Der Informations- und Maschinenethiker stellte zunächst grundsätzlich fest, dass man sich mit Chatbots und Sprachassistenten anders unterhält als mit Menschen. Man schreibt oder spricht einfacher, kürzer – und obszöner. Mit Replika kann man über generelle und persönliche Angelegenheiten sprechen – und auch Phantasien im Virtuellen ausleben. Normalerweise bleibt es dabei. Dennoch gibt es, so der Ethiker aus Zürich, durchaus Effekte im Realen. Denn wenn man mit Replika in obszöner Weise chattet, reagiert man darauf, ist erregt, erheitert etc. Es stellen sich also körperliche und geistige Reaktionen ein. Grundsätzlich trainiert man auch ein bestimmtes Verhalten, entwickelt bestimmte Methoden und Strategien im Sprachlichen. Die meisten Benutzer dürften zwischen Virtualität und Realität unterscheiden können. Sobald sie auf einen echten Menschen treffen, passen sie sich an. Aber es kann durchaus sein, dass Einzelne bewusst oder unbewusst das Erlernte ausprobieren. Allgemeine Chatbots, die der Unterhaltung dienen, sollte man durchaus begrenzen, so der Informations- und Maschinenethiker. Man kann ihnen etwa eine Persönlichkeit geben, mit deren Hilfe u.a. Übergriffe zurückgewiesen werden. Das fängt schon damit an, dass Replika es nicht gut finden muss, wenn man sie Bitch nennt. Der Beitrag „Alles nur ein Spiel?“ wird am 29. Januar 2022 um 13.05 Uhr ausgestrahlt. Weitere Informationen über www.deutschlandfunkkultur.de/programm.

Abb.: Replika könnte sich schützen und wehren

ANIFACE

Face recognition for humans is very controversial, especially when it comes to surveillance or physiognomy. However, there are also other possible applications, for example in relation to animals. At the moment, individuals are mainly tracked with the help of chips and transmitters. However, these are disturbing for some of the animals. Further, the question is whether one should interfere with living beings in this way. In addition, animals are constantly being born that escape monitoring. The project „ANIFACE: Animal Face Recognition“ will develop a concept of a facial recognition system that can identify individuals of bears and wolves. These are advancing more and more in Switzerland and need to be monitored to protect them and affected people (and their agriculture). Facial recognition can be used to identify the individual animals and also to track them if there are enough stations, which of course must be connected with each other. An interesting sidebar would be emotion recognition for animals. The system (which could include camera installations and robots) could find out how bears and wolves are feeling and then trigger certain actions. The project was applied for in July 2021 by Prof. Dr. Oliver Bendel, who has already designed and implemented several animal-friendly machines with his teams. In August, it will be decided whether he can start the work.

Fig.: An attentive lion

Sinn und Unsinn von Responsible AI

„Mit dem Begriff der Responsible AI werden Bestrebungen zusammengefasst, Systeme künstlicher Intelligenz in verantwortungsvoller Weise zu entwickeln respektive einzusetzen und Systeme zu schaffen, die über bestimmte Merkmale und Fähigkeiten – etwa sozialer oder moralischer Art – verfügen. Angesprochen werden damit u.a. Erklärbarkeit (Explainable AI), Vertrauenswürdigkeit (Trustworthy AI), Datenschutz, Verlässlichkeit und Sicherheit. Der Ausdruck hat sich allmählich seit der Jahrtausendwende und dann verstärkt ab ca. 2010 verbreitet. Er wird – wie ‚Explainable AI‘ und ‚Trustworthy AI‘ – vielfach im Marketing von Staaten und Verbünden wie der EU, technologieorientierten Unternehmen bzw. Unternehmensberatungen sowie wissenschaftsfördernden Stiftungen verwendet, die sich, ihre Produkte, ihr Consulting und ihr Funding ins rechte Licht rücken wollen. Er kann aber ebenso den Namen einer Forschungsgruppe mit entsprechender Ausrichtung schmücken.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der am 20. Februar 2021 im Gabler Wirtschaftslexikon erschienen ist. Am Ende heißt es: „Letztlich ist ‚Responsible AI‘ ein diffuser Begriff, der hohe Erwartungen weckt, jedoch kaum erfüllt.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/responsible-ai-123232 abgerufen werden.

Abb.: Sinn und Unsinn von Responsible AI

Artificial Love

Ayanda Rogge ist Doktorandin bei Prof. Dr. Sven Engesser und Prof. Dr. Oliver Bendel. Sie arbeitet seit Herbst 2019 als wissenschaftliche Mitarbeiterin am Institut für Medien und Kommunikation der TU Dresden. Ihre Forschungsschwerpunkte sind post- und transhumanistische Entwicklungen wie emotional intelligente Maschinen und Mensch-Roboter-Interaktion – mit besonderem Fokus auf die Gestaltung von Mensch-Maschine-Kommunikation und anthropomorphem Framing. In ihrer Dissertation untersucht sie Kommunikationskomponenten, die zu einer höheren Interaktionsrate zwischen Mensch und Maschine in sozialen Kontexten führen. Dabei untersucht sie auch Liebespuppen mit erweiterten Funktionen und eigentliche Sexroboter. Für das Buch „Maschinenliebe“ (Hrsg. Oliver Bendel) hat sie gleich zwei Beiträge verfasst, einen mit einer Marktübersicht und einen mit einer psychologischen Studie mit Blick auf diverse Anwendungsgebiete. In der Sonntagszeitung vom 13. Dezember 2020 gibt sie Auskunft zu ihrer Forschung und Einschätzungen zu Problemgebieten. In einem Infokasten wird auch der genannte Band erwähnt, der Ende Oktober 2020 herausgekommen ist und über Springer bezogen werden kann. Der Artikel kann ab dem 20. Dezember 2020 kostenlos als PDF heruntergeladen werden.

Abb.: Artificial love

Responsible AI

„HASLER RESPONSIBLE AI“ is a research program of the Hasler Foundation open to research institutions within the higher education sector or non-commercial research institutions outside the higher education sector. The foundation explains the goals of the program in a call for project proposals: „The HASLER RESPONSIBLE AI program will support research projects that investigate machine-learning algorithms and artificial intelligence systems whose results meet requirements on responsibility and trustworthiness. Projects are expected to seriously engage in the application of the new models and methods in scenarios that are relevant to society. In addition, projects should respect the interdisciplinary character of research in the area of RESPONSIBLE AI by involving the necessary expertise.“ (CfPP by Hasler Foundation) Deadline for submission of short proposals is 24 January 2021. More information at haslerstiftung.ch.

Fig.: Responsible AI