Die Sprache von Menschen, Tieren und Maschinen

„Bei Sprache handelt es sich um Systeme der Kommunikation von Menschen, Tieren und Maschinen.“ Mit diesem Satz beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Nach grundsätzlichen Erklärungen und einer Darstellung von Entwicklung und Geschichte werden Ansätze einer Systemtheorie entwickelt, in der existenziellen Systemen wie Sprache und Moral sowie zivilisatorischen Systemen wie Politik, Journalismus, Wissenschaft und Kunst eine spezifische Aufgabe zugesprochen wird, deren Erfüllung jeweils durch ein anderes System beeinträchtigt werden kann. Diese Überlegungen kulminieren in der Feststellung, Sinn und Zweck von Sprache sei „nicht, moralisch zu sein“. Im Weiteren wird auf Dialogsysteme eingegangen, die natürliche Sprache verwenden, und auf Technologien und Programme, die Sprache übersetzen und bearbeiten, wobei hier oft ein Bias vorhanden ist und von offiziellen Regeln abgewichen wird. Ein eigener Abschnitt gehört den wirtschaftlichen Aspekten. Am Ende wird Kritik an Strömungen innerhalb der zuständigen Disziplin geübt: „Die Linguistik, die Sprache eigentlich beobachten und untersuchen sollte, gefällt sich in ihren vermeintlich progressiven Ausläufern darin, ihren eigenen Gegenstand zu manipulieren und zu instrumentalisieren. Dem tritt allerdings die klassische Sprachwissenschaft entgegen, wobei sie alte Größe zurückgewinnt, sofern sie nicht im Nostalgischen und Konservatorischen steckenbleibt.“ Zudem werden Überlegungen u.a. aus der Perspektive von Informationsethik, Medienethik, Roboterethik und Wirtschaftsethik angestellt. Der Beitrag ist am 31. Januar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/sprache-124739 aufgerufen werden.

Abb.: Eine Diskussion unter Menschen

Woke KI?

DeepL Write ist ein KI-basiertes Lektorprogramm, das seit 17. Januar 2023 als Betaversion über www.deepl.com/write verfügbar ist, für die deutsche und die englische Sprache. Es wurde nun mit Hilfe einer Rechtschreibtafel geprüft, die Oliver Bendel im Jahre 2015 erstellt und seitdem immer wieder aktualisiert hat. 1. Der Satz „Alkohol in Maßen ist gesund.“ wurde nicht beanstandet. Bei „Herzlich willkommen“ wurde „Willkommen“ vorgeschlagen. Als weitere Alternative zeigte das Tool „Herzlich Willkommen“ an, also eine falsche Schreibweise. 2. „Frühlingserwachen“ wurde nicht beanstandet. Als erste Alternative zu „Social-Media-Konferenz“ wurde „Social Media Konferenz“ vorgeschlagen, also eine falsche Schreibweise. Hier muss zwingend durchgekoppelt werden. Für „Donaudampfschifffahrtsgesellschaftskapitänsmütze“ offerierte DeepL Write solide Optionen wie „Kapitänsmütze der Donaudampfschifffahrtsgesellschaft“. 3. Zu „Wir betreten unser neues Haus, in dem man komfortabel wohnen kann.“ wurden merkwürdige Alternativen wie „Betreten unseres neuen Hauses, in dem es sich gut leben lässt.“ aufgeführt. „Wirksam führen“ wurde als korrekt erkannt, ebenso „Lenny und Laura gehen schwimmen.“ (wobei hier die Alternative „Lenny und Laura gehen baden.“ aufgelistet wurde). 4. Der korrekte Plural in „Die erste und die zweite Sturmwarnung wurden missachtet.“ war auch Bestandteil der verschiedenen Varianten. 5. „Das gibt’s doch nicht!“ wurde als korrekt erkannt, ebenso „Willis Würstchenbude“. Allerdings zeigte das Tool hier als erste Alternative „Willi’s Würstchenbude“ an. Diese Schreibweise lässt der Duden inzwischen zu, was freilich nicht für das Wörterbuch spricht. 6. „Der Chef fragt sie, ob sie zufrieden ist.“ wurde korrekt als Aussagesatz erkannt und nicht zum Fragesatz umformuliert. 7. Bei „Komm, wir essen, Oma!“ lautete eine Alternative „Komm, lass uns essen, Oma!“. Die Oma blieb in allen Fällen unversehrt. „Die Ärzt*innen“ wurde als korrekt angesehen, obwohl diese Schreibweise in der amtlich fixierten Sprache nicht existiert. Erst als zweite Alternative wurde „Ärztinnen und Ärzte“ unterbreitet. Hier wäre „Ärzte und Ärztinnen“ vorzuziehen, wenn man zuerst die am wenigsten komplexe Form aufführen will. Die weibliche Form nennt man bei Begrüßungen zuerst. Das korrekte generische Maskulinum fehlt bei den Vorschlägen ganz. Das Ergebnis des Tests ist, dass DeepL Write in wesentlichen Aspekten versagt, in Bezug auf Groß- und Kleinschreibung, Zusammen- und Getrenntschreibung und die amtlich fixierten Regeln. Es werden zum Teil eigene Rechtschreibregeln angewandt. Oder Regeln, die eine ideologisch motivierte Gruppe aufgestellt hat – böse Zungen würden deshalb von woker KI sprechen. Damit ist der Nutzen des Tools grundsätzlich in Frage gestellt. „Schreiben Sie klar, präzise und fehlerfrei“, so heißt es auf der Website – das kann man offenbar besser, indem man sich auf sein Sprachgefühl und den Rechtschreibrat verlässt.

Abb.: Die Rechtschreibtafel

ChatGPT als moralische Maschine

„‚ChatGPT‘ steht für ‚Chat‘ (dt. ‚Schwatz‘) und ‚Generative Pre-trained Transformer‘. Es handelt sich um einen Chatbot (bzw. ein System zum Produzieren von Content) von OpenAI, dem das Sprachmodell GPT-3.5 desselben Unternehmens zugrunde liegt. Die Trainingsdaten stammen u.a. aus Foren, Artikeln und Büchern sowie gesprochener Sprache. Benutzt wird eine spezielle Form von Machine Learning, nämlich Reinforcement Learning from Human Feedback (RLHF). Dabei sind Menschen involviert, die bestimmte Antworten für gut und richtig befinden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert.» Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon, der am 24. Januar 2023 erschienen ist. Es wird auf Entwicklung und Hintergrund eingegangen. Zudem wird die Perspektive der Ethik eingenommen. So wird der Chatbot zum ersten Mal als moralische Maschine bezeichnet und damit in die Nähe von GOODBOT und BESTBOT gerückt. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/chatgpt-124904 aufgerufen werden. Er wird in den nächsten Monaten immer wieder aktualisiert und erweitert.

Abb.: Einer der ersten Chatbots, die eine moralische Maschine waren

AAAI Spring Symposia at Hyatt Regency, SFO Airport

The Association for the Advancement of Artificial Intelligence (AAAI) is pleased to present the AAAI 2023 Spring Symposia, to be held at the Hyatt Regency, San Francisco Airport, California, March 27-29. According to the organizers, Stanford University cannot act as host this time because of insufficient staff. Symposia of particular interest from a philosophical point of view are „AI Climate Tipping-Point Discovery“, „AI Trustworthiness Assessment“, „Computational Approaches to Scientific Discovery“, „Evaluation and Design of Generalist Systems (EDGeS): Challenges and methods for assessing the new generation of AI“, and „Socially Responsible AI for Well-being“. According to AAAI, symposia generally range from 40–75 participants each. „Participation will be open to active participants as well as other interested individuals on a first-come, first-served basis.“ (Website AAAI) Over the past decade, the conference has become one of the most important venues in the world for discussions on robot ethics, machine ethics, and AI ethics. It will be held again at History Corner from 2024. Further information via www.aaai.org/Symposia/Spring/sss23.php.

Fig.: The conference will be held in California

Aibo statt Balu

Es ist gar nicht so einfach, überzeugende Robotertiere herzustellen. Vor allem, wenn es sich um Arten handelt, die wir gut kennen. Mit Roboterhunden hat man früh angefangen. Dem humanoiden Roboter Elektro hat man schon bald nach seiner Entwicklung Ende der 1930er-Jahre den kleinen Sparko an die Seite gestellt, im Jahre 1940. Aibo von Sony gehört zu den am weitesten entwickelten Tierrobotern. Er ist aber sehr teuer. Daneben gibt es viele weitere hundeähnliche Roboter oder Spielzeuge, die mehr oder weniger überzeugen. Sie überzeugen meist mehr als Roboterkatzen – es ist schwer, diese umzusetzen. Roboterhunde und Spielzeughunde benötigen keine Nahrung, nur Strom, und keine ständige Betreuung. Sie lösen auch keine Allergien aus. Dass sie keine Nahrung brauchen, kann für Veganer wichtig sein. Hunde und Katzen sind ein entscheidender Faktor bei der Massentierhaltung. Man kann sie zwar vegan ernähren, aber ob das artgerecht ist, ist umstritten. Prof. Dr. Oliver Bendel wurde von Adrian Lobe zu Roboterhaustieren befragt. Der Artikel mit seinen Aussagen ist am 1. Dezember 2022 in der österreichischen Wochenzeitschrift Die Furche unter dem Titel „Roboterhunde: Aibo statt Balu“ erschienen und kann über www.furche.at/wissen/roboterhunde-aibo-statt-balu-9855359 abgerufen werden.

Abb.: Ein echter Labrador

Proceedings von „How Fair is Fair?“ erschienen

Am 17. November 2022 sind die Proceedings von „How Fair is Fair? Achieving Wellbeing AI“ (Organisatoren: Takashi Kido und Keiki Takadama) auf CEUR-WS erschienen. Das AAAI 2022 Spring Symposium fand vom 21. bis 23. März 2022 an der Stanford University statt. Im elektronischen Band finden sich sieben Full Papers mit 6 – 8 Seiten: „Should Social Robots in Retail Manipulate Customers?“ von Oliver Bendel und Liliana Margarida Dos Santos Alves (3. Platz der Best Presentation Awards), „The SPACE THEA Project“ von Martin Spathelf und Oliver Bendel (2. Platz der Best Presentation Awards), „Monitoring and Maintaining Student Online Classroom Participation Using Cobots, Edge Intelligence, Virtual Reality, and Artificial Ethnographies“ von Ana Djuric, Meina Zhu, Weisong Shi, Thomas Palazzolo und Robert G. Reynolds, „AI Agents for Facilitating Social Interactions and Wellbeing“ von Hiro Taiyo Hamada und Ryota Kanai (1. Platz der Best Presentation Awards) , „Sense and Sensitivity: Knowledge Graphs as Training Data for Processing Cognitive Bias, Context and Information Not Uttered in Spoken Interaction“ von Christina Alexandris, „Fairness-aware Naive Bayes Classifier for Data with Multiple Sensitive Features“ von Stelios Boulitsakis-Logothetis und „A Thermal Environment that Promotes Efficient Napping“ von Miki Nakai, Tomoyoshi Ashikaga, Takahiro Ohga und Keiki Takadama. Zudem gibt es mehrere Short Papers und Extended Abstracts. Die Proceedings können über ceur-ws.org/Vol-3276/ abgerufen werden.

Abb.: Der Stanford Bunny

Ein Date mit einem Ding

Simone Luchetta vom Tages-Anzeiger hat Prof. Dr. Oliver Bendel zu Chatbots, Sprachassistenten und sozialen Robotern befragt. Eine Frage war, warum man seit Jahrzehnten davon spreche, dass wir bald Roboter heiraten, aber noch immer nichts dergleichen zu beobachten sei, allenfalls in Japan. Seine Antwort: „Es ist eine alberne Vorstellung, dass wir Chatbots, Sprachassistenten oder Roboter heiraten. Man muss nichts und niemanden heiraten, um eine Beziehung zu führen. In den meisten Fällen dürfte es sich auch um keine echte Ehe handeln. Manchen Produkten liegt ein Zettel bei, den man ausfüllen kann und der über eine Absichtserklärung eine Heirat darstellen soll. Die Maschine selbst hat keine Absichten. Sie hat auch weder Rechte noch Pflichten – und das ist eine schlechte Grundlage für einen Vertrag, der die Ehe letztlich ist. Tatsächlich führen aber viele Menschen eine Beziehung mit einem Sprachassistenten oder einem sozialen Roboter, nicht nur in Japan, sondern auch in den USA oder in Deutschland. Manche haben sogar einen Sexroboter wie Harmony oder gehen zu Liebespuppen in Bordellen. … Letztlich ist und bleibt es eine einseitige Beziehung. Der Roboter interessiert sich nicht für einen, er liebt und hasst einen nicht. Es ist einfach ein Ding, wenn auch ein Ding mit besonderen Eigenschaften. Es ist ein soziales Ding. Und deshalb gehen wir ihm auf den Leim.“ Das Interview umfasste weitere Fragen und Antworten, auch zu kommerziellen Chatbots. Einige Aussagen sind in den Artikel „Meine unheimlich nette Freundin“ eingeflossen, der am 13. und 14. November 2022 in mehreren Schweizer Zeitungen erschienen ist, etwa im Tages-Anzeiger und in der Basler Zeitung. Er ist Teil eines aktuellen KI-Schwerpunkts der Tamedia-Gruppe.

Abb.: Einen Antrag macht man nur unter Menschen

Blatio ergo sum

Latein wird an vielen Schulen und Hochschulen gelehrt und immer noch für das eine oder andere Studium – etwa der Philosophie – vorausgesetzt oder gewünscht. Jahrhundertelang hat es an vergnüglichen Möglichkeiten gemangelt, die Sprache zu erlernen und anzuwenden. Allenfalls Asterix-Comics brachten etwas Abwechslung ins von Caesar und Co. beherrschte Gebiet. Prof. Dr. Oliver Bendel hat an der Hochschule für Wirtschaft FHNW einen Chatbot in Auftrag gegeben, der sich auf Lateinisch unterhalten kann, und ihm den Namen @ve gegeben. Karim N’diaye bereitet seit September 2022 die Umsetzung vor, die dann ab Mitte November 2022 – nach der Zwischenpräsentation – erfolgt. Prof. Dr. Bradley Richards betreut das Projekt in technischer Hinsicht. Nach einer Evaluation hat sich gezeigt, dass sich Quickchat (www.quickchat.ai) als Plattform eignet. Damit basiert der Chatbot auf GPT-3. Durch eine händisch erstellte Wissensbasis kann er noch spezifischer für Latein trainiert werden und auch präzisere Antworten zu grammatikalischen Fragen liefern. Außerdem ist Zweisprachigkeit, also Deutsch und Lateinisch, möglich. Bis Ende des Jahres soll @ve als Prototyp vorliegen. Wie bei allen Projekten zu Chatbots und Sprachassistenten, die Oliver Bendel initiiert, können die Ergebnisse frei verwendet werden.

Abb.: Ein Chat mit Kuki

Programming Machine Ethics

The book „Programming Machine Ethics“ (2016) by Luís Moniz Pereira and Ari Saptawijaya is available for free download from Z-Library. Luís Moniz Pereira is among the best-known machine ethicists. „This book addresses the fundamentals of machine ethics. It discusses abilities required for ethical machine reasoning and the programming features that enable them. It connects ethics, psychological ethical processes, and machine implemented procedures. From a technical point of view, the book uses logic programming and evolutionary game theory to model and link the individual and collective moral realms. It also reports on the results of experiments performed using several model implementations. Opening specific and promising inroads into the terra incognita of machine ethics, the authors define here new tools and describe a variety of program-tested moral applications and implemented systems. In addition, they provide alternative readings paths, allowing readers to best focus on their specific interests and to explore the concepts at different levels of detail.“ (Information by Springer) The download link is eu1lib.vip/book/2677910/9fd009.

Fig.: Programming machine ethics

Über Polizeiroboter in der Schweiz

Polizeieinheiten auf der ganzen Welt nutzen seit Jahren mobile Roboter, etwa zum Sprengen von Objekten oder zum Überwachen von Arealen. Die Mitnahme von Spot bei einem Einsatz des NYPD hat für einigen Wirbel gesorgt. An der Hochschule für Wirtschaft erforscht man den Einsatz von Servicerobotern und sozialen Robotern in der Polizeiarbeit. Im April 2022 wurde das Paper „Robots in Policing“ von Oliver Bendel bei der Robophilosophy 2022 angenommen. Es zeigt auf, wie Roboter die Polizei als soziale Einrichtung und deren Arbeit als soziale Arbeit verändern können. In einer Abschlussarbeit zu Polizeirobotern an der Hochschule für Wirtschaft FHNW, vorgelegt von Alan Chethipuzha und betreut von Oliver Bendel, wurden Erkenntnisse aus einer nichtrepräsentativen Onlineumfrage und zwei Experteninterviews verarbeitet. Die Akzeptanz der Befragten in Bezug auf autonome Polizeiroboter in der Schweiz ist sehr niedrig. Das Sammeln von personenbezogenen Daten mit Hilfe von mobilen Robotern würde als Eingriff in die Privatsphäre gesehen. Bürger fühlten sich konstant beobachtet, wenn ein autonomer Roboter mit Kameras auf den Straßen unterwegs wäre. Die beiden Experten – ein Robotiker und ein Chef der Spezialfahndung in der Kriminalabteilung – sehen zudem aktuell keine möglichen Einsatzgebiete für autonome Polizeiroboter in der Schweiz sowie auch keinen Mehrwert. Ferngesteuerte Roboter wie Drohnen und Raupenfahrzeuge hingegen haben ihrer Ansicht nach jetzt und künftig eine hohe Bedeutung. Die Abschlussarbeit „Serviceroboter und soziale Roboter in der Polizeiarbeit“ von Alan Chethipuzha liegt seit Juli 2022 vor.

Abb.: Arbeitet er mit einem Roboter zusammen?

Wir werden Menschen an Androiden verlieren

Choices war im Gespräch mit Prof. Dr. Oliver Bendel, Technikphilosoph, Informations- und Maschinenethiker aus Zürich. Es ging um Serviceroboter und um soziale Roboter, um das Verhältnis zu ihnen und die Beziehungen mit ihnen. Auch die Stimmen von Robotern und Sprachassistenten waren ein Thema. Die Stimme allein hat eine große Anziehungskraft und bringt uns dazu, uns in jemanden oder etwas zu verlieben. 1989 startete das Magazin als Filmkunstmagazin in Köln. Heute wird es laut Website auch gerne gelesen im Kölner Umland, in Leverkusen und in Bonn. Zugleich hat es sich thematisch erweitert und gewandelt. Es versteht sich als ein breit aufgestelltes Kulturmagazin entwickelt, ohne dass das Augenmerk auf Filmkunst vernachlässigt werde. „Seit gut einem Jahr wurde choices erweitert durch Beiträge zu streitbaren Themen, wie z.B. das Juni-Thema EUROPA IN KÖLN.“ (Website choices.de) Das Interview mit dem Titel „Wir werden Menschen an Androiden verlieren“ ist am 25. Juli 2022 in der Onlineausgabe erschienen. Zusätzlich gibt es eine kürzere Version in der Printausgabe.

Abb.: Wir werden Menschen an Androiden verlieren

Die Rückkehr der Automatobile

In San Francisco haben sich im Juni 2022 Robotertaxis von Cruise auf einer Kreuzung getroffen und diese über Stunden blockiert. Dabei handelte es sich natürlich um einen technischen Fehler, keine echte Versammlung und keinen eigentlichen Aufstand. Der Vorgang erinnert dennoch an die Kurzgeschichte „Sally“ von Isaac Asimov aus dem Jahre 1953. Darin geht es um eine Farm, auf der ausgediente Privatautomatics (auch „Automatobile“ genannt), selbstständig fahrende Autos, ihr Gnadenbrot erhalten. Sally ist ein Cabriolet und besitzt „die schönsten, feinsten Linien“. Wie die anderen Automatics kann sie sich putzen, ja sich sogar wachsen und polieren. Sie ist nicht nur attraktiv, sondern auch frei, geradezu autonom. In ihrer Zeit auf der Farm hat „nie ein menschliches Wesen hinter ihrem Lenkrad gesessen“. Ein Bösewicht will die besonderen Autos ausschlachten. Doch diese jagen und eskortieren ihn, wobei Sally eine heldenhafte Rolle spielt. Am Ende wird er von seinem eigenen Bus getötet. Es stellt sich heraus, dass die Autos miteinander kommunizieren können, und offensichtlich haben die Automatobile den Automatobus angestiftet. Der Artikel „Asimovs Automatobile: Selbstständig fahrende Autos in Fiktion und Realität und als Gegenstand der Maschinenethik“ von Oliver Bendel, erschienen in Telepolis am 27. August 2013, geht auf die Kurzgeschichte im Detail ein und stellt einen Bezug zur Maschinenethik her.

Abb.: Die Rückkehr der Automatobile

Paper about Social Robots in Retail

On June 30, 2022, the paper „Should Social Robots in Retail Manipulate Customers?“ by Oliver Bendel and Liliana Margarida Dos Santos Alves was published on arxiv.org. It was presented at the AAAI 2022 Spring Symposium „How Fair is Fair? Achieving Wellbeing AI“ at Stanford University and came in third place in the Best Presentation Awards. From the abstract: „Against the backdrop of structural changes in the retail trade, social robots have found their way into retail stores and shopping malls in order to attract, welcome, and greet customers; to inform them, advise them, and persuade them to make a purchase. Salespeople often have a broad knowledge of their product and rely on offering competent and honest advice, whether it be on shoes, clothing, or kitchen appliances. However, some frequently use sales tricks to secure purchases. The question arises of how consulting and sales robots should “behave”. Should they behave like human advisors and salespeople, i.e., occasionally manipulate customers? Or should they be more honest and reliable than us? This article tries to answer these questions. After explaining the basics, it evaluates a study in this context and gives recommendations for companies that want to use consulting and sales robots. Ultimately, fair, honest, and trustworthy robots in retail are a win-win situation for all concerned.“ The paper will additionally be published in the proceedings volume of the symposium by the end of summer. It can be downloaded via arxiv.org/abs/2206.14571.

Fig.: Does this bag fit me?

Das CARE-MOMO für Lio und Co.

Immer mehr Roboter werden im Pflegebereich eingesetzt. Die meisten von ihnen sind Prototypen, einige sogar Produkte, die in kleinen Serien hergestellt werden, wie Lio und P-CARE von F&P Robotics. Die Maschinenethik erforscht und schafft moralische Maschinen. Diese lassen sich oft von bestimmten Werten oder Metaregeln leiten, sie folgen vorgegebenen Regeln oder sie lernen aus Situationen und passen ihr Verhalten an. Das CARE-MOMO („MOMO“ steht für „Moralmodul“) ist ein Moralmodul, das Lio erweitern kann. Es baut auf dem MOME auf, dem Moralmenü, das bereits 2019/2020 entwickelt und 2020 auf der Robophilosophy vorgestellt wurde. Mit Hilfe von Schiebereglern auf dem Display von Lio kann der Patient seine Präferenzen wählen und so auf einfache Weise seine sittlichen und moralischen Vorstellungen übertragen. Dabei wird auf eine 1:1-Beziehung zwischen Mensch und Maschine fokussiert. Marc Heimann erarbeitete im Rahmen seiner Abschlussarbeit bereits mehrere Vorschläge, die in einem Brainstorming mit dem Betreuer Oliver Bendel am 19. Mai 2022 ergänzt wurden. Das CARE-MOMO ist das dreizehnte Artefakt, das im Arbeitsbereich von Oliver Bendel entsteht. Mehrere davon – etwa LIEBOT, LADYBIRD oder HAPPY HEDGEHOG – wurden bei internationalen Konferenzen vorgestellt und haben mediale Aufmerksamkeit erregt. Das CARE-MOMO-Projekt begann im März und läuft noch bis August 2022. Das Ergebnis ist eine prototypische Umsetzung des Moralmoduls.

Abb.: Das CARE-MOMO ist das 13. Artefakt

Künstliche Moral

„Künstliche Moral (engl. ‚artificial morality‘), auch maschinelle Moral (engl. ‚machine morality‘) genannt, ist die Fähigkeit einer Maschine (i.d.R. eines autonomen Systems), sich an moralische Regeln zu halten respektive unter verschiedenen Optionen diejenige auszuwählen, die gut und richtig ist. Die moralischen Regeln sind der sogenannten moralischen Maschine gleichsam eingepflanzt worden; diese kann sie u.U. aber auch abändern und anpassen, etwa indem sie das Verhalten anderer – künstlicher oder natürlicher – Systeme übernimmt oder anderweitig aus Situationen lernt.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der am 20. Mai 2022 im Gabler Wirtschaftslexikon erschienen ist. Er ergänzt u.a. „Maschinenethik“ (2012) und „Moralische Maschinen“ (2019). Am Ende heißt es: „Am besten bewährt sich die künstliche Moral in geschlossenen oder halboffenen, übersichtlichen und weitgehend unveränderlichen Umgebungen, etwa in einem Haushalt oder auf einem Betriebsgelände.“ Dort können moralische Maschinen sowohl Tiere als auch Menschen schützen. Der Beitrag ist über wirtschaftslexikon.gabler.de/definition/kuenstliche-moral-123163 abrufbar.

Abb.: Eine Darstellung eines humanoiden Roboters

Menschen und Tiere verstehen

Maschinelle Übersetzung (engl. ‚machine translation‘) ist die automatische Übersetzung von einer natürlichen Sprache in eine andere. Sie wird erforscht und entwickelt innerhalb der Künstlichen Intelligenz.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon zur maschinellen Übersetzung von Oliver Bendel, veröffentlicht im März 2022. Eingegangen wird auch auf das Earth Species Project, in dem man die maschinelle Übersetzung zwischen tierischer und menschlicher Sprache anstrebt. „Interessant für erste Versuche sind Wale und Affen und andere Tiere, die Töne zur Verständigung benutzen. Bedenken muss man, dass mit tierischen und menschlichen Sprachen unterschiedliche Weltmodelle verbunden sind.“ Am Ende wird die Perspektive der Ethik eingenommen: „Ungewollte Bedeutungsverschiebungen und ihre Folgen mag man in der Medienethik thematisieren. Die Übersetzung von wissenschaftlichen Texten und Gebrauchstexten wird weitgehend automatisiert, was in der Wirtschaftsethik analysiert werden kann.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/maschinelle-uebersetzung-123753 abgerufen werden.

Abb.: Menschen und Tiere verstehen