We use our natural language, facial expressions and gestures when communicating with our fellow humans. Some of our social robots also have these abilities, and so we can converse with them in the usual way. Many highly evolved animals have a language in which there are sounds and signals that have specific meanings. Some of them – like chimpanzees or gorillas – have mimic and gestural abilities comparable to ours. Britt Selvitelle and Aza Raskin, founders of the Earth Species Project, want to use machine learning to enable communication between humans and animals. Languages, they believe, can be represented not only as geometric structures, but also translated by matching their structures to each other. They say they have started working on whale and dolphin communication. Over time, the focus will broaden to include primates, corvids, and others. It would be important for the two scientists to study not only natural language but also facial expressions, gestures and other movements associated with meaning (they are well aware of this challenge). In addition, there are aspects of animal communication that are inaudible and invisible to humans that would need to be considered. Britt Selvitelle and Aza Raskin believe that translation would open up the world of animals – but it could be the other way around that they would first have to open up the world of animals in order to decode their language. However, should there be breakthroughs in this area, it would be an opportunity for animal welfare. For example, social robots, autonomous cars, wind turbines, and other machines could use animal languages alongside mechanical signals and human commands to instruct, warn and scare away dogs, elks, pigs, and birds. Machine ethics has been developing animal-friendly machines for years. Among other things, the scientists use sensors together with decision trees. Depending on the situation, braking and evasive maneuvers are initiated. Maybe one day the autonomous car will be able to avoid an accident by calling out in deer dialect: Hello deer, go back to the forest!
Das Magazin What’s N3xt wartet in seiner Ausgabe 1/2021 mit Beiträgen zu Robotik und KI auf. In „Uns fehlen Helden!“ erklärt ein bekannter Investor, „was ihn antreibt und warum er auf technologische Innovationen steht“. „Mit 10‑xDNA beschreibt Frank Thelen die Denkweise, die erforderlich ist, um die vor uns liegenden technologischen Fortschritte und Innovationen zu erfassen und zu nutzen.“ (What’s N3xt, 1/2021) In „Nächste Ausfahrt Zukunft“ steht Ranga Yogeshwar Rede und Antwort. „Wir vertrauen Algorithmen, die wir nicht mal nachvollziehen können. Und diese Systeme lernen schneller, als wir Menschen es tun. Neuronale Netze und Machine Learning sind Teil unseres täglichen Lebens geworden.“ (What’s N3xt, 1/2021) „KI trifft Ethik“ wird mit den folgenden Worten angeteasert: „Wie kriegt man menschliche Moral in künstliche Intelligenzen?“ (What’s N3xt, 1/2021) Die Antwort kennt der Informations- und Maschinenethiker Oliver Bendel, der moralische Maschinen baut, Chatbots und Serviceroboter, die moralischen Regeln folgen. Das gesamte Magazin kann hier heruntergeladen werden.
„Mit dem Begriff der Responsible AI werden Bestrebungen zusammengefasst, Systeme künstlicher Intelligenz in verantwortungsvoller Weise zu entwickeln respektive einzusetzen und Systeme zu schaffen, die über bestimmte Merkmale und Fähigkeiten – etwa sozialer oder moralischer Art – verfügen. Angesprochen werden damit u.a. Erklärbarkeit (Explainable AI), Vertrauenswürdigkeit (Trustworthy AI), Datenschutz, Verlässlichkeit und Sicherheit. Der Ausdruck hat sich allmählich seit der Jahrtausendwende und dann verstärkt ab ca. 2010 verbreitet. Er wird – wie ‚Explainable AI‘ und ‚Trustworthy AI‘ – vielfach im Marketing von Staaten und Verbünden wie der EU, technologieorientierten Unternehmen bzw. Unternehmensberatungen sowie wissenschaftsfördernden Stiftungen verwendet, die sich, ihre Produkte, ihr Consulting und ihr Funding ins rechte Licht rücken wollen. Er kann aber ebenso den Namen einer Forschungsgruppe mit entsprechender Ausrichtung schmücken.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der am 20. Februar 2021 im Gabler Wirtschaftslexikon erschienen ist. Am Ende heißt es: „Letztlich ist ‚Responsible AI‘ ein diffuser Begriff, der hohe Erwartungen weckt, jedoch kaum erfüllt.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/responsible-ai-123232 abgerufen werden.
In the fall of 2021, a five-day workshop on trustworthy conversational agents will be held at Schloss Dagstuhl. Prof. Dr. Oliver Bendel is among the invited participants. According to the website, Schloss Dagstuhl – Leibniz Center for Informatics pursues its mission of furthering world class research in computer science by facilitating communication and interaction between researchers. Oliver Bendel and his teams have developed several chatbots in the context of machine ethics since 2013, which were presented at conferences at Stanford University and Jagiellonian University and received international attention. Since the beginning of 2020, he has been preparing to develop several voice assistants that can show empathy and emotion. „Schloss Dagstuhl was founded in 1990 and quickly became established as one of the world’s premier meeting centers for informatics research. Since the very first days of Schloss Dagstuhl, the seminar and workshop meeting program has always been the focus of its programmatic work. In recent years, Schloss Dagstuhl has expanded its operation and also has significant efforts underway in bibliographic services … and in open access publishing.“ (Website Schloss Dagstuhl)
Die Künstliche Intelligenz (KI) hat nach Dekaden des sich abwechselnden Auf- und Abschwungs im 21. Jahrhundert eine enorme Bedeutung in Forschung und Praxis erlangt. Maschinenethik und Maschinelles Bewusstsein (Künstliches Bewusstsein) konnten zur gleichen Zeit ihre Begriffe und Methoden in die Öffentlichkeit tragen, wo sie mehr oder weniger gut verstanden wurden. Eine Grafik versucht seit 2018 die Begriffe und Zusammenhänge von Künstlicher Intelligenz, Maschinenethik und Maschinellem Bewusstsein zu klären. Sie wird ständig weiterentwickelt und dadurch präziser, aber auch komplexer. Seit Anfang 2021 liegt eine neue Version vor. In ihr wird noch deutlicher gemacht, dass die drei Disziplinen bestimmte Fähigkeiten (meist von Menschen) nicht nur abbilden, sondern auch erweitern können.
„HASLER RESPONSIBLE AI“ is a research program of the Hasler Foundation open to research institutions within the higher education sector or non-commercial research institutions outside the higher education sector. The foundation explains the goals of the program in a call for project proposals: „The HASLER RESPONSIBLE AI program will support research projects that investigate machine-learning algorithms and artificial intelligence systems whose results meet requirements on responsibility and trustworthiness. Projects are expected to seriously engage in the application of the new models and methods in scenarios that are relevant to society. In addition, projects should respect the interdisciplinary character of research in the area of RESPONSIBLE AI by involving the necessary expertise.“ (CfPP by Hasler Foundation) Deadline for submission of short proposals is 24 January 2021. More information at haslerstiftung.ch.
AAAI has announced the launch of the Interactive AI Magazine. According to the organization, the new platform provides online access to articles and columns from AI Magazine, as well as news and articles from AI Topics and other materials from AAAI. „Interactive AI Magazine is a work in progress. We plan to add lot more content on the ecosystem of AI beyond the technical progress represented by the AAAI conference, such as AI applications, AI industry, education in AI, AI ethics, and AI and society, as well as conference calendars and reports, honors and awards, classifieds, obituaries, etc. We also plan to add multimedia such as blogs and podcasts, and make the website more interactive, for example, by enabling commentary on posted articles. We hope that over time Interactive AI Magazine will become both an important source of information on AI and an online forum for conversations among the AI community.“ (AAAI Press Release) More information via interactiveaimag.org.
Fig.: A magazine for interested people, cyborgs and robots
Die Mitglieder der Ethikkommissionen der Schweiz sind zu der diesjährigen Weiterbildung mit dem Thema „Künstliche Intelligenz in der Humanforschung – Wissenschaftliche, rechtliche und ethische Herausforderungen“ ins Landesmuseum Zürich eingeladen. Die Veranstaltung wird durchgeführt von swissethics, der Dachorganisation der Kantonalen Ethikkommissionen. Sie wird eröffnet von Prof. Dr. Julia Vogt (ETH Zürich). Ihr Vortrag trägt den Titel „Künstliche Intelligenz: eine wissenschaftliche Herausforderung in der Forschung“. Danach spricht Prof. Dr. med. Adrian Egli (Universitätsspital Basel) über „Herausforderungen künstlicher Intelligenz in der Mikrobiologie“. Nach der Pause geht es um „Apps, Algorithmen und Roboter in der Medizin: Haftungsrechtliche Herausforderungen“ – das Gebiet von Prof. Dr. iur. Corinne Widmer Lüchinger (Universität Basel). Den Abschluss bildet der Vortrag von Prof. Dr. oec. HSG Oliver Bendel (Hochschule für Wirtschaft FHNW) mit dem Vortrag „Maschinenethik – Informationsethik: welche ethischen Herausforderungen sind relevant?“ Das Programm kann hier aufgerufen werden. Weitere Informationen über www.swissethics.ch/aus-fortbildung/fuer-ek-mitglieder.
„Wer hat Angst vor der KI?“ Dieser Frage geht Carmen Gräf am 16. Juli 2020 von 22 bis 23 Uhr bei RBB Kultur nach. „Erst lernten die Computer rechnen, dann organisieren, analysieren, sprechen und schließlich – denken. Dank Künstlicher Intelligenz. Nun ist die Forschung dabei, den Computern auch das Fühlen beizubringen. Eine neue Stufe Künstlicher Intelligenz entsteht. Das sorgt für jede Menge Hoffnung und Euphorie, aber auch für Angst und Unbehagen. Wird die Maschine den Menschen überholen oder kann der Mensch die digitalen Potentiale sinnvoll nutzen? Ein Einblick in aktuelle Diskussionen, Forschungen und Anwendungen.“ (RBB Kultur) Erwähnt werden auch die Entwicklungen des Informations- und Maschinenethikers Oliver Bendel, konkret der LIEBOT, der systematisch die Unwahrheit sagt, und HAPPY HEDGEHOG, der igelfreundliche Rasenmähroboter. Die Sendung ist ein Jahr lang in der ARD-Mediathek abrufbar.
Immer wieder hört man, oft von Theologen, manchmal von Philosophen, dass Maschinen nicht autonom seien, nicht intelligent, nicht moralisch etc. Sie übertragen den Begriff, den sie aus ihrem Bereich kennen, auf technische Wissenschaften wie Informatik, Künstliche Intelligenz (KI) und Maschinenethik (die technisch geprägt ist und eng mit KI und Robotik zusammenarbeitet). Sie anerkennen nicht, dass jede Disziplin ihre eigenen Begriffe haben kann (und in der Regel hat). Bei einer Tagung im Jahre 2015 beschimpfte Bundestagspräsident Prof. Dr. Norbert Lammert, ein zutiefst religiöser Mann, die Referenten mit den Worten, Maschinen seien nicht autonom, sie hätten sich nämlich nicht selbst ein Gesetz gegeben. Nun sprechen Informatik und Robotik aber nun einmal von autonomen Systemen und Maschinen, und selbstverständlich dürfen sie das, wenn sie darlegen, wie sie das meinen. Eine solche Begriffsklärung und -aneignung steht sogar am Anfang jeder wissenschaftlichen Betätigung, und dass die Begriffe gleich lauten wie die anderer Bereiche, heißt keineswegs, dass sie dasselbe bedeuten und bedeuten müssen. Eine neue Grafik von Prof. Dr. Oliver Bendel, die auf früheren Entwürfen aufbaut, stellt dar, was der Gegenstandsbereich der Disziplinen oder Arbeitsbereiche der KI, der Maschinenethik und des Maschinellen Bewusstseins ist, und macht für sie terminologische Vorschläge. Im Kern geht es diesen darum, etwas in bestimmten Aspekten ab- oder nachzubilden bzw. zu simulieren. So schafft es die Künstliche Intelligenz eben, künstliche Intelligenz hervorzubringen, etwa Dialogsysteme oder Maschinen, die bestimmte Probleme lösen. Ob diese „wirklich“ intelligent sind oder nicht, ist keine sinnvolle Frage, und der Terminus technicus benutzt nicht umsonst das Adjektiv „künstlich“ – hier wäre noch einfacher als im Falle von „autonom“ zu verstehen, dass es sich um eine „neue“ (immerhin seit über 50 Jahren erklärte) Bedeutung handelt.
Es existieren mehrere Markup Languages. Die bekannteste ist sicherlich die Hypertext Markup Language (HTML). Im Bereich der KI hat sich AIML etabliert. Für synthetische Stimmen wird SSML eingesetzt. Die Frage ist, ob damit die Möglichkeiten mit Blick auf autonome Systeme ausgeschöpft sind. In dem Beitrag „Das Moralmenü: Moralische Maschinen mit einer Stellvertretermoral“ von Prof. Dr. Oliver Bendel wurde zum ersten Mal eine Morality Markup Language (MOML) vorgeschlagen. Eine Studienarbeit unter der Betreuung des Informations- und Maschinenethikers hat 2019 untersucht, welche Möglichkeiten bestehende Sprachen hinsichtlich moralischer Aspekte haben und ob eine MOML gerechtfertigt ist. Die Ergebnisse wurden im Januar 2020 vorgestellt. Eine Bachelorarbeit an der Hochschule für Wirtschaft FHNW geht ab Ende März 2020 einen Schritt weiter. In ihr sollen Grundzüge einer Morality Markup Language erarbeitet werden. Es sollen die Grundstruktur und spezifische Befehle vorgeschlagen und beschrieben werden. Es sind die Anwendungsbereiche, Vorteile und Nachteile einer solchen Markierungssprache darzustellen. Auftraggeber der Arbeit ist Prof. Dr. Oliver Bendel, Betreuerin Dr. Elzbieta Pustulka.
Living, working, and sleeping in small spaces next to the same people for months or years would be stressful for even the fittest and toughest astronauts. Neel V. Patel underlines this fact in a current article for MIT Technology Review. If they are near Earth, they can talk to psychologists. But if they are far away, it will be difficult. Moreover, in the future there could be astronauts in space whose clients cannot afford human psychological support. „An AI assistant that’s able to intuit human emotion and respond with empathy could be exactly what’s needed, particularly on future missions to Mars and beyond. The idea is that it could anticipate the needs of the crew and intervene if their mental health seems at risk.“ (MIT Technology Review, 14 January 2020) NASA wants to develop such an assistant together with the Australian tech firm Akin. They could build on research by Prof. Dr. Oliver Bendel. Together with his teams, he has developed the GOODBOT in 2013 and the BESTBOT in 2018. Both can detect users’ problems and react adequately to these problems. The more recent chatbot even has face recognition in combination with emotion recognition. If it detects discrepancies with what the user has said or written, it will make this a subject of discussion. Oliver Bendel is currently examining the possibilities of a follow-up project. It could be called THE EMPATHIC ASSISTANT IN SPACE (SPACE THEA). SPACE THEA is a voicebot for space ships that reacts with empathy (compassion, concern, possibly even pity). It is certainly available before humans fly to Mars.
From June 2019 to January 2020 the Morality Menu (MOME) was developed under the supervision of Prof. Dr. Oliver Bendel. With it you can transfer your own morality to the chatbot called MOBO. First of all, the user must provide various personal details. He or she opens the „User Personality“ panel in the „Menu“ and can then enter his or her name, age, nationality, gender, sexual orientation, and hair color. These details are important for communication and interaction with the chatbot. In a further step, the user can call up the actual morality menu („Rules of conduct“) via „Menu“. It consists of 9 rules, which a user (or an operator) can activate (1) or deactivate (0). The behaviors 1 – 8, depending on how they are activated, result in the proxy morality of the machine (the proxy machine). It usually represents the morality of the user (or the operator). But you can also give the system the freedom to generate its morality randomly. This is exactly what happens with this option. After the morality menu has been completely set, the dialogue can begin. To do this, the user calls up „Chatbot“ in the „Menu“. The Chatbot MOBO is started. The adventure can begin! A video of the MOBO-MOME is available here.
Seit 2012 wurden von Oliver Bendel 13 Artefakte der Maschinenethik erfunden. Neun von ihnen wurden dann tatsächlich umgesetzt, darunter LADYBIRD, der tierfreundliche Saugroboter, und LIEBOT, der Chatbot, der systematisch lügen kann. Beide haben es zu einer gewissen Bekanntheit gebracht. Ethik muss nicht unbedingt das Gute hervorbringen, ist der Informations- und Maschinenethiker überzeugt. Sie sollte das Gute und das Böse erforschen und wie jede Wissenschaft dem Erkenntnisgewinn dienen. Entsprechend baut er sowohl moralische als auch unmoralische Maschinen. Die unmoralischen behält er aber in seinem Lab. 2020 wird, wenn das Projekt angenommen wird, der HUGGIE das Licht der Welt erblicken. Die Projektidee ist, einen sozialen Roboter zu schaffen, der unmittelbar zu einem guten Leben und zum wirtschaftlichen Erfolg beiträgt, indem er Menschen bzw. Kunden berührt und umarmt. HUGGIE soll sich an manchen Stellen erwärmen, und es sollen die Materialien, mit denen er bezogen ist, gewechselt werden können. Eine Forschungsfrage wird sein: Welche Möglichkeiten stehen neben Wärme und Weichheit zur Verfügung? Sind optische Reize (auch auf Displays), Vibrationen, Geräusche, Stimmen etc. für eine gelungene Umarmung wichtig? Alle moralischen und unmoralischen Maschinen, die zwischen 2012 und 2020 entstanden sind, sind in einer neuen Illustration zusammengestellt, die hier zum ersten Mal gezeigt wird.
The paper „Co-Robots as Care Robots“ by Oliver Bendel, Alina Gasser and Joel Siebenmann was accepted at the AAAI 2020 Spring Symposia. From the abstract: „Cooperation and collaboration robots, co-robots or cobots for short, are an integral part of factories. For example, they work closely with the fitters in the automotive sector, and everyone does what they do best. However, the novel robots are not only relevant in production and logistics, but also in the service sector, especially where proximity between them and the users is desired or unavoidable. For decades, individual solutions of a very different kind have been developed in care. Now experts are increasingly relying on co-robots and teaching them the special tasks that are involved in care or therapy. This article presents the advantages, but also the disadvantages of co-robots in care and support, and provides information with regard to human-robot interaction and communication. The article is based on a model that has already been tested in various nursing and retirement homes, namely Lio from F&P Robotics, and uses results from accompanying studies. The authors can show that co-robots are ideal for care and support in many ways. Of course, it is also important to consider a few points in order to guarantee functionality and acceptance.“ The paper had been submitted to the symposium „Applied AI in Healthcare: Safety, Community, and the Environment“. Oliver Bendel will present the results at Stanford University between 23 and 25 March 2020.
Abb.: Ob mit oder ohne Roboter – der Teddy darf nicht fehlen
Das Replika-Projekt wurde von Eugenia Kuyda und Phil Dudchuk mit der Idee begonnen, ein persönliches KI-System zu schaffen, das einem hilft, sich auszudrücken und zu beobachten und zu erfahren, indem es ein hilfreiches Gespräch anbietet. So sehen es zumindest die Macher und formulieren es auf ihrer Website replika.ai. Es sei ein Raum, in dem man seine Gedanken, Gefühle, Überzeugungen, Erfahrungen, Erinnerungen, Träume sicher teilen kann, eine „private perceptual world“ (Website replika.ai). Ohne Zweifel handelt es sich um einen der besten Chatbots, der mehr kann und ist als die meisten Chatbots, ein KI-System, das sich einem immer mehr annähert, in verschiedener Hinsicht. Ob Replika aber wirklich therapeutischen Nutzen hat, wie manche sagen, ob gar therapeutische Maßnahmen, die von Menschen ausgehen, ersetzt werden können, muss kritisch untersucht werden. In dem DPA- bzw. APA-Beitrag von Regina Wank, der in ca. 50 Zeitungen und Zeitschriften veröffentlicht wurde, darunter Focus, Der Standard und Heise Online, kommen Marita Skjuve von der Universität Oslo und Oliver Bendel von der Hochschule für Wirtschaft FHNW zu Wort.