Lost in Space

Space travel includes travel and transport to, through and from space for civil or military purposes. The take-off on earth is usually done with a launch vehicle. The spaceship, like the lander, is manned or unmanned. The target can be the orbit of a celestial body, a satellite, planet or comet. Man has been to the moon several times, now man wants to go to Mars. The astronaut will not greet the robots that are already there as if he or she had been lonely for months. For on the spaceship he or she had been in the best of company. SPACE THEA spoke to him or her every day. When she noticed that he or she had problems, she changed her tone of voice, the voice became softer and happier, and what she said gave the astronaut hope again. How SPACE THEA really sounds and what she should say is the subject of a research project that will start in spring 2020 at the School of Business FHNW. Under the supervision of Prof. Dr. Oliver Bendel, a student is developing a voicebot that shows empathy towards an astronaut. The scenario is a proposal that can also be rejected. Maybe in these times it is more important to have a virtual assistant for crises and catastrophes in case one is in isolation or quarantine. However, the project in the fields of social robotics and machine ethics is entitled THE EMPATHIC ASSISTANT IN SPACE (SPACE THEA). The results – including the prototype – will be available by the end of 2020.

Fig.: A spaceship

Die Entwicklung einer MOML

Es existieren mehrere Markup Languages. Die bekannteste ist sicherlich die Hypertext Markup Language (HTML). Im Bereich der KI hat sich AIML etabliert. Für synthetische Stimmen wird SSML eingesetzt. Die Frage ist, ob damit die Möglichkeiten mit Blick auf autonome Systeme ausgeschöpft sind. In dem Beitrag „Das Moralmenü: Moralische Maschinen mit einer Stellvertretermoral“ von Prof. Dr. Oliver Bendel wurde zum ersten Mal eine Morality Markup Language (MOML) vorgeschlagen. Eine Studienarbeit unter der Betreuung des Informations- und Maschinenethikers hat 2019 untersucht, welche Möglichkeiten bestehende Sprachen hinsichtlich moralischer Aspekte haben und ob eine MOML gerechtfertigt ist. Die Ergebnisse wurden im Januar 2020 vorgestellt. Eine Bachelorarbeit an der Hochschule für Wirtschaft FHNW geht ab Ende März 2020 einen Schritt weiter. In ihr sollen Grundzüge einer Morality Markup Language erarbeitet werden. Es sollen die Grundstruktur und spezifische Befehle vorgeschlagen und beschrieben werden. Es sind die Anwendungsbereiche, Vorteile und Nachteile einer solchen Markierungssprache darzustellen. Auftraggeber der Arbeit ist Prof. Dr. Oliver Bendel, Betreuerin Dr. Elzbieta Pustulka.

Abb.: Die Entwicklung einer MOML

Hugged by a Robot

The first phase of the HUGGIE project will start at the School of Business FHNW in March 2020. Oliver Bendel was able to recruit two students from the International Management program. The project idea is to create a social robot that contributes directly to a good life and economic success by touching and hugging people and especially customers. HUGGIE should be able to warm up in some places, and it should be possible to change the materials it is covered with. A research question will be: What are the possibilities besides warmth and softness? Are optical stimuli (also on displays), vibrations, noises, voices etc. important for a successful hug? HUGGIE could also play a role in crises and disasters, in epidemics and pandemics and in cases of permanent social distancing. Of course it would be bad if only a robot would hug us, and of course it would be good if humans could hug us every day if we wanted them to do so – but maybe in extreme situations a hug by a robot is better than nothing. The HUGGIE project is located in the heart of social robotics and on the periphery of machine ethics. By summer 2020, the students will conduct an online survey to find out the attitudes and expectations of the users.

Fig.: Hugged by a robot

Was sind und tun soziale Roboter?

„Soziale Roboter sind sensomotorische Maschinen, die für den Umgang mit Menschen oder Tieren geschaffen wurden. Sie können über fünf Dimensionen bestimmt werden, nämlich die Interaktion mit Lebewesen, die Kommunikation mit Lebewesen, die Nähe zu Lebewesen, die Abbildung von (Aspekten von) Lebewesen sowie – im Zentrum – den Nutzen für Lebewesen. Bei einem weiten Begriff können neben Hardwarerobotern auch Softwareroboter wie gewisse Chatbots, Voicebots (Sprachassistenten oder virtuelle Assistenten) und Social Bots dazu zählen. Die Disziplin, die soziale Roboter – ob als Spielzeugroboter, als Serviceroboter (Pflegeroboter, Therapieroboter, Sexroboter, Sicherheitsroboter etc.) oder als Industrieroboter in der Art von Kooperations- und Kollaborationsrobotern (Co-Robots bzw. Cobots) – erforscht und hervorbringt, ist die soziale Robotik.“ So beginnt ein Beitrag im Gabler Wirtschaftslexikon. Er knüpft an die Definition an, die der Verfasser 2014 am selben Ort zu sozialer Robotik geliefert hat. Besonders an ihm ist neben den Dimensionen, die für jeden einzelnen Typ beschrieben werden können, die Einbeziehung von Tieren, nicht nur auf der Seite des Roboters, der Lebewesen aller Art imitieren kann, sondern auch auf der Seite seines Gegenübers. Nach dieser Sichtweise können soziale Roboter nicht nur Menschen, sondern auch Tiere erfreuen und unterstützen, mit Hilfe von Gestaltungsformen und Verhaltensweisen, die als angemessen wahrgenommen und die verstanden werden. Weiter unten heißt es: „Wenn die Maschinen zu moralisch adäquaten Entscheidungen fähig sein sollen, ist die Maschinenethik gefragt.“ Der Artikel von Oliver Bendel ist am 10. März 2020 erschienen und kann über wirtschaftslexikon.gabler.de/definition/soziale-roboter-122268 aufgerufen werden.

Abb.: Ein berühmter sozialer Roboter

Towards SPACE THEA

Living, working, and sleeping in small spaces next to the same people for months or years would be stressful for even the fittest and toughest astronauts. Neel V. Patel underlines this fact in a current article for MIT Technology Review. If they are near Earth, they can talk to psychologists. But if they are far away, it will be difficult. Moreover, in the future there could be astronauts in space whose clients cannot afford human psychological support. „An AI assistant that’s able to intuit human emotion and respond with empathy could be exactly what’s needed, particularly on future missions to Mars and beyond. The idea is that it could anticipate the needs of the crew and intervene if their mental health seems at risk.“ (MIT Technology Review, 14 January 2020) NASA wants to develop such an assistant together with the Australian tech firm Akin. They could build on research by Prof. Dr. Oliver Bendel. Together with his teams, he has developed the GOODBOT in 2013 and the BESTBOT in 2018. Both can detect users’ problems and react adequately to these problems. The more recent chatbot even has face recognition in combination with emotion recognition. If it detects discrepancies with what the user has said or written, it will make this a subject of discussion. Oliver Bendel is currently examining the possibilities of a follow-up project. It could be called THE EMPATHIC ASSISTANT IN SPACE (SPACE THEA). SPACE THEA is a voicebot for space ships that reacts with empathy (compassion, concern, possibly even pity). It is certainly available before humans fly to Mars.

Fig.: Lost in space

 

Alle tierfreundlichen Maschinen der Welt

An der FHNW wurden LADYBIRD und HAPPY HEDGEHOG gebaut, zwei Prototypen tierfreundlicher Maschinen. LADYBIRD hat inzwischen einige Bekanntheit erlangt und gilt als Vorzeigebeispiel der Maschinenethik. Aber was findet weltweit auf diesem Gebiet statt? Es ist bekannt, dass es Mähdrescher gibt, denen Drohnen voranfliegen, die Rehkitze im Feld zurückmelden. Auch Windkraftanlagen, die sich für nahende Vogelschwärme ausstellen, wurden ausprobiert. Aber was gibt es sonst, und was ist geplant? Die Studie, die im Februar 2020 im Studiengang Energie, Umwelt, Technik (EUT) begonnen wird, soll eine Bestandsaufnahme machen und eine Systematisierungsleistung vornehmen: In welchen Gebieten treffen Tiere mit Maschinen zusammen, auf dem Boden, im Wasser, in der Luft? Um welche Tiere handelt es sich, um Haus-, Nutz-, Versuchs- oder Wildtiere? Um welche Maschinen, um von Menschen gesteuerte, teilautonome oder autonome? Wie treffen Maschine und Tier aufeinander, wie ist das Tierwohl gefährdet und wie kann es gesichert werden? Welche Disziplinen nehmen sich dieses Themas an, Tier-Computer-Interaktion, Tier-Maschine-Interaktion, Tierethik, Umweltethik, Maschinenethik? Welche Projekte sind für die Zukunft geplant? Was sind die Gründe für die Projekte, ökonomische, ökologische, ethische? Der Betreuer ist der Informations- und Maschinenethiker Oliver Bendel. Als Auftraggeber hat er Animal Rights Switzerland gewonnen.

Abb.: Auch leopardenfreundliche Maschinen könnte es geben

DBW-Artikel zur Maschinenethik

Im Jahre 2014 erschien in der Zeitschrift DBW der Artikel „Wirtschaftliche und technische Implikationen der Maschinenethik“ von Oliver Bendel. Nach über 70 Jahren wurde die renommierte Fachzeitschrift zum Jahresende 2016 eingestellt. Der Verlag begründete dies damals u.a. wie folgt: „Der Diskurs wirtschaftswissenschaftlicher Themen hat sich in den letzten Jahren zunehmend auf angelsächsische Medien und angelsächsische Publikationsgepflogenheiten verlagert.“ (Medienmitteilung) Seit 14. Februar 2020 steht der Artikel mit freundlicher Genehmigung des Verlags kostenlos zur Verfügung. Aus dem Abstract: „Der Beitrag führt in die Maschinenethik ein, arbeitet die Merkmale moralischer Maschinen und Situationen heraus und beschreibt mit Hilfe der Merkmale ausgewählte Typen. Es zeigt sich, dass moralische Maschinen ökonomische Implikationen haben und ein geeigneter Gegenstand für Wirtschaftswissenschaftler und -informatiker sind.“ Der Artikel kann hier heruntergeladen werden.

Abb.: Maschinenethik und Künstliche Intelligenz

About MOBO-MOME

From June 2019 to January 2020 the Morality Menu (MOME) was developed under the supervision of Prof. Dr. Oliver Bendel. With it you can transfer your own morality to the chatbot called MOBO. First of all, the user must provide various personal details. He or she opens the „User Personality“ panel in the „Menu“ and can then enter his or her name, age, nationality, gender, sexual orientation, and hair color. These details are important for communication and interaction with the chatbot. In a further step, the user can call up the actual morality menu („Rules of conduct“) via „Menu“. It consists of 9 rules, which a user (or an operator) can activate (1) or deactivate (0). The behaviors 1 – 8, depending on how they are activated, result in the proxy morality of the machine (the proxy machine). It usually represents the morality of the user (or the operator). But you can also give the system the freedom to generate its morality randomly. This is exactly what happens with this option. After the morality menu has been completely set, the dialogue can begin. To do this, the user calls up „Chatbot“ in the „Menu“. The Chatbot MOBO is started. The adventure can begin! A video of the MOBO-MOME is available here.

Fig.: How the MOBO-MOME works

13 Artefakte der Maschinenethik

Seit 2012 wurden von Oliver Bendel 13 Artefakte der Maschinenethik erfunden. Neun von ihnen wurden dann tatsächlich umgesetzt, darunter LADYBIRD, der tierfreundliche Saugroboter, und LIEBOT, der Chatbot, der systematisch lügen kann. Beide haben es zu einer gewissen Bekanntheit gebracht. Ethik muss nicht unbedingt das Gute hervorbringen, ist der Informations- und Maschinenethiker überzeugt. Sie sollte das Gute und das Böse erforschen und wie jede Wissenschaft dem Erkenntnisgewinn dienen. Entsprechend baut er sowohl moralische als auch unmoralische Maschinen. Die unmoralischen behält er aber in seinem Lab. 2020 wird, wenn das Projekt angenommen wird, der HUGGIE das Licht der Welt erblicken. Die Projektidee ist, einen sozialen Roboter zu schaffen, der unmittelbar zu einem guten Leben und zum wirtschaftlichen Erfolg beiträgt, indem er Menschen bzw. Kunden berührt und umarmt. HUGGIE soll sich an manchen Stellen erwärmen, und es sollen die Materialien, mit denen er bezogen ist, gewechselt werden können. Eine Forschungsfrage wird sein: Welche Möglichkeiten stehen neben Wärme und Weichheit zur Verfügung? Sind optische Reize (auch auf Displays), Vibrationen, Geräusche, Stimmen etc. für eine gelungene Umarmung wichtig? Alle moralischen und unmoralischen Maschinen, die zwischen 2012 und 2020 entstanden sind, sind in einer neuen Illustration zusammengestellt, die hier zum ersten Mal gezeigt wird.

Abb.: 13 Artefakte der Maschinenethik

Pflegeroboter im Spektrum Spezial

Spektrum Spezial (Biologie, Medizin, Hirnforschung) widmet sich in Ausgabe 1/2020 (Erscheinungsdatum: 24. Januar 2020) KI und Robotik und speziell auch Pflegerobotern. Der achtzehnseitige Beihefter zu diesem Thema ist in dieser Form einzigartig. So stellt Michael Anderson, einer der weltweit führenden Maschinenethiker, die Umwandlung eines sozialen Roboters in eine moralische Maschine im Pflegekontext vor. Florian Coulmas, der verdiente Ostasienexperte (Universität Duisburg-Essen), relativiert die Annahme, dass Japaner zu Dingen ein völlig anderes Verhältnis als Europäer haben. Gundula Hübner und Stephanie Müller von der Martin-Luther-Universität Halle-Wittenberg und Andreas Keibel von KUKA geben Hinweise in Bezug auf Akzeptanz, Technik und Markt von Pflegerobotern. Armin Grunwald – der renommierte Technikphilosoph – und Christoph Kehl vom KIT bzw. TAB gehen auf ihre Studie für den Deutschen Bundestag ein. Oliver Bendel, der wissenschaftliche Direktor des 23. Berliner Kolloquiums der Daimler und Benz Stiftung, aus dem die Artikel hervorgingen, leitet in die Thematik ein. Das elektronische Pendant – das Spektrum Kompakt zu Pflegerobotern – ist bereits im November 2019 erschienen, mit Beiträgen von Karsten Schwarz und Patrick Jahn, Susan L. Anderson und Oliver Bendel.

Abb.: Wer pflegt und betreut uns, wenn wir alt sind?

Das MOBO-MOME

Die Idee eines Moralmenüs (MOME) entstand 2018 im Kontext der Maschinenethik. Damit sollte es möglich sein, die Moral einer Person auf eine Maschine zu übertragen. Auf einem Display bekommt man verschiedene Verhaltensregeln angezeigt und kann diese über Schieberegler aktivieren oder deaktivieren. Oliver Bendel entwickelte zwei Designstudien, eine für einen tierfreundlichen Staubsaugroboter namens LADYBIRD, eine andere für einen Sprachassistenten wie Google Duplex. Ende 2018 schrieb er an der Hochschule für Wirtschaft FHNW ein Projekt aus. Drei Studenten – Ozan Firat, Levin Padayatty and Yusuf Or – implementierten von Juni 2019 bis Januar 2020 das MOME für einen Chatbot mit dem Namen MOBO. Der Benutzer macht Angaben zu seiner Person und aktiviert oder deaktiviert dann neun verschiedene Verhaltensregeln. MOBO gibt Komplimente oder gibt keine Komplimente, antwortet voller Vorurteile oder ohne Vorurteile, bedroht den Gesprächspartner oder bedroht ihn nicht. Dabei geht er auf jeden Benutzer individuell ein, nennt dessen Namen – und spricht ihn je nach Einstellung formell oder informell an. Ein Video zum MOBO-MOME ist hier abrufbar.

Abb.: Talk to me

HAPPY HEDGEHOG könnte Igelbabys helfen

Zwischen Juni 2019 und Januar 2020 wurde an der Hochschule für Wirtschaft FHNW unter der Leitung von Oliver Bendel das Projekt HAPPY HEDGEHOG (HHH) durchgeführt. Die Studierenden Emanuel Graf, Kevin Bollier, Michel Beugger und Vay Lien Chang entwickelten im Kontext der Maschinenethik den Prototyp eines Mähroboters, der seine Arbeit einstellt, sobald er einen Igel entdeckt hat. HHH verfügt über eine Wärmebildkamera. Wenn er auf ein warmes Objekt stößt, wird dieses mittels Bilderkennung weiter untersucht. Nachts hilft eine oben angebrachte Lampe dabei. Nach dem Training mit hunderten Fotos kann HHH recht treffsicher einen Igel identifizieren. Es ist nicht nur eine weitere moralische Maschine im Labor entstanden. Das Team liefert mit ihr auch einen Lösungsvorschlag für ein Problem, das in der Praxis häufig auftritt. Handelsübliche Mähroboter töten nämlich immer wieder Igelbabys in der Dunkelheit. HAPPY HEDGEHOG könnte dabei helfen, sie zu retten. Das Video auf youtu.be/ijIQ8lBygME zeigt ihn ohne Verkleidung; ein Foto mit Verkleidung findet sich hier. Der Roboter steht in der Tradition von LADYBIRD.

Abb.: HAPPY HEDGEHOG als Designstudie

Von Roboterrecht bis Maschinenethik

Zusammen mit dem Zentrum für Wissenschaftstheorie (Philosophisches Seminar der Universität Münster) veranstaltet das Centrum für Bioethik im Wintersemester 2019/2020 eine gemeinsame Ringvorlesung zur Maschinenethik, wobei auch Informationsethik und Roboterethik sowie Roboterrecht ein Thema sind. Die einzelnen Vortragsveranstaltungen finden jeweils donnerstags von 18 bis 20 Uhr statt. Oliver Bendel (Windisch, Schweiz) trägt am 9. Januar 2020 über „Pflege- und Therapieroboter aus ethischer Sicht“ vor, Armin Grunwald (Karlsruhe) am 23. Januar 2020 über „Digitalisierung als Schicksal? Plädoyer für eine Rückeroberung von Gestaltungsoptionen“. Bereits im letzten Jahr referierten Klaus Mainzer (München), Jürgen Altmann (Dortmund), Michael Hauskeller (Liverpool, England) und Susanne Beck (Hannover). Ein Plakat zur Veranstaltung kann hier heruntergeladen werden. Weitere Informationen über www.uni-muenster.de/Bioethik/aktuelles/index.html.

Abb.: Von Roboterrecht bis Maschinenethik

The BESTBOT Project

The book chapter „The BESTBOT Project“ by Oliver Bendel, David Studer and Bradley Richards was published on 31 December 2019. It is part of the 2nd edition of the „Handbuch Maschinenethik“, edited by Oliver Bendel. From the abstract: „The young discipline of machine ethics both studies and creates moral (or immoral) machines. The BESTBOT is a chatbot that recognizes problems and conditions of the user with the help of text analysis and facial recognition and reacts morally to them. It can be seen as a moral machine with some immoral implications. The BESTBOT has two direct predecessor projects, the GOODBOT and the LIEBOT. Both had room for improvement and advancement; thus, the BESTBOT project used their findings as a basis for its development and realization. Text analysis and facial recognition in combination with emotion recognition have proven to be powerful tools for problem identification and are part of the new prototype. The BESTBOT enriches machine ethics as a discipline and can solve problems in practice. At the same time, with new solutions of this kind come new problems, especially with regard to privacy and informational autonomy, which information ethics must deal with.“ (Abstract) The BESTBOT is an immoral machine in a moral one – or a moral machine in an immoral one, depending on the perspective. The book chapter can be downloaded from link.springer.com/referenceworkentry/10.1007/978-3-658-17484-2_32-1.

Fig.: The BESTBOT project

Roboter als Subjekte und Objekte der Moral

Janina Loh hat den Disziplinen der Roboterethik und der Maschinenethik ein weiteres Grundlagenwerk hinzugefügt. Damit ist die Auseinandersetzung im deutschsprachigen Raum nicht abgeschlossen, aber schon mehr oder weniger vollständig. Aus der Verlagsinformation: „Die Philosophin Janina Loh befasst sich in ihrem grundlegenden Buch mit den moralischen Herausforderungen, die beim Bau von Robotern und im Umgang mit ihnen eine Rolle spielen: Sind Roboter autonom? Können sie gar moralisch handeln? Haben sie einen moralischen Wert? Sollten ihnen Rechte zuerkannt werden? Wer ist zur Rechenschaft zu ziehen, wenn ein Roboter einen Menschen schädigt? Kritisch diskutiert Loh diese und weitere ethische Fragen und stellt die wichtigsten Lösungsansätze vor.“ (Verlagsinformation Suhrkamp) Zusammen mit „Grundfragen der Maschinenethik“ (Catrin Misselhorn) und „Handbuch Maschinenethik“ (Oliver Bendel) erkundet das Werk den philosophischen und ethischen Raum, den u.a. Serviceroboter und Kampfroboter eröffnen. Weitere Infos über www.suhrkamp.de/buecher/roboterethik-janina_loh_29877.html.

Abb.: Ein futuristisches Gefährt

Care Robots in Istanbul

In his lecture at the Orient-Institut Istanbul on 18 December 2019, Oliver Bendel dealt with care robots as well as therapy and surgery robots. He presented well-known and less known examples and clarified the goals, tasks and characteristics of these service robots in the healthcare sector. Afterwards he investigates current and future functions of care robots, including sexual assistance functions. Against this background, the lecture considered both the perspective of information ethics and machine ethics. In the end, it became clear which robot types and prototypes or products are available in healthcare, which purposes they fulfil, which functions they assume, how the healthcare system changes through their use and which implications and consequences this has for the individual and society. The lecture took place within the series „Human, medicine and society: past, present and future encounters“ … The Orient-Institut Istanbul is a turkological and regional scientific research institute in the association of the Max Weber Foundation. In close cooperation with Turkish and international scientists, it dedicates itself to a multitude of different research areas. More information via www.oiist.org.

Fig.: A worker in Istanbul