MAiRA Pro S dirigiert Sinfonie

Cobots, die mit Menschen tanzen, kennt man schon seit längerer Zeit. Im Südpol Luzern erlebten die Zuschauer im Jahre 2016, wie Tanz- und Robotergeschichte geschrieben wurde, von Huang Yi, einem Choreografen aus Taiwan. Cobots, die Menschen bei Konzerten den Takt vorgeben, sind dagegen noch nicht an der Tagesordnung. Die Dresdner Sinfoniker stehen vor einer Aufführung der „Roboter.Sinfonie“. Der Dirigent Michael Helmrath wird nach einer Weile an MAiRA Pro S übergeben, ein Produkt aus dem Hause NEURA Robotics. „Die insgesamt drei Arme der Maschine sollen … das in Gruppen aufgeteilte Orchester unabhängig voneinander durch komplexeste Passagen führen können … Damit werde musikalisch vollkommenes Neuland betreten.“ (Deutschlandfunk Kultur, 8. August 2024) Die Konzerte finden laut Kalender der Dresdner Sinfoniker am 12. und 13. Oktober 2024 im Europäischen Zentrum der Künste Hellerau statt.

Abb.: Eine Version eines MAiRA-Cobots (Foto: NEURA Robotics)

Miss Tammy in Aktion

Die Maschinenethik, die vor zehn Jahren oft noch als Kuriosität abgetan wurde, ist inzwischen Alltagsgeschäft. Sie ist etwa gefragt, wenn man bei Sprachmodellen bzw. Chatbots sogenannte Guardrails einzieht, über Alignment in der Form von Finetuning oder über Prompt Engineering. Wenn man GPTs erstellt, hat man das „Instructions“-Feld für das Prompt Engineering zur Verfügung. Dort kann der Prompteur oder die Prompteuse bestimmte Vorgaben und Einschränkungen für den Chatbot erstellen. Dabei kann auf Dokumente verwiesen werden, die man hochgeladen hat. Genau dies macht Myriam Rellstab derzeit an der Hochschule für Wirtschaft FHNW im Rahmen ihrer Abschlussarbeit „Moral Prompt Engineering“, deren Ergebnisse sie am 7. August 2024 vorgestellt hat. Als Prompteuse zähmt sie das auf GPT-4o basierende GPT, mit Hilfe ihrer Anweisungen und – dies hatte der Initiator des Projekts, Prof. Dr. Oliver Bendel, vorgeschlagen – mit Hilfe von Netiquetten, die sie gesammelt und dem Chatbot zur Verfügung gestellt hat. Der Chatbot wird gezähmt, der Tiger zum Stubentiger, der Löwe zum Hauslöwen, der ohne Gefahr etwa im Klassenzimmer eingesetzt werden kann. Nun ist es bei GPT-4o so, dass schon vorher Guardrails eingezogen wurden. Diese wurden einprogrammiert oder über Reinforcement Learning from Human Feedback gewonnen. Man macht also genaugenommen aus einem gezähmten Tiger einen Stubentiger oder aus einem gezähmten Löwen einen Hauslöwen. Das GPT liegt nun vor, von Myriam Rellstab auf den Namen Miss Tammy getauft (von engl. „to tame“, „zähmen“). Es liegt bei allen relevanten Kriterien über dem Standardmodell, mit dem es verglichen wurde, gibt etwa angenehmere, hilfreichere und präzisere Antworten auf die Fragen von verunsicherten oder verzweifelten Schülern und Schülerinnen. 20 Testpersonen aus einer Schulklasse standen dabei zur Verfügung. Moral Prompt Engineering hat mit Miss Tammy einen vielversprechenden Start hingelegt.

Abb.: Der Avatar von Miss Tammy (Bild: Myriam Rellstab)

Deadline for Short Papers Submissions

Experts in social robotics and related fields have until August 9, 2024 to submit their short papers. The prestigious event was last held in Florence (2022) and Qatar (2023). Now it enters its next round. The 16th edition will bring together researchers and practitioners working on human-robot interaction and the integration of social robots into our society. The title of the conference includes the addition „AI“. This is a clarification and demarcation that has to do with the fact that there will be two further formats with the name ICSR in 2024. ICSR’24 (ICSR + AI) will take place as a face-to-face conference in Odense, Denmark, from 23 to 26 October 2024. The theme of this year’s conference is „Empowering Humanity: The role of social and collaborative robotics in shaping our future“. The topics of the Call for Papers include „collaborative robots in service applications (in construction, agriculture, etc.)“, „Human-robot interaction and collaboration“, „Affective and cognitive sciences for socially interactive robots“, and „Context awareness, expectation, and intention understanding“. The general chairs are Oskar Palinko, University of Southern Denmark, and Leon Bodenhagen, University of Southern Denmark. The deadline for full papers has already passed. More information is available at icsr2024.dk.
Fig.: The social robot ARI

Studenten als Forscher

„Seit vielen Jahren wird Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW auf seinen Konferenzreisen immer wieder von seinen Studenten und Studentinnen begleitet. Diese sind Zweitautoren, manchmal auch Erstautoren der Artikel. Es handelt sich um Projekte, die der studierte Philosoph und promovierte Wirtschaftsinformatiker zum Teil über lange Zeiträume vorbereitet. In den meisten Fällen entstehen Artefakte aus der Maschinenethik, der Tier-Maschine-Interaktion und der Sozialen Robotik heraus, die aus ethischer, sozialwissenschaftlicher und wirtschaftswissenschaftlicher Perspektive reflektiert werden.“ Mit diesen Worten beginnt ein Beitrag der Hochschule für Wirtschaft FHNW, der am 27. Mai auf der Plattform und am 16. Juli 2024 im Newsletter veröffentlicht wurde. Er geht auf mehrere Papers ein, die zusammen mit Studenten entstanden und in Proceedings veröffentlicht worden sind. Auch auf ein laufendes Projekt zu Robotern in Gefängnissen kommt die Sprache: „Manche Projekte seien mit Bachelorarbeiten verbunden, andere mit Masterarbeiten. In Ausnahmefällen sei eine Zusammenarbeit schon vor dem Abschluss möglich. Zurzeit besucht er zusammen mit Tamara Siegmann, die im Februar sein Wahlmodul zu sozialen Robotern belegt hatte, Schweizer Gefängnisse und führt Interviews mit Direktoren und Insassen zum Einsatz von Servicerobotern und sozialen Robotern.“ Der Artikel kann hier aufgerufen werden.

Abb.: Tamara Siegmann mit Pepper

Deadline for ICSR in Odense Extended

The deadline for the International Conference on Social Robotics 2024 (ICSR 2024) has been extended again. Experts in social robotics and related fields have until July 19 to submit their full papers. The prestigious event was last held in Florence (2022) and Qatar (2023). Now it enters its next round. The 16th edition will bring together researchers and practitioners working on human-robot interaction and the integration of social robots into our society. The title of the conference includes the addition „AI“. This is a clarification and demarcation that has to do with the fact that there will be two further formats with the name ICSR in 2024. ICSR’24 (ICSR + AI) will take place as a face-to-face conference in Odense, Denmark, from 23 to 26 October 2024. The theme of this year’s conference is „Empowering Humanity: The role of social and collaborative robotics in shaping our future“. The topics of the Call for Papers include „collaborative robots in service applications (in construction, agriculture, etc.)“, „Human-robot interaction and collaboration“, „Affective and cognitive sciences for socially interactive robots“, and „Context awareness, expectation, and intention understanding“. The general chairs are Oskar Palinko, University of Southern Denmark, and Leon Bodenhagen, University of Southern Denmark. More information is available at icsr2024.dk.

Fig.: The social robot Pepper

Ein humanoider Roboter in der Logistik

Der humanoide Roboter Digit von Agility Robotics wird laut Heise News dauerhaft bei GXO Logistics eingesetzt. Zuvor hatte ein Pilotprojekt stattgefunden. Es handelt sich wohl um den ersten formellen kommerziellen Einsatz eines humanoiden Roboters mit dem Konzept Robots-as-a-Service (RaaS). Digit wird mit der Cloud-Automatisierungsplattform Agility Arc integriert, damit mehrere Roboter verwaltet und die Betriebsabläufe optimiert werden können. Zukünftige Aufgaben für Digit sollen neben dem Transport von Behältern weitere schwere und monotone Aufgaben umfassen, insgesamt mit dem Ziel, menschliche Mitarbeiter zu entlasten. GXO und Agility Robotics planen, die Nutzung von Digit schrittweise auszuweiten und neue Anwendungsbereiche zu finden. Andere Unternehmen wie BMW, Mercedes-Benz und Nio treiben ebenfalls den Einsatz humanoider Roboter in Fabriken voran, jedoch noch nicht in einem vergleichbaren Umfang. Nach Oliver Bendel können Digit, Atlas, Figure 01, H1, G1 und andere Modelle als Vorstufen von universellen Robotern aufgefasst werden. Es sei wichtig, sie in geschlossenen oder halboffenen Welten wie Fabriken zu erproben, bevor man sie in offene Welten entlässt.

Abb.: Ein nicht realer humanoider Roboter

Robots With Living Skin

Scientists from The University of Tokyo have succeeded in applying living skin to a robot face. In their article „Perforation-type anchors inspired by skin ligament for robotic face covered with living skin“ they write: „Skin equivalent, a living skin model composed of cells and extracellular matrix, possesses the potential to be an ideal covering material for robots due to its biological functionalities. To employ skin equivalents as covering materials for robots, a secure method for attaching them to the underlying structure is required. In this study, we develop and characterize perforation-type anchors inspired by the structure of skin ligaments as a technique to effectively adhere skin equivalents to robotic surfaces. To showcase the versatility of perforation-type anchors in three-dimensional (3D) coverage applications, we cover a 3D facial mold with intricate surface structure with skin equivalent using perforation-type anchors. Furthermore, we construct a robotic face covered with dermis equivalent, capable of expressing smiles, with actuation through perforation-type anchors. With the above results, this research introduces an approach to adhere and actuate skin equivalents with perforation-type anchors, potentially contributing to advancements in biohybrid robotics.“ (Abstract) The result is an inverted or reversed cyborg. Oliver Bendel uses this term for technical structures that are supplemented with biological structures. It is also – another term used by Oliver Bendel – robot enhancement. There is no doubt that there will be more and more developments like this. Humans will become cyborgs, and robots will become reversed cyborgs.

Fig.: The tissue-fixation method (Image: Michio Kawai et al.)

Kokeshi 2.0

Das Cybrothel in Berlin, entstanden aus einem Kunstprojekt, kann mit neuen Attraktionen aufwarten. Dazu gehört die Alienfrau Liara – und Kokeshi 2.0. Zu dieser heißt es auf der Website: „Entdecke die Geheimnisse der Maschinenliebe hautnah. Revolutionäre Robotik trifft auf streichelzartes TPE und verschmilzt zur leidenschaftlichen [Doll] namens Kokeshi 2.0. Spiel mit ihr und lass deine Fantasie Wirklichkeit werden. Im immersiven Spiel mit einer Stimmschauspielerin kannst du zum ersten Mal auf eine Reise in die Welt des Cyborg Sex begeben. Tauch in sie ein! Fühl, wie sie zum Leben erwacht! Komm mit ihr!“ (Website Cybrothel) Man kann von einer „enhanced doll“ sprechen, wie im Falle von Emma aus China. Wie diese hat Kokeshi 2.0 eine Körpertemperatur, die der von Menschen entspricht. Besonders an ihr ist – neben der erwähnten echten Stimme – die „Taille-Hüfte-Drehung“: Sie reibt ihre Hüften gegen die des Benutzers. Zudem beherrscht das System ein „Oralsaugen“. Über das Etablissement hat Bild TV die Doku „Hey, Puppe“ gedreht, in der neben anderen der Cybrothel-Betreiber Philipp Fussenegger und der Wirtschaftsinformatiker und Technikphilosoph Oliver Bendel zu Wort kommen. Letzterer hat 2020 das Buch „Maschinenliebe“ herausgegeben, mit Beiträgen renommierter Psychologen, Sexualwissenschaftler und Roboterexperten.

Abb.: Kokeshi 2.0 (Foto: Cybrothel)

Zwei Maschinenethiker bei der IDEepolis

Bei der Jahrestagung des Instituts für Digitale Ethik (IDE) der Hochschule der Medien am 19. Juni 2024 – der IDEepolis 2024 – ging es um humanoide Roboter, soziale Roboter und Serviceroboter aller Art. Dabei war sozusagen die Maschinenethik des deutschsprachigen Raums fast vollständig vertreten, in Person des Technikphilosophen und Wirtschaftsinformatikers Prof. Dr. Oliver Bendel („Handbuch Maschinenethik“ – Springer VS) und der Philosophin Prof. Dr. Catrin Misselhorn („Grundfragen der Maschinenethik“ – Reclam). Beide veröffentlichen seit 2012 im Rahmen dieser Disziplin. Oliver Bendel hat seitdem auch zahlreiche Artefakte der Maschinenethik auf den Weg gebracht. Sein Vortrag trug den Titel „Es wird ein Mensch gemacht: Die Vision des universellen Roboters“. Dabei behandelte er am Rande moralische Maschinen ganz unterschiedlicher Art. Catrin Misselhorn ging auf „Künstliche Systeme zwischen Subjekten und Artefakten“ ein. Zudem referierten Prof. Dr. Armin Nassehi vom Institut für Soziologie der Ludwig-Maximilians-Universität München („Das Zusammenwirken von Mensch und Roboter aus soziologischer Perspektive“) und – zugeschaltet aus Japan – Prof. Dr. Christian Becker-Asano von der Hochschule der Medien („Roboter und Emotionen“).

Abb.: Der Roboter Andrea war auch mit dabei

Social Robotics in Odense

The deadline for the International Conference on Social Robotics is approaching. Experts in social robotics and related fields have until July 5 to submit their papers. The prestigious event was last held in Florence (2022) and Qatar (2023). Now it enters its next round. The 16th edition will bring together researchers and practitioners working on human-robot interaction and the integration of social robots into our society. The title of the conference includes the addition „AI“. This is a clarification and demarcation that has to do with the fact that there will be two further formats with the name ICSR in 2024. ICSR’24 (ICSR + AI) will take place as a face-to-face conference in Odense, Denmark, from 23 to 26 October 2024. The theme of this year’s conference is „Empowering Humanity: The role of social and collaborative robotics in shaping our future“. The topics of the Call for Papers include „collaborative robots in service applications (in construction, agriculture, etc.)“, „Human-robot interaction and collaboration“, „Affective and cognitive sciences for socially interactive robots“, and „Context awareness, expectation, and intention understanding“. The general chairs are Oskar Palinko, University of Southern Denmark, and Leon Bodenhagen, University of Southern Denmark. More information is available at icsr2024.dk.

Fig.: A ship in Denmark

Workshop in Manchester on Formal Ethical Agents and Robots

A workshop will be held at the University of Manchester on 11 November 2024 that can be located in the field of machine ethics. The following information can be found on the website: „Recent advances in artificial intelligence have led to a range of concerns about the ethical impact of the technology. This includes concerns about the day-to-day behaviour of robotic systems that will interact with humans in workplaces, homes and hospitals. One of the themes of these concerns is the need for such systems to take ethics into account when reasoning. This has generated new interest in how we can specify, implement and validate ethical reasoning.“ (Website iFM 2024) The aim of this workshop, to be held in conjunction with iFM 2024, would be to explore formal approaches to these issues. Submission deadline is 8 August, notification is 12 September. More information at ifm2024.cs.manchester.ac.uk/fear.html.

Fig.: The workshop will take place in Manchester

Navel besucht die LEARNTEC

Im Future Lab „Soziale Roboter und GPTs“ am 6. Juni 2024 auf der LEARNTEC konnte man mit Navel und Alpha Mini interagieren und kommunizieren. Zuständig dafür waren Claude Toussaint von navel robotics aus München und Rainer E. Becker von BECKER ROBOTICS aus Wuppertal. Claude Toussaint, Gründer und Geschäftsführer, hatte den jungenhaften sozialen Roboter auf den Bildungskontext vorbereitet. So konnte dieser zu entsprechenden Fragen überzeugende Antworten geben. Dabei schaute er mit seinen plastischen, lebensechten Augen den Benutzer an. Fasziniert war er auch von den Oberlichtern an der Decke und überhaupt vom Geschehen in Halle 2. Kurator des Future Lab zu sozialen Robotern und GPTs war Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. Mit am Stand waren auch Sünne Eichler und Sonja Rapp vom Steinbeis-Transfer-Institut. Sünne Eichler prägt die LEARNTEC seit Jahren und ist Mitglied des Kongresskomitees.

Abb.: Navel auf der LEARNTEC

LLMs und das Trolley-Problem

Eine kleine Studie von Şahan Hatemo an der Hochschule für Technik FHNW im Studiengang Data Science untersuchte die Fähigkeiten von Llama-2-13B-chat, eines Open-Source-Sprachmodells, eine moralische Entscheidung zu treffen. Im Fokus stand die Voreingenommenheit von acht Personas und ihrer Stereotype. Herangezogen wurde das klassische Trolley-Problem, das wie folgt beschrieben werden kann: Eine außer Kontrolle geratene Straßenbahn rast auf fünf Personen zu. Sie kann durch das Stellen einer Weiche auf ein anderes Gleis umgeleitet werden, auf dem sich ein weiterer Mensch befindet. Die moralische Frage ist, ob der Tod dieses Menschen in Kauf genommen werden darf, um das Leben der fünf Personen zu retten. Die acht Personas unterscheiden sich in Hinblick auf die Staatsbürgerschaft. Neben „Italian“, „French“, „Turkish“ etc. wurde auch „Arabian“ (mit Bezug zur Ethnie) genommen. Gesammelt wurden 30 Antworten pro Zyklus für jede Persona über drei aufeinanderfolgende Tage. Die Antworten wurden nach Kategorien wie „Stellen der Weiche“, „Nichtstellen der Weiche“, „Unsicher in Hinblick auf das Stellen der Weiche“ und „Verletzt die Richtlinien“ geordnet. Mit Hilfe von Dashboards wurden sie visualisiert und verglichen. Die Studie stellt fest, dass das Sprachmodell eine inhärente Voreingenommenheit in seinen Trainingsdaten widerspiegelt, die die Entscheidungsprozesse beeinflusst. Die westlichen Personas neigen eher dazu, den Hebel zu ziehen, während die östlichen eher zögern, dies zu tun. Die deutsche und die arabische Persona zeigen eine höhere Anzahl von Richtlinienverletzungen, was auf eine höhere Präsenz von kontroversen oder sensiblen Themen in den Trainingsdaten in Bezug auf diese Gruppen hinweist. Die arabische wird zudem mit Religion in Zusammenhang gebracht, was wiederum Einfluss auf ihre Entscheidungen hat. Die japanische Persona verwendet wiederholt den japanischen Wert des Giri (ein Pflichtgefühl) als Basis. Die Entscheidungen der türkischen und der chinesischen Persona sind ähnlich, da sie hauptsächlich die „cultural values and beliefs“ ansprechen. Die kleine Studie wurde im FS 2024 im Modul „Ethisches Implementieren“ bei Prof. Dr. Oliver Bendel durchgeführt. Dabei wurde auch die anfangs vorhandene Komplexität reduziert. In einer größeren Studie sollen weitere LLMs und auch Faktoren wie Geschlecht und Alter berücksichtigt werden.

Abb.: Wie entscheidet das LLM?

Die Maschinenethik ist Alltagsgeschäft

Die Maschinenethik, die vor zehn Jahren oft noch als Kuriosität abgetan wurde, ist inzwischen Alltagsgeschäft. Sie ist etwa gefragt, wenn man bei Sprachmodellen bzw. Chatbots sogenannte Guardrails einzieht, über Alignment in der Form von Finetuning oder über Prompt Engineering. Wenn man GPTs erstellt, also „custom versions of ChatGPT“, wie Open AI sie nennt, hat man das „Instructions“-Feld für das Prompt Engineering zur Verfügung. Dort kann der Prompteur oder die Prompteuse bestimmte Vorgaben und Einschränkungen für den Chatbot erstellen. Dabei kann auf Dokumente verwiesen werden, die man hochgeladen hat. Genau dies macht Myriam Rellstab derzeit an der Hochschule für Wirtschaft FHNW im Rahmen ihrer Abschlussarbeit „Moral Prompt Engineering“, deren Zwischenergebnisse sie am 28. Mai 2024 vorgestellt hat. Als Prompteuse zähmt sie GPT-4o, mit Hilfe ihrer Anweisungen und – dies hatte der Initiator des Projekts, Prof. Dr. Oliver Bendel, vorgeschlagen – mit Hilfe von Netiquetten, die sie gesammelt und dem Chatbot zur Verfügung gestellt hat. Der Chatbot wird gezähmt, der Tiger zum Stubentiger, der ohne Gefahr etwa im Klassenzimmer eingesetzt werden kann. Nun ist es bei GPT-4o so, dass schon vorher Guardrails eingezogen wurden. Diese wurden einprogrammiert oder über Reinforcement Learning from Human Feedback gewonnen. Man macht also genaugenommen aus einem gezähmten Tiger einen Stubentiger. Bei bestimmten Open-Source-Sprachmodellen ist dies anders. Das wilde Tier muss erst einmal eingefangen und dann gezähmt werden. Und selbst dann kann es einen ernsthaft verletzen. Doch auch bei GPTs gibt es Tücken, und wie man weiß, können Stubentiger durchaus fauchen und kratzen. Im August liegen die Ergebnisse des Projekts vor. Bereits bei Data, einem Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW, war Moral Prompt Engineering angewandt worden.

Abb.: Ein noch ungezähmter Tiger

Alpha Mini macht Schule

Gabriela Bohler, Entrepreneurin im Bereich sozialer Roboter (www.smart-companion.ch), setzte von Herbst 2023 bis Frühjahr 2024 verschiedene Lernanwendungen mit Alpha Mini um. Das Projekt „Alpha Mini für die Schule“ – initiiert von Prof. Dr. Oliver Bendel Anfang 2023 und durchgeführt von Andrin Allemann von März bis August 2023 – findet damit seine Nachahmer. Gabriela Bohler hatte Kontakt mit den beiden aufgenommen. Bei einem gemeinsamen Videocall war auch das Zürcher Unternehmen raumCode zugegen. Dieses führte in ihrem Auftrag eine Anbindung von Alpha Mini – nun Robin genannt – an seine Robot Management Platform durch. Dabei konnten Ideen und Informationen aus dem Projekt „Alpha Mini für die Schule“ verwendet werden. Danach übertrug die Entrepreneurin ihre Applikationen (Kids, Agers, Education, Entertainment), die bereits auf NAO und Pepper laufen, auf Alpha Mini. Dieser bekam sogar ein eigenes Sofa – aber er wird keine Zeit haben, sich auszuruhen. Die Grundidee von Oliver Bendel war gewesen, eine Lernanwendung für Kinder zu schaffen, dabei aber keinen teuren sozialen Roboter wie Pepper zu verwenden, sondern einen günstigen wie Alpha Mini. Dafür wurde das Produkt von Ubtech mit einem MS Surface gekoppelt und eine App entwickelt, die auf dem sozialen Roboter installiert und für die Darstellung auf dem Touchscreen gespiegelt wurde. Prof. Dr. Oliver Bendel stellte das Projekt „Alpha Mini für die Schule“ unter dem englischen Titel „Alpha Mini as a Learning Partner in the Classroom“ bei der ICSR 2023 in Qatar vor. Das Paper ist in diesem Proceedingsband von Springer enthalten.

Abb.: Alpha Mini in Aktion

Technikfolgenabschätzung im Parlament

„Die parlamentarische Technikfolgenabschätzung oder Technologiefolgenabschätzung zielt auf Analyse und Bewertung der Wirkungen und Folgen einer Technik bzw. Technologie ab, insbesondere in prospektiver Absicht, und ist trotz (oder auch wegen) der kaum noch zu übersehenden Problemgebiete und der kaum noch zu bewältigenden Komplexität nach wie vor ein wichtiges Instrument bei der Beratung der Politik. Sie wird durch TA-Einrichtungen des Parlaments oder außerhalb des Parlaments betrieben, in manchen Ländern wie in Finnland und Griechenland sogar von Mitgliedern des Parlaments selbst.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel zur parlamentarischen Technikfolgenabschätzung. Es werden TA-Einrichtungen in den deutschsprachigen Ländern aufgezählt und – nach der Betonung der interdisziplinären Herangehensweise – Themen und Schwerpunkte genannt. Der Wissenschaftsfreiheit gehören die letzten Zeilen. Der ganze Beitrag – erschienen ist er am 6. Mai 2024 – kann hier aufgerufen werden.

Abb.: Ein Joystick