Kategorie: Künstliche Intelligenz

Podcast zur Maschinenethik

„Perspektiven“ ist eine Gesprächsreihe zu Themen der Wirtschaftsinformatik, die Perspektiven auf Forschung und Entwicklung, Studium und Lehre und Einblicke in die Praxis behandelt. Unterstützt wird sie durch den Fachbereich Wirtschaftsinformatik der Gesellschaft für Informatik. „Wirtschaftsinformatik ist eine Wissenschaft, die Informationssysteme, ihre Gestaltung und Nutzung in organisatorischen Handlungssystemen untersucht … und damit vielschichtige Bezüge zu anderen Wissenschaften aufweist: Dabei ist nicht nur an die Informatik und Betriebswirtschaftslehre zu denken, sondern auch an die Ingenieurwissenschaften, die Soziologie und die Philosophie, insbesondere die Sprachphilosophie.“ (Website Perspektiven) In den Gesprächen dieser Reihe unterhält sich Stefan Strecker mit seinen Gästen „über ihre Perspektiven auf Themenfelder und Fragestellungen der Wirtschaftsinformatik und Bezüge zu angrenzenden Wissenschaften“ (Website Perspektiven). Am 12. Februar 2019 ist der Podcast mit Oliver Bendel zur Maschinenethik erschienen. Er kann über perspektivenpodcast.podigee.io/12-maschinenethik-gesprach-mit-oliver-bendel aufgerufen werden.

Abb.: Mikrofone warten auf die Aufnahme

Kriegsroboter und Maschinenethik

Im „Handbuch Maschinenethik“, seit 2016 von Prof. Dr. Oliver Bendel herausgegeben, ist der 17. Beitrag erschienen, mit dem Titel „Autonome Waffensysteme/Kriegsroboter“. Autorin ist Prof. Dr. Catrin Misselhorn. Aus dem Abstract: „Kriegsroboter sind der kontroverseste Anwendungsbereich der Maschinenethik. Viele namhafte Vertreter der KI-Forschung und prominente Wissenschaftler fordern sogar ein Verbot letaler autonomer Waffensysteme. Dieser Beitrag setzt sich mit dem Versuch auseinander, autonome Waffensysteme im Rahmen der Maschinenethik mit einem Ethikmodul auszustatten. Die moralischen Grundprinzipien leiten sich aus dem Völkerrecht ab, welches auf der traditionellen Theorie des gerechten Kriegs beruht. Argumente zugunsten von Kriegsrobotern mit einem Ethikmodul werden ebenso behandelt wie die Kritik daran. Die drei wichtigsten Gegenargumente betreffen das Entstehen einer Verantwortungslücke, den Wert der Möglichkeit, anders zu handeln, sowie die Annahme einer Pflicht zu töten, welche der Einsatz autonomer Waffensysteme voraussetzt. Zum Schluss wird kurz auf mögliche Parallelen zum autonomen Fahren eingegangen.“ Die nächsten fünf Beiträge, u.a. von Prof. Dr. Julian Nida-Rümelin, Prof. Dr. Dr. Eric Hilgendorf und Prof. Dr. Armin Grunwald, erscheinen in den nächsten Wochen. Dann kommt die gedruckte Ausgabe auf den Markt. Alle bisherigen Beiträge sind über link.springer.com/referencework/10.1007/978-3-658-17484-2 verfügbar.

Abb.: Eine fremdartige Waffe

Towards a Proxy Morality

Machine ethics produces moral and immoral machines. The morality is usually fixed, e.g. by programmed meta-rules and rules. The machine is thus capable of certain actions, not others. However, another approach is the morality menu (MOME for short). With this, the owner or user transfers his or her own morality onto the machine. The machine behaves in the same way as he or she would behave, in detail. Together with his teams, Prof. Dr. Oliver Bendel developed several artifacts of machine ethics at his university from 2013 to 2018. For one of them, he designed a morality menu that has not yet been implemented. Another concept exists for a virtual assistant that can make reservations and orders for its owner more or less independently. In the article „The Morality Menu“ the author introduces the idea of the morality menu in the context of two concrete machines. Then he discusses advantages and disadvantages and presents possibilities for improvement. A morality menu can be a valuable extension for certain moral machines. You can download the article here.

Fig.: A proxy machine

The Spy who Loved and Nursed Me

Robots in the health sector are important, valuable innovations and supplements. As therapy and nursing robots, they take care of us and come close to us. In addition, other service robots are widespread in nursing and retirement homes and hospitals. With the help of their sensors, all of them are able to recognize us, to examine and classify us, and to evaluate our behavior and appearance. Some of these robots will pass on our personal data to humans and machines. They invade our privacy and challenge the informational autonomy. This is a problem for the institutions and the people that needs to be solved. The article „The Spy who Loved and Nursed Me: Robots and AI Systems in Healthcare from the Perspective of Information Ethics“ by Oliver Bendel presents robot types in the health sector, along with their technical possibilities, including their sensors and their artificial intelligence capabilities. Against this background, moral problems are discussed, especially from the perspective of information ethics and with respect to privacy and informational autonomy. One of the results shows that such robots can improve the personal autonomy, but the informational autonomy is endangered in an area where privacy has a special importance. At the end, solutions are proposed from various disciplines and perspectives. The article was published in Telepolis on December 17, 2018 and can be accessed via www.heise.de/tp/features/The-Spy-who-Loved-and-Nursed-Me-4251919.html.

Fig.: What have I got to hide?

Der Roboter entdeckt die Philosophie

Die Ideen- und Entwicklungsgeschichte ist reich an künstlichen Kreaturen. Mythos und Fiktion bringen Pandora und Talos hervor, die Geschöpfe des Hephaistos, die Automatenmenschen des Daidalos, die Skulptur des Pygmalion, die eiserne Jungfrau des Nabis. Die Realität war zunächst verbunden mit der Illusion. Von ca. 1500 bis 1850 wurden tier- und menschenähnliche (Pseudo-)Automaten erdacht bzw. vorgeführt, die körnerschluckende Ente, die kunstvollen Androiden, der doppelbödige Schachtürke. Dann, nach weiteren 150 Jahren, streifte die Realität die Illusion mehr und mehr ab, wobei sie die Simulation in den meisten Fällen bei sich behielt. Es werden Systeme und Roboter erschaffen, die den Menschen nicht nur zum Verwechseln ähnlich sehen, sondern sogar, auch mit Hilfe künstlicher Intelligenz, selbst Optionen wählen und Aktionen ausführen, unter Umständen mit weitreichenden Folgen. Sie werden von sozialer Robotik und Maschinenethik gezähmt, dressiert, zivilisiert und moralisiert. Auch tierähnliche und dinghafte Artefakte scheinen plötzlich Eigenschaften zu haben, die man bisher Menschen zugeschrieben hat. Oliver Bendel wird in seinem Vortrag am 9. Januar 2019 im Haus Huth in Berlin erklären, was Roboterphilosophie und Roboterethik und was soziale Robotik und Maschinenethik sind. Er wird darstellen, wie man Entwickler und ihre Geschöpfe für die Philosophie gewinnt und wie man Roboterautos, Serviceroboter und Chatbots zu moralischen und unmoralischen Maschinen machen kann. Und wie man dabei in manchen Fällen die Büchse der Pandora öffnet. Weitere Informationen über die Website der Daimler und Benz Stiftung.

Abb.: Die Philosophie entdeckt den Roboter

Chinesische Nachrichten

Wie verschiedene Medien melden, hat die chinesische Nachrichtenagentur Xinhua ein System vorgestellt, das im Fernsehen Nachrichten verlesen kann. Die verfügbaren Avatare sind realen Sprechern nachgebildet, nämlich Qiu Hao und Zhang Zhao. Die digitale Kopie von Qiu spricht chinesisch, die von Zhang englisch. „Das System nutzt Künstliche Intelligenz (KI) und maschinelles Lernen, um die Stimme, Lippenbewegungen, Mimik und Gestik der Vorbilder möglichst realistisch zu imitieren. Dadurch solle ein möglichst lebensnahes Abbild entstehen und kein kalter Roboter, erklärte Xinhua. Das System ist zudem lernfähig. Das bedeutet, die Avatare lernen von Videos menschlicher Sprecher und werden dadurch mit der Zeit besser.“ (Golem, 9. November 2018) Im Moment klingt die Stimme von Zhang erstaunlich künstlich. Die Stimmen üblicher Text-to-Speech-Engines erreichen eine bessere Qualität. Mit Hilfe von SSML kann man sie noch menschenähnlicher gestalten. Virtuelle Nachrichtensprecher sind insgesamt ein alter Hut. Ananova, eine virtuelle Nachrichtensprecherin, hatte vor 20 Jahren eine gewisse Popularität erlangt. Sie wechselte 2000 für eine Ablösesumme von 95 Millionen Pfund zum Telefonanbie­ter Orange.

Abb.: Ein chinesischer Avatar?

The Effects of Voices

The University of Potsdam dedicates its current research to voices. The scientists – among them Dr. Yuefang Zhou and Katharina Kühne – are studying the first impression during communication. The survey website says: „The current study will last approximately 20 minutes. You will be asked some questions about the voice you hear. Please answer them honestly and spontaneously. There are no right or wrong answers; we are interested in your subjective perception. Just choose one out of the suggested alternatives.“ Prof. Dr. Oliver Bendel, FHNW School of Business, has produced three of the samples and participates in the project. „Your responses will be treated confidentially and your anonymity will be ensured. Your responses cannot be identified and related to you as an individual, if you choose to leave your e-mail address at the end of the study this cannot be linked back to your responses. All responses will be compiled together and analysed as a group.“ The questionnaire can be accessed via www.soscisurvey.de/impress/.

Fig.: The effects of voices

Übersetzung und KI: Gefahr oder Chance?

„Welchen Platz nimmt die Technologie des Posthumanismus in der Übersetzung ein? Die Geschichte der Künstlichen Intelligenz ist eng mit jener der Übersetzung verknüpft. Grund dafür ist vielleicht die Tatsache, dass die Suche nach dem tieferen Sinn etwas sehr Menschliches ist und einer Maschine kaum zugetraut wird.“ (Website ASTTI) Die maschinelle Übersetzung (engl. „machine translation“, kurz MT), seit jeher ein zentrales Thema im IT-Bereich, habe in den letzten Jahren enorme Fortschritte gemacht. Läutet sie, so der Schweizerische Übersetzer-, Terminologen- und Dolmetscherverband (ASTTI), das Ende der menschlichen Übersetzung ein? „Der ASTTI möchte diese Büchse der Pandora öffnen und lädt alle interessierten Sprachmittlerinnen und Sprachmittler zu seiner Jahrestagung équivalences ein, die sich am 16. November 2018 im Kursaal in Bern mit dem faszinierenden Thema MT auseinandersetzen wird.“ (Website ASTTI) Die Vortragenden sind Martin Kappus, Sabrina Girletti, Daria Caiano, Samuel Läubl, Alison López-Edge, Anna Busby, Hellmut Riediger, Gabriele Galati und Oliver Bendel. Mehr über new.astti.ch/web/Jahrestagung_equivalences_488_3.php.

Abb.: Maschinelle Simultanübersetzung

Das BESTBOT-Projekt in den Medien

Der BESTBOT wurde in mehreren Medien thematisiert. In der ICTkommunikation vom 15. August 2018 war zu lesen: „Wie der Liebot ist der Bestbot ein vernetztes System, das z.B. Suchmaschinen und Lexika anzapft. Der Bestbot analysiert die Texteingaben des Users u.a. mit textbasierter Emotionserkennungssoftware. Zugleich wird Gesichtserkennung eingesetzt, wiederum mit Emotionserkennung. Wenn der Benutzer etwa angibt, dass es ihm gut geht, sein Gesicht aber anderes verrät, spricht der Chatbot diese Diskrepanz an.“ VRODO titelte am 10. September 2018 mit „Das Chatbot-Dilemma: Kann eine Maschine moralisch sein?“ und schrieb im Teaser: „Die Interaktion zwischen Mensch und Computer ist längst eine Sache der Moral, beispielsweise beim Tracking von Klicks. Zukünftige Mensch-Maschine-Schnittstellen setzen da noch etwas drauf: Sprache kann analysiert, das Gesicht gescannt und eine Bewegung registriert werden. Das verschärft das moralische Spannungsfeld.“ Die Zeitschrift hatte den BESTBOT getestet und ging ausführlich auf das System ein. Oliver Bendel, der Erfinder des Chatbots, ist der Meinung, dass sich in der moralischen Maschine eine unmoralische versteckt, nämlich eine, die die Freiheit des Benutzers bedroht.

Abb.: Versteckt sich in der moralischen Maschine eine unmoralische?

Der Roboter im Restaurant

Die Bedienung, der Kellner, der Ober, die Serviertochter, sie alle haben einen harten Job und verdienen wenig Geld. In Zukunft haben sie vielleicht gar keinen Job mehr. Serviceroboter wie Küchenroboter und Roboterküchen sind bereits Realität, Bedienungsroboter auf dem Vormarsch. Florian Rötzer von Telepolis schreibt am 7. August 2018: „Bedienungen in Restaurants verdienen nicht viel. Gleichwohl werden sie womöglich eine der Berufsgruppen sein, die am schnellsten von Roboter verdrängt werden. Und das nicht nur in den reichen Ländern. In China hat Alibaba bereits Restaurants in Hema-Supermärkten unter dem Namen Robot.He eröffnet, in denen Roboter das Essen zum Tisch oder in die Nähe des Tisches bringen. Und der Rivale JD.com will ganz schnell, bis 2020, 1000 vollautomatische Restaurants in China eröffnen.“ (Telepolis, 7. August 2018) Für Wirtschafts-, Informations- und Maschinenethik ergeben sich interessante Fragestellungen in Bezug auf den Einsatz, die Gestaltung und die Stimme. Ob der moralische Bedienungsroboter dem Gast das Kalbsschnitzel verweigern und Kartoffelpüree mit Erbsen empfehlen soll, ist noch zu diskutieren.

Abb.: Heute nur Erbsen