Über Täuschung und Betrug bei sozialen Robotern

„Die Changetagung 8 vom 27./28. Januar 2022 in Basel lotet aus, wie es um das Verhältnis von Kooperation, Verlässlichkeit und Steuerung in Zeiten der Digitalisierung bestellt ist.“ (Website Changetagung) Mit diesen Worten wird die nächste Ausgabe der Changetagung angekündigt. Eine der Keynotes stammt von Prof. Dr. Oliver Bendel und trägt den Titel „Sind soziale Roboter verlässliche Partner? Fünf Dimensionen des Gelingens und Scheiterns“. Aus dem Abstract: „Der Beitrag widmet sich zunächst der Definition und den Merkmalen sozialer Roboter und stellt Beispiele aus verschiedenen Bereichen vor. Soziale Roboter sind sensomotorische Maschinen, die für den Umgang mit Menschen oder Tieren geschaffen wurden. Beispiele sind Spielzeugroboter wie Cozmo, Therapieroboter wie Paro, Pflegeroboter wie Lio und P-Care sowie Sexroboter wie Harmony. Soziale Roboter gewinnen Menschen und Tiere mit wohlvertrauten Verhaltensweisen für sich. Aus technischer und funktionaler Sicht sind simulierte Emotionen und simulierte Empathie zur Erreichung des Nutzens für Menschen wichtig, ebenso aus psychologischer, wenn Beziehungen initiiert und etabliert werden sollen. Aus philosophischer und speziell ethischer Sicht stellen sich freilich auch Fragen zu Täuschung und Betrug sowie zur informationellen Autonomie. Genau diesen geht der Beitrag, ausgehend von den Merkmalen und Beispielen sozialer Roboter, dann nach. Er arbeitet heraus, wie soziale Roboter einerseits verlässliche Partner sind, andererseits das Gegenteil, da ihnen echte Emotionen und echte Empathie fehlen, sie nur ein simuliertes Gegenüber darstellen und sie dazu prädestiniert sind, uns unsere Geheimnisse zu entreißen.“ Das vollständige Programm ist hier einsehbar.

Abb.: Über Täuschung und Betrug bei sozialen Robotern

KI, ME und MB

Die Künstliche Intelligenz (KI) hat nach Dekaden des sich abwechselnden Auf- und Abschwungs im 21. Jahrhundert eine enorme Bedeutung in Forschung und Praxis erlangt. Maschinenethik und Maschinelles Bewusstsein (Künstliches Bewusstsein) konnten zur gleichen Zeit ihre Begriffe und Methoden in die Öffentlichkeit tragen, wo sie mehr oder weniger gut verstanden wurden. Eine Grafik versucht seit 2018 die Begriffe und Zusammenhänge von Künstlicher Intelligenz, Maschinenethik und Maschinellem Bewusstsein zu klären. Sie wird ständig weiterentwickelt und dadurch präziser, aber auch komplexer. Seit Anfang 2021 liegt eine neue Version vor. In ihr wird noch deutlicher gemacht, dass die drei Disziplinen bestimmte Fähigkeiten (meist von Menschen) nicht nur abbilden, sondern auch erweitern können.

Abb.: Die Version 3.0 vom Januar 2021

 

Keine Angst vor der KI

„Wer hat Angst vor der KI?“ Dieser Frage geht Carmen Gräf am 16. Juli 2020 von 22 bis 23 Uhr bei RBB Kultur nach. „Erst lernten die Computer rechnen, dann organisieren, analysieren, sprechen und schließlich – denken. Dank Künstlicher Intelligenz. Nun ist die Forschung dabei, den Computern auch das Fühlen beizubringen. Eine neue Stufe Künstlicher Intelligenz entsteht. Das sorgt für jede Menge Hoffnung und Euphorie, aber auch für Angst und Unbehagen. Wird die Maschine den Menschen überholen oder kann der Mensch die digitalen Potentiale sinnvoll nutzen? Ein Einblick in aktuelle Diskussionen, Forschungen und Anwendungen.“ (RBB Kultur) Erwähnt werden auch die Entwicklungen des Informations- und Maschinenethikers Oliver Bendel, konkret der LIEBOT, der systematisch die Unwahrheit sagt, und HAPPY HEDGEHOG, der igelfreundliche Rasenmähroboter. Die Sendung ist ein Jahr lang in der ARD-Mediathek abrufbar.

Abb.: Wer hat Angst vor der KI?

AI, ME und MC

Immer wieder hört man, oft von Theologen, manchmal von Philosophen, dass Maschinen nicht autonom seien, nicht intelligent, nicht moralisch etc. Sie übertragen den Begriff, den sie aus ihrem Bereich kennen, auf technische Wissenschaften wie Informatik, Künstliche Intelligenz (KI) und Maschinenethik (die technisch geprägt ist und eng mit KI und Robotik zusammenarbeitet). Sie anerkennen nicht, dass jede Disziplin ihre eigenen Begriffe haben kann (und in der Regel hat). Bei einer Tagung im Jahre 2015 beschimpfte Bundestagspräsident Prof. Dr. Norbert Lammert, ein zutiefst religiöser Mann, die Referenten mit den Worten, Maschinen seien nicht autonom, sie hätten sich nämlich nicht selbst ein Gesetz gegeben. Nun sprechen Informatik und Robotik aber nun einmal von autonomen Systemen und Maschinen, und selbstverständlich dürfen sie das, wenn sie darlegen, wie sie das meinen. Eine solche Begriffsklärung und -aneignung steht sogar am Anfang jeder wissenschaftlichen Betätigung, und dass die Begriffe gleich lauten wie die anderer Bereiche, heißt keineswegs, dass sie dasselbe bedeuten und bedeuten müssen. Eine neue Grafik von Prof. Dr. Oliver Bendel, die auf früheren Entwürfen aufbaut, stellt dar, was der Gegenstandsbereich der Disziplinen oder Arbeitsbereiche der KI, der Maschinenethik und des Maschinellen Bewusstseins ist, und macht für sie terminologische Vorschläge. Im Kern geht es diesen darum, etwas in bestimmten Aspekten ab- oder nachzubilden bzw. zu simulieren. So schafft es die Künstliche Intelligenz eben, künstliche Intelligenz hervorzubringen, etwa Dialogsysteme oder Maschinen, die bestimmte Probleme lösen. Ob diese „wirklich“ intelligent sind oder nicht, ist keine sinnvolle Frage, und der Terminus technicus benutzt nicht umsonst das Adjektiv „künstlich“ – hier wäre noch einfacher als im Falle von „autonom“ zu verstehen, dass es sich um eine „neue“ (immerhin seit über 50 Jahren erklärte) Bedeutung handelt.

Abb.: AI, ME und MC

13 Artefakte der Maschinenethik

Seit 2012 wurden von Oliver Bendel 13 Artefakte der Maschinenethik erfunden. Neun von ihnen wurden dann tatsächlich umgesetzt, darunter LADYBIRD, der tierfreundliche Saugroboter, und LIEBOT, der Chatbot, der systematisch lügen kann. Beide haben es zu einer gewissen Bekanntheit gebracht. Ethik muss nicht unbedingt das Gute hervorbringen, ist der Informations- und Maschinenethiker überzeugt. Sie sollte das Gute und das Böse erforschen und wie jede Wissenschaft dem Erkenntnisgewinn dienen. Entsprechend baut er sowohl moralische als auch unmoralische Maschinen. Die unmoralischen behält er aber in seinem Lab. 2020 wird, wenn das Projekt angenommen wird, der HUGGIE das Licht der Welt erblicken. Die Projektidee ist, einen sozialen Roboter zu schaffen, der unmittelbar zu einem guten Leben und zum wirtschaftlichen Erfolg beiträgt, indem er Menschen bzw. Kunden berührt und umarmt. HUGGIE soll sich an manchen Stellen erwärmen, und es sollen die Materialien, mit denen er bezogen ist, gewechselt werden können. Eine Forschungsfrage wird sein: Welche Möglichkeiten stehen neben Wärme und Weichheit zur Verfügung? Sind optische Reize (auch auf Displays), Vibrationen, Geräusche, Stimmen etc. für eine gelungene Umarmung wichtig? Alle moralischen und unmoralischen Maschinen, die zwischen 2012 und 2020 entstanden sind, sind in einer neuen Illustration zusammengestellt, die hier zum ersten Mal gezeigt wird.

Abb.: 13 Artefakte der Maschinenethik

KI und Big Data in der Versicherung

Die Euroforum-Konferenz „Automatisation & Data Analytics: Praktische Nutzung von KI in Versicherungen“ findet am 12. und 13. März 2020 in München statt. „Robotics und KI gesteuerte Prozessautomatisierung bieten der Assekuranz sowohl im Antrags- als auch Schadenmanagement die Chance zur Erhöhung von Qualität, Effizienz und Kundenzufriedenheit. Am ersten Konferenztag stellen Experten der Versicherer Allianz, VKB, Cosmos, Gothaer und das Start-up Joonko erfolgreiche Automatisierungsprojekte vor, berichten über ihre Umsetzungserfahrungen und geben Tipps und Tricks.“ (Website Konferenz) „Zukünftig wird ein Versicherer, der es schafft, eine gute Datenaufbereitung, -Qualität und -Sicherheit herzustellen, entscheidende Wettbewerbsvorteile haben. Doch bisher hängen die Daten der Versicherer unstrukturiert in Silos fest und können nicht für KI-Systeme genutzt werden. Am zweiten Konferenztag zeigen Experten von Google, Allianz, Markel, Coya und getsafe auf, wie Versicherer ihre Datensilos aufbrechen und aktivieren können.“ (Website Konferenz) Auch Wissenschaftlerinnen und Wissenschaftler geben Input. Dr. Andrea Cornelius spricht über die „Einführung von KI-Projekten“, Prof. Dr. Oliver Bendel über „KI und Big Data in der Versicherung aus ethischer Sicht“. Der Flyer kann hier heruntergeladen werden.

Die Vermehrung der Liebespuppen

„Liebespuppen (engl. ‚love dolls‘) unterscheiden sich von klassischen Gummipuppen durch ihre lebensechte Gestaltung. Sie haben Kopf und Körper, die täuschend echt anzusehen sind. Sie haben künstliche Haut, unter der sich Gel befindet, sodass sich ihre Gliedmaßen echt anfühlen. An ausgewählten Stellen erwärmen sie sich oder sondern sie Flüssigkeit ab. Metallskelette erlauben unterschiedliche Positionen. Man kann Liebespuppen kaufen, um sie zuhause zu benutzen, man kann sie mieten, stunden- oder tageweise, oder in speziellen oder normalen Etablissements antreffen. Die meisten von ihnen sind Mädchen und Frauen nachempfunden, nur wenige dem männlichen Geschlecht.“ So beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon, verfasst von Oliver Bendel. Interessanterweise werden Fantasy- und Comicfiguren von manchen Männern gezielt gesucht bzw. bevorzugt. „Wie weit die Abweichung vom Menschen gehen darf, ist weitgehend unerforscht. Ist jemand bereit, sich sexuell mit Daisy Duck oder Minnie Mouse einzulassen? Es könnte sein, dass für die Mehrheit hier eine Grenze überschritten wäre, zumal es sich für Erwachsene vielfach um Figuren aus der Kindheit handelt.“ Der Beitrag ist am 7. August 2019 erschienen und kann über wirtschaftslexikon.gabler.de/definition/liebespuppen-121148 heruntergeladen werden.

Abb.: Wer ist echt?

Vortrag zu Maschinenethik und KI

Die Künstliche Intelligenz hat zunächst die menschliche oder tierische Intelligenz als Referenz und versucht, sie in bestimmten Aspekten abzubilden. Sie kann zudem anstreben, von der menschlichen oder tierischen Intelligenz abzuweichen, etwa indem sie mit ihren Systemen die Probleme anders löst. Die Maschinenethik widmet sich der maschinellen Moral, bringt sie hervor und untersucht sie. Ob man die Begriffe und Methoden der Maschinenethik mag oder nicht – man muss anerkennen, dass neuartige autonome Maschinen entstehen, die in einem gewissen Sinne vollständiger als frühere erscheinen. Es verwundert fast, dass sich die künstliche Moral nicht viel früher zur künstlichen Intelligenz gesellt hat. Nun scheinen vor allem Maschinen, die menschliche Intelligenz und menschliche Moral für überschaubare Anwendungsbereiche simulieren, eine gute Idee zu sein. Aber was ist, wenn eine Superintelligenz mit einer Supermoral eine neue Art bildet, die der unseren überlegen ist? Das ist natürlich Science-Fiction. Aber auch etwas, das manche Wissenschaftler erreichen wollen. Prof. Dr. Oliver Bendel aus Zürich stellt in seinem Vortrag am 18. Juli 2019 ab 18:30 Uhr am KIT gegenwärtige Entwicklungen und künftige Möglichkeiten vor und nimmt eine kritische Einordnung vor. Er schließt damit das Colloquium Fundamentale des Sommersemesters ab. Weitere Informationen über www.zak.kit.edu/colloquium_fundamentale.

Intelligente Autos

„Chancen und Risiken: KI & Autonomes Fahren“ – so der Titel eines Beitrags im Spektrum der Wissenschaft. In einem fast zwanzigminütigen Video wird der Vortrag von Oliver Bendel gezeigt, den er bei der Veranstaltung „KI & Autonomes Fahren“ am 13. Mai 2019 im Max-Planck-Institut für intelligente Systeme gehalten hat. Die Reihe „Gehirn der Zukunft“, die den Rahmen bildete, wird von der Gemeinnützigen Hertie-Stiftung getragen. Zunächst sprachen Dr. Emanuela Bernsmann von der Gemeinnützigen Hertie-Stiftung und Dr. Katherine J. Kuchenbecker vom Max-Planck-Institut für intelligente Systeme ein Grußwort. Dann trugen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Dr. Corinna Bernarding (Universität des Saarlandes), Prof. Dr. Andreas Geiger (Max-Planck-Institut für intelligente Systeme) und Dr. Sebastian Söhner (Porsche AG) vor. Oliver Bendel stellte in seinem Vortrag zehn Thesen auf und führte passende Beispiele an. Sein Fazit lautete: „Die Informationsethik kann Chancen und Risiken des automatisierten und autonomen Fahrens herausarbeiten, und sie kann Konflikte erkennen und angehen, etwa indem sie einen Diskurs zwischen Interessengruppen begleitet. Mit Hilfe der Maschinenethik wäre es möglich, automatisierte und autonome Autos in moralische Maschinen zu verwandeln. Diese könnten bei Tieren qualifizieren und quantifizieren, was sie bei Menschen nicht tun sollten.“

Abb.: Nicht intelligent, aber schön

Staatsbibliothek widmet sich Maschinenethik

„Stimmen der Bibliothek“ widmet sich in einem neuen Podcast dem Thema „Künstliche Intelligenz, Robotik und Maschinenethik“. Auf der Website heißt es: „Künstliche Intelligenz (KI) wird zum Bestandteil unseres Arbeits- und Lebensalltags: Intelligente Objekt- und Mobilitätssteuerung, kooperative Roboter in der Industrie, KI bei der Sprachsteuerung mittels Assistenten … Zu verbreiteten Lösungen in Produktion und Logistik treten vermehrt Szenarien und Anwendungen aus dem Service- und Dienstleistungsbereich hinzu: KI im Personalmanagement, bei der Verbrechensbekämpfung oder in Medizin, Pflege und Therapie, ergo Bereichen mit starken sozialen Interaktionen sowie besonderen Anforderungen an Datenschutz und Privatheit. Wo stehen wir im Bereich der KI und sozialen Robotik, welche Auswirkungen kann dies auf die Gesellschaft bringen und welche Bedeutung spielen hierbei ethische Grundsätze?“ (Website Stabi) Und weiter: „Hören Sie im Interview mit Oliver Bendel, Professor für Wirtschaftsinformatik, Roboterphilosoph und Sachverständiger des Deutschen Bundestages, wie KI-Entwicklungen unser Leben bestimmen (werden) und wie sie Gegenstand in Forschung und Lehre sind … Das Gespräch wurde am 21. Mai 2019 von Heinz-Jürgen Bove, Fachreferent für Sozialwissenschaften an der Staatsbibliothek zu Berlin, durchgeführt.“ (Website Stabi)

Abb.: Ein Mikrofon

Stephen A. Schwarzman Centre in Gründung

„Die britische Elite-Universität Oxford hat eine Spende in Höhe von 150 Millionen Pfund (rund 168 Millionen Euro) von US-Milliardär Stephen A. Schwarzman erhalten. Mit der höchsten Einzelspende in der Geschichte der Hochschule soll das ‚Stephen A. Schwarzman Centre‘ für Geisteswissenschaften entstehen.“ (SPON, 19. Juni 2019) Dies meldete der Spiegel am 19. Juni 2019. Weiter heißt es: „In dem Gebäude sollen unter anderem die Fakultäten für … Geschichts- und Sprachwissenschaften, Philosophie, Musik und Theologie zusammengelegt werden. Rund ein Viertel aller Oxford-Studenten sind in diesen Fächern eingeschrieben. Zusätzlich soll dort ein neues Institut für Ethik im Umgang mit Künstlicher Intelligenz entstehen, wie die Universität mitteilte.“ (SPON, 19. Juni 2019) Der Schwerpunkt scheint auf Informations- und Roboterethik zu liegen. Schwarzman selbst sagte laut Spiegel, Universitäten müssten dabei helfen, ethische Grundsätze für den schnellen technologischen Wandel zu entwickeln. Über die Herkunft der Mittel wird debattiert. Weitere Informationen über www.spiegel.de/lebenundlernen/uni/oxford-elite-uni-erhaelt-150-millionen-pfund-spende-a-1273161.html.

350 Keywords Digitalisierung

Von „Big Data“ über die „Künstliche Intelligenz“ bis hin zur „Sozialen Robotik“: Im Kontext der Digitalisierung gibt es unzählige Fachtermini. Das neue Nachschlagewerk „350 Keywords Digitalisierung“ von Prof. Dr. Oliver Bendel ist für alle geeignet, die einen schnellen Einstieg in das Gebiet der Digitalisierung suchen und sich für Fragen der Ethik interessieren. In 350 übersichtlichen Beiträgen werden die Grundlagen und Entwicklungen leicht verständlich erläutert. Der Begriff der Digitalisierung hat mehrere Bedeutungen. Er kann die digitale Umwandlung und Darstellung bzw. Durchführung von Information und Kommunikation oder die digitale Modifikation von Instrumenten, Geräten und Fahrzeugen ebenso ansprechen wie die digitale Revolution, die auch als dritte Revolution bekannt ist. Auch mit der vierten Revolution ist der Begriff eng verbunden. Das Buch ist Ende April 2019 im Verlag Springer Gabler erschienen und kostet als E-Book ca. 15, in gedruckter Form ca. 20 Euro. Viele Hochschulmitglieder können es über SpringerLink kostenlos herunterladen. Es hat 286 Seiten. Weitere Informationen über www.springer.com/gp/book/9783658258221.

Abb.: Auch dieser Begriff ist enthalten (innerhalb von „Nerd“)

Das fünfte Artefakt der Maschinenethik

Am 8. April 2019 startet an der Hochschule für Wirtschaft FHNW das E-MOMA-Projekt. „E“ steht für „Enhancing“, „MOMA“ für „Moral Machine“. Wenig verfolgt wird in der Maschinenethik bisher der Ansatz, dass die Maschine selbst die Moral weiterentwickelt, etwa indem sie die Regeln adaptiert oder priorisiert, mit Hilfe von Machine Learning, speziell auch Deep Learning. Michael Anderson, Susan Leigh Anderson und Vincent Berenz haben einen NAO-Roboter mit Methoden des Machine Learning moralisch erweitert. Ein Beitrag dazu erschien kürzlich in den Proceedings of the IEEE. Im E-MOMA-Projekt soll eine eigene Implementierung entstehen, die diese Ansätze fortführt. Dabei können z.B. neuronale Netzwerke verwendet werden. Es bietet sich die Implementierung eines Chatbots an, aber auch die Modifizierung von Hardwarerobotern ist möglich. Letztlich geht es darum, eine moralische Maschine in die Welt zu bringen, die ihre Moral anpasst und weiterentwickelt, je nach Situation bzw. je nach eingegebenen Daten. Es ist das fünfte Artefakt der Maschinenethik, das nach Ideen, Skizzen und Vorgaben von Prof. Dr. Oliver Bendel entsteht. Das erste war der GOODBOT von 2013.

Abb.: Ein Vorbild ist der Nao der Andersons

Die Frage der Verantwortung

Das Wissenschaftsjahr 2019 widmet sich der Künstlichen Intelligenz. In diesem Kontext führte Vision Kino ein Interview mit dem Informations- und Maschinenethiker Oliver Bendel. Zuerst wurde er danach gefragt, welche Themen im Zusammenspiel von Künstlicher Intelligenz und Ethik er aktuell für besonders wichtig hält. Er antwortete: „In der Informationsethik ist das Thema Überwachung im Augenblick sehr zentral, hier insbesondere Gesichts- und Emotionserkennung. Sehr problematisch wird es, wenn das mit der so genannten Physiognomik kombiniert wird, einer Pseudowissenschaft. Beispielsweise will man aus Gesichtsmerkmalen und -ausdrücken kriminelle Absichten ableiten.“ Später ging es dann um Fragen der Verantwortung. Nach Oliver Bendel kann ein Computer oder Roboter keine Verantwortung tragen, höchstens in einem sehr rudimentären Sinne, indem er eine Aufgabe übernimmt. Es ergibt nach ihm auch keinen Sinn, ihn in moralischer Hinsicht zur Verantwortung zu ziehen. Das Interview kann hier nachgelesen werden.

Abb.: Können Roboter Verantwortung tragen?

„Perspektiven“-Podcast zur Maschinenethik

„Perspektiven“ ist eine Gesprächsreihe zu Themen der Wirtschaftsinformatik, die Perspektiven auf Forschung und Entwicklung, Studium und Lehre und Einblicke in die Praxis behandelt. Unterstützt wird sie durch den Fachbereich Wirtschaftsinformatik der Gesellschaft für Informatik. „Wirtschaftsinformatik ist eine Wissenschaft, die Informationssysteme, ihre Gestaltung und Nutzung in organisatorischen Handlungssystemen untersucht … und damit vielschichtige Bezüge zu anderen Wissenschaften aufweist: Dabei ist nicht nur an die Informatik und Betriebswirtschaftslehre zu denken, sondern auch an die Ingenieurwissenschaften, die Soziologie und die Philosophie, insbesondere die Sprachphilosophie.“ (Website Perspektiven) In den Gesprächen dieser Reihe unterhält sich Stefan Strecker mit seinen Gästen „über ihre Perspektiven auf Themenfelder und Fragestellungen der Wirtschaftsinformatik und Bezüge zu angrenzenden Wissenschaften“ (Website Perspektiven). Am 12. Februar 2019 ist der Podcast mit Oliver Bendel zur Maschinenethik erschienen. Er kann über perspektivenpodcast.podigee.io/12-maschinenethik-gesprach-mit-oliver-bendel aufgerufen werden.

Abb.: Mikrofone warten auf die Aufnahme

Der Roboter entdeckt die Philosophie

Die Ideen- und Entwicklungsgeschichte ist reich an künstlichen Kreaturen. Mythos und Fiktion bringen Pandora und Talos hervor, die Geschöpfe des Hephaistos, die Automatenmenschen des Daidalos, die Skulptur des Pygmalion, die eiserne Jungfrau des Nabis. Die Realität war zunächst verbunden mit der Illusion. Von ca. 1500 bis 1850 wurden tier- und menschenähnliche (Pseudo-)Automaten erdacht bzw. vorgeführt, die körnerschluckende Ente, die kunstvollen Androiden, der doppelbödige Schachtürke. Dann, nach weiteren 150 Jahren, streifte die Realität die Illusion mehr und mehr ab, wobei sie die Simulation in den meisten Fällen bei sich behielt. Es werden Systeme und Roboter erschaffen, die den Menschen nicht nur zum Verwechseln ähnlich sehen, sondern sogar, auch mit Hilfe künstlicher Intelligenz, selbst Optionen wählen und Aktionen ausführen, unter Umständen mit weitreichenden Folgen. Sie werden von sozialer Robotik und Maschinenethik gezähmt, dressiert, zivilisiert und moralisiert. Auch tierähnliche und dinghafte Artefakte scheinen plötzlich Eigenschaften zu haben, die man bisher Menschen zugeschrieben hat. Oliver Bendel wird in seinem Vortrag am 9. Januar 2019 im Haus Huth in Berlin erklären, was Roboterphilosophie und Roboterethik und was soziale Robotik und Maschinenethik sind. Er wird darstellen, wie man Entwickler und ihre Geschöpfe für die Philosophie gewinnt und wie man Roboterautos, Serviceroboter und Chatbots zu moralischen und unmoralischen Maschinen machen kann. Und wie man dabei in manchen Fällen die Büchse der Pandora öffnet. Weitere Informationen über die Website der Daimler und Benz Stiftung.

Abb.: Die Philosophie entdeckt den Roboter