Schlagworte: Digitale Ethik

Die KI in der Moral

Der Call for Papers zum Workshop ETHICS FOR ARTIFICIAL INTELLIGENCE bei der 25th International Joint Conference on Artificial Intelligence IJCAI-16 sollte Informations-, Maschinen- und Roboterethiker gleichermaßen interessieren. In der Beschreibung heißt es: „Recent progress in various subfields of AI has caused some researchers and pundits to raise concerns about the dangers that AI might ultimately pose. These concerns range from questions about the ethics of delegating to military drones the authority to decide when to attack human targets, up to fears about a possible existential risk posed by AI technologies … Much of the debate surrounding these issues has taken place in a scientific vacuum, uninformed by the experiences and insights of practicing AI researchers. Meanwhile, a wide range of other and sometimes less obvious ethical issues arise from current and proposed use of AI in diverse areas such as medicine, social care, autonomous trading agents and autonomous vehicles.“ (Website Workshop) Zum Ziel des Workshops wird gesagt: „The aim of this workshop is to bring together … AI researchers and others interested in understanding how the discipline of AI should respond to these concerns. The workshop particularly aims to foster an active exchange of ideas between attendees from different disciplinary backgrounds to gain a better understanding of the ethical issues surrounding AI.“ (Website Workshop) Die Konferenz findet vom 9. – 15. Juli 2016 in New York statt. Weitere Informationen über www.cs.ox.ac.uk/efai/call-for-papers/.

Beitrag zu interaktiven Werbeflächen

„Interaktive Werbeflächen sind Plakate, Terminals, Säulen etc., die sich automatisch auf Passanten, Besucher, Kunden und Interessierte einstellen und mit diesen in eine Interaktion treten. Teilweise werden Bewegungsmelder sowie Bild- und Mustererkennung zur Bestimmung von Geschlecht, Größe und Alter verwendet.“ So beginnt ein neuer Beitrag von Oliver Bendel für das Wirtschaftslexikon von Springer Gabler. Die interaktiven Werbeflächen zeigen Männern und Frauen, Großen und Kleinen, Jungen und Alten unterschiedliche Werbung. Dabei werden natürlich auch Klischees bedient. Am Ende wird die Perspektive der Ethik eingenommen: „Interaktive Werbeflächen können in die Privatsphäre eingreifen, selbst in öffentlichen Bereichen, und das Persönlichkeitsrecht verletzen sowie die informationelle Autonomie beschädigen. Dies ist Thema der Informationsethik. Die Maschinenethik fragt nach moralisch adäquaten Entscheidungen der Plakate und Terminals, die Medienethik nach der Reizüberflutung im (teil-)öffentlichen Raum.“ Der Beitrag ist am 2. Dezember 2015 erschienen und kann über wirtschaftslexikon.gabler.de/Definition/interaktive-werbeflaechen.html aufgerufen werden.

high_heels

Abb.: Unterschiedliche Werbung für Frauen und Männer

Tödliche Entscheidungen

„Wie Roboter über Menschenleben entscheiden“ lautet der Titel eines Artikels von Katrin Haas, der am 25. November 2015 in der Rheinischen Post erschienen ist. Im Teaser wird gesagt: „Ob im Verkehr oder in der Pflege – überall könnten in Zukunft Roboter moralische, manchmal tödliche Entscheidungen treffen.“ „Ich rate von Maschinen ab, die über Leben und Tod entscheiden“, wird der Maschinenethiker Oliver Bendel (Hochschule für Wirtschaft FHNW) zitiert, und er „wirbt dafür, nur einfache moralische Maschinen zu entwickeln“. Seine Forschung konzentriert sich stark auf Begegnungen von Maschinen mit Tieren. Und in diesem Zusammenhang ist er dafür, möglichst viel Leben zu retten. Auch Catrin Misselhorn von der Universität Stuttgart wird zitiert. Auf die Frage, wie lange es noch dauert, „bis Roboter sich um Menschen kümmern“, antwortet sie: „Vor Kurzem hätte ich gesagt, bis das umgesetzt wird, dauert es noch. Aber jetzt im Moment erlebt die Branche einen großen Auftrieb durch die Diskussion um autonom fahrende Autos.“ Die Online-Version des Artikels kann über www.rp-online.de/wirtschaft/wie-roboter-ueber-menschenleben-entscheiden-aid-1.5584750 abgerufen werden.

Poppen mit Pepper

Wie diverse Medien melden, warnt ein Roboterhersteller vor dem Sex mit seinem Produkt. In der Gebrauchsanweisung heiße es, Benutzer dürften keine sexuellen Handlungen an Pepper vornehmen. „Andernfalls drohten Strafen – welche genau, wird allerdings nicht erwähnt, ebensowenig wie geklärt wird, wie der Hersteller etwaige sexuelle Handlungen mit dem Humanoiden aufdecken will.“ (Neues Deutschland, 28. September 2015) In einem neuen Lexikon zu Informations- und Maschinenethik („300 Keywords Informationsethik“, Springer-Verlag, ab November 2015 erhältlich) wird zum Thema gesagt: „Robotersex, Sex mit und zwischen Robotern, ist ein Sujet von Science-Fiction-Büchern und -Filmen und – dort teilweise mit Hilfe von Avataren visualisiert – von Computerspielen. Auf dem Markt sind Sexroboter als handliches Spielzeug und (wie im Falle von Roxxxy) in Lebensgröße erhältlich.“ Mit Pepper hat Roxxxy nun ausgewachsene Konkurrenz bekommen, und es ist nur eine Frage der Zeit, bis der Volksmund den Namen anders ausspricht. Aus Sicht der Maschinenethik ist noch etwas interessant: „Ein Sprecher des Pepper-Vertreibers SoftBank erklärte, beispielsweise seien Manipulationen der Roboter-Software verboten, mit denen dem Gerät eine sexy Stimme verliehen werden könnte.“ Vorschläge zur Einordnung und Gestaltung von Sexrobotern unterbreitet der Buchbeitrag „Surgical, Therapeutic, Nursing and Sex Robots in Machine and Information Ethics“ von Oliver Bendel im Buch „Machine Medical Ethics“ – außerdem der Artikel „Reflections on the Development and the Design of Medical and Care Robots“ (über gbs-schweiz.org/blog/development-design-medical-care-robots/) vom selben Autor.

Chili

Abb.: Kein Pfeffer, aber scharf

Die Sexroboter kommen (oder auch nicht)

„Ethiker haben“, so meldet es wired.de, „eine Kampagne gegen Sexroboter gestartet“ (wired.de, 16. September 2015). Das Ziel sei, die Entwicklung der Androiden zu verbieten. „Die Gründer der Kampagne befürchten, dass der Umgang mit Sexrobotern menschlichen Beziehungen schadet und eine Sichtweise stärkt, die Frauen und Kinder zu Sexobjekten herabwürdigt.“ (wired.de, 16. September 2015) Diese Aussagen werden einige Experten aus verschiedenen Gründen irritieren. Zunächst einmal gibt es nur wenige Sexroboter. Die menschenartige Roxxxy ist bekannt, neben der einen oder anderen handlichen Variante. Die Akzeptanz ist derzeit gering, und das dürfte sich so schnell auch nicht ändern. Es gibt also, so könnte man einwenden, kein eigentliches Problem. Weiter wird unterstellt, dass die Entwicklung der Roboter in nur einer Richtung stattfindet, dass vor allem das weibliche Geschlecht und die kindliche Unschuld angegriffen werden. Das muss aber nicht sein und ist vom Markt, von der Moral und von anderen Faktoren abhängig. Nicht zuletzt kann man die Roboter auch als moralische Maschinen gestalten, was die Maschinenethik untersucht. Vorschläge dazu unterbreitet der Buchbeitrag „Surgical, Therapeutic, Nursing and Sex Robots in Machine and Information Ethics“ von Oliver Bendel im Herausgeberband „Machine Medical Ethics“ – außerdem sein Artikel „Reflections on the Development and the Design of Medical and Care Robots“ (über gbs-schweiz.org/blog/development-design-medical-care-robots/). Kathleen Richardson und Erik Billing vergleichen ihr Vorgehen mit den Kampagnen, „die sich gegen die Produktion von Killerrobotern wenden“ (wired.de, 16. September 2015). Damit man diese Roboterarten in einen Topf werfen kann, muss man wohl die Rede von den Waffen einer Frau oder eines Manns, seien diese fleischlich oder künstlich, wörtlich nehmen.

womanrobot

Abb.: Sex mit und zwischen Robotern ist nicht weit verbreitet

Sollen uns Roboter pflegen?

Unter diesem Titel ist am 9. September 2015 ein Artikel von Oliver Bendel in der Zeitschrift IT for Health erschienen. Operations-, Pflege- und Therapieroboter verbreiten sich immer mehr. Zwei Studierende an der Hochschule für Wirtschaft FHNW, Christine Fahlberg und David Wenger, haben in einem Forschungsbeitrag im Rahmen eines Masterstudiengangs untersucht, ob Patienten unter bestimmten Umständen lieber von Maschinen als von Menschen betreut und begleitet werden wollen. Tatsächlich scheint dies der Fall zu sein, wenn Privat- und Intimsphäre geschützt werden können, wenn man etwa vom Pflegeroboter im Intimbereich gewaschen wird. Als Gesprächspartner und Kontaktperson lehnt man diesen eher ab. Die Perspektive der Patienten wird in einschlägigen Studien selten eingenommen, und überhaupt sind Würde, Intim- und Privatsphäre sowie Datensicherheit kaum ein Thema, auch wenn es immer wieder ethische Betrachtungen gibt. Der Artikel fasst die Ergebnisse der beiden Masterstudierenden zusammen und kündigt weitere Untersuchungen an, bei denen auch die Maschinenethik eine Rolle spielen soll. Informationen zum Heft sind über www.netzmedien.ch/de-CH/medien-plattformen/itforhealth verfügbar. Eine Onlineversion ist in der Netzwoche über www.netzwoche.ch/de-CH/News/2015/09/10/E-Health-Prozesse-auf-dem-Operationstisch.aspx erschienen.

CareAbb.: Im Health Care geht es auch um moralische, sittliche und soziale Werte

Tagung „Roboterethik“

Die Tagung „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“ findet am 24. November 2015 in Berlin statt. Veranstalter sind Daimler und Benz Stiftung sowie Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (ceres). Auf der Website heißt es: „Während der eintägigen Veranstaltung soll aus verschiedenen Blickwinkeln beleuchtet werden, wie autonome Systeme unser Leben und unsere Gesellschaft verändern und welche ethischen Spannungsfelder hierdurch in unterschiedlichen Lebensbereichen aufgeworfen werden bzw. zukünftig entstehen können. Neben Ausführungen zu Entwicklungsstand, Eigenschaften und Einsatzmöglichkeiten autonomer Systeme soll deren Einsatz in den Bereichen Gesundheit, Wirtschaft, Politik und Verkehrswesen insbesondere aus ethischer, philosophischer und sozialwissenschaftlicher Perspektive betrachtet werden.“ (Website ceres) Beiträge gibt es u.a. von Prof. Dr.-Ing. Alin Albu-Schäffer, Deutsches Zentrum für Luft- und Raumfahrt, Acting Head of the Institute of Robotics and Mechatronics, Prof. Dr. rer. nat. Jochen Steil, Universität Bielefeld, Managing Director Research Institute for Cognition and Robotics, und Prof. Dr. phil. Catrin Misselhorn, Universität Stuttgart, Direktorin des Instituts für Philosophie und Inhaberin des Lehrstuhls für Wissenschaftstheorie und Technikphilosophie. Prof. Dr. oec. Oliver Bendel, Maschinenethiker und Wirtschaftsinformatiker an der Hochschule für Wirtschaft FHNW, hält den Vortrag „Die Moral in der Maschine“. Weitere Informationen über ceres.uni-koeln.de.

Robotcar

Abb.: Ist das Roboterauto gut oder böse?

Wenn ein Chatbot zum Lügenbot wird

Anna von Ikea sagt die Wahrheit. Zumindest kann man das annehmen, und man darf vermuten, dass sie die Wahrheit nur verschweigt, wenn sie einen guten Grund dafür hat oder überfordert ist. Was aber, wenn ein Chatbot die Unwahrheit sagt? Wenn Nana, wie sie heißen soll, die Wahrheit verdreht, die Wahrheit von Anna, die Wahrheit an sich? Was ist, wenn Anna gehackt oder umgestaltet und zu Nana wird, oder wenn man glaubt, mit Anna zu plaudern, eigentlich aber Nana dahintersteckt? Das Missbrauchspotenzial bei gewissen Informations- und Kommunikationsdiensten im Internet ist groß. In einem Artikel von Oliver Bendel mit dem Titel „Wenn ein Chatbot zum Lügenbot wird“ (ICTkommunikation, 24. Juli 2015) wird systematisch untersucht, wie (der Entwickler von) Nana vorgehen könnte, und gezeigt, dass ein Lügenbot, bei allen Tücken, realisiert werden kann – und dass die Gefahr, einem zu begegnen, immerhin vorhanden ist. Fragen stellen sich für Informationsethik und Maschinenethik gleichermaßen.

Avatar

Abb.: So könnte Nana aussehen

Moralische Roboter

Die Stanford University widmet sich im Frühjahr 2016 der Maschinenethik. Vom 21. bis 23. März findet der Workshop „Ethical and Moral Considerations in Non-Human Agents“ im Rahmen der AAAI Spring Symposia statt. Keynote-Speaker sind Ron Arkin (Georgia Institute of Technology), Maja Matarić (University of Southern California) und Luis Moriz Pereira (Universidade Nova de Lisboa). Organisiert wird der Workshop von Bipin Indurkhya (Jagiellonian University, Krakau) und Georgi Stojanov (The American University of Paris). Im Call for Papers heißt es: „Our machines are tasked with ever more autonomous decisions that directly impact on the well-being of other humans. There is a very real need to imbue our AI creations with a robust moral sense that real people would recognize as a functional model of human morality.“ Themen sind „Modeling evolution and emergence of moral norms“, „Designing moral regulations for autonomous systems“, „Role of analogies and metaphors in moral reasoning and argumentation“ und „Ontologies for moral and ethical reasoning“. Papers müssen bis 5. Oktober 2015 eingereicht werden. Weitere Informationen über sites.google.com/site/ethicalnonhumanagents/.

Robot_Woman

Abb.: Hat dieser Roboter so etwas wie Moral?

Vortrag „Moralische Maschinen“

Zum Swiss ICT Symposium – seit „35 Jahren der Treff von IT-Entscheidern und Managern“ (Website swissict.ch) – ist das Programm als PDF erschienen. Bei der  Durchführung im Herbst 2015 geht es um technische und wirtschaftliche Innovationen, u.a. um den digitalisierten Kunden, das Internet der Dinge, Cloud Computing und Big Data. Keynote-Speaker sind Sascha Lobo und Sven Gabor Janszky. Referate zum Internet der Dinge werden von Moritz Köhler (Director of Software Engineering, Sensirion AG), Hanspeter Kipfer (Vice President Technology Sales & Country Leader, Oracle Switzerland) und Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) – er spricht über Maschinenethik bzw. über moralische Maschinen und stellt neueste Forschungsergebnisse vor – bestritten. Die Veranstaltung findet am 11. und 12. November 2015 im Kultur- und Kongresszentrum Luzern statt. Die Anmeldung ist über www.swissict.ch möglich.

Auge

Abb.: Der Roboter schaut dich an