Die Drohne im Wald

Die Universität Zürich meldete am 10. Februar 2016: „Forscher der Universität Zürich, der Universität der italienischen Schweiz sowie der Fachhochschule Südschweiz haben für Drohnen eine Software entwickelt, die Waldwege erkennen und ihnen selbständig folgen können. Mit den neuen Drohnen können in Wäldern und Berggebieten vermisste Personen schnell gefunden und gerettet werden.“ Prof. Davide Scaramuzza betont, wie anspruchsvoll das „autonome Fliegen in komplexen Umgebungen“ ist. „In solchen Umgebungen kann jeder noch so kleine Fehler einen Absturz zur Folge haben. Roboter brauchen darum ein leistungsfähiges Gehirn, um die komplexe Welt, die sie umgibt, zu verstehen.“ (Medienmitteilung, 10. Februar 2016) In der Mitteilung heißt es weiter: „Die Drohne der Forscher nimmt ihre Umgebung mit Hilfe von zwei kleinen Kameras, ähnlich jener in Smartphones, wahr. Anstelle von komplizierten und teuren Sensoren macht ihre Drohne von künstlicher Intelligenz Gebrauch, um vom Menschen gemachte Wege in den Kamerabildern zu erkennen.“ Das Projekt wäre interessant auch im Kontext der Tier-Maschine-Interaktion, der Maschinenethik und der Tierethik. In Wäldern besteht die Gefahr, dass die Drohne auf Wildtiere trifft, diese aufschreckt und verletzt, und es gibt Ansätze zur Vermeidung, wie auch dieses Paper zeigt.

deer-crossing

Abb.: Was macht die Drohne mit dem Hirsch?

Die moralische Brille

Der Artikel „Die Datenbrille aus Sicht der Informationsethik“ von Oliver Bendel geht auf die „Datenbrille in der Moral der Informationsgesellschaft“ ein. In der Zusammenfassung heißt es: „Die Datenbrille ist ein mit Peripheriegeräten ergänzter Kleinstrechner, der am Kopf getragen und mit Augen und Händen sowie der Stimme gesteuert bzw. bedient wird. Dinge, Pflanzen, Tiere und Menschen respektive Situationen und Prozesse werden registriert, analysiert und mit virtuellen Informationen angereichert.“ Und weiter: „Aus ethischer Sicht stellen sich verschiedene Fragen. Insbesondere die Informationsethik ist gefordert, etwa zu Themen wie Informationsgerechtigkeit und informationelle Autonomie.“ Auch die Perspektive der Maschinenethik wird eingenommen: „Die Maschinenethik widmet sich schwerpunktmäßig autonomen, intelligenten, häufig mobilen Systemen. Schon bei Computern im automatisierten Handel und bei 3D-Druckern sind nicht alle dieser Merkmale gegeben, und doch versucht man sie als Subjekte im moralischen Sinne zu verbessern. Von daher spricht nichts dagegen, dass die Erkenntnisse auf die Datenbrille angewandt werden, wenn diese selbstständig Entscheidungen trifft oder Informationen filtert.“ Der Artikel ist im Februar 2016 in der Printversion der Zeitschrift Informatik-Spektrum 39 (1), S. 21 – 29, erschienen. Bereits seit 13. September 2014 ist er als „Online-First“-Artikel verfügbar.

google_glass

Abb.: Wie entscheidet die Datenbrille?

Entscheidungen über Leben und Tod

„Wenn der Algorithmus über Leben und Tod entscheidet“ lautet der Titel eines Beitrags von Joachim Laukenmann, erschienen am 7. Februar 2016 in der Sonntagszeitung. Von Carlo Stanga stammt die Illustration zum Roboterauto-Dilemma. Der Beitrag ist ausführlich und fachlich auf hohem Niveau. Eingefangen werden die Stimmen verschiedener Experten. Sepp Huber, Leiter Mediendienst von Swisscom, erklärt, dass autonome Fahrzeuge viele Fragen aufwerfen werden, „die wir als Gesellschaft klären müssen“. „Eine Programmierung des Systems im Sinne einer Entscheidung für einen Menschen und damit gegen einen anderen ist im deutschen Rechtssystem und auch in anderen Ländern rechtlich gar nicht zulässig“, sagt Klaus Schartel, Leiter Legal Mergers und Acquisitions/Kooperationen bei der Daimler AG. Sabine Gless, eine Basler Professorin, die sich mit Roboterrecht beschäftigt, weist auf die Notwendigkeit neuer Haftungskonzepte hin. Prof. Dr. Oliver Bendel, der als Maschinenethiker selbst moralische Maschinen konzipiert, warnt vor einer Einseitigkeit bei Modellen normativer Ethik. Auch rät er davon ab, die Maschinen über Leben und Tod von Menschen entscheiden zu lassen. Seine Forschung konzentriert sich auf Tiere. Die Illustration führt das Dilemma, das bei einem Bremsenversagen entstehen kann, eindrücklich vor Augen. Der Artikel kann hier als PDF heruntergeladen werden. Das Copyright liegt bei der Sonntagszeitung.

tram

Abb.: Das klassische Trolley-Problem kann ins Informationszeitalter übertragen werden

Maschinen mit Moral?

Das Deutsche Ärzteblatt, begründet 1872, bringt in der Ausgabe 4 vom 29. Januar 2016 auf den Seiten 122 bis 126 einen Artikel mit dem Titel „Roboterethik: Maschinen mit Moral?“. Die Autorin Heike E. Krüger-Brand hat die Tagung „Roboterethik“ in Berlin besucht (Veranstalter waren Daimler und Benz Stiftung sowie ceres) und fasst die Vorträge von Prof. Dr. Christian Woopen, Prof. Dr. Alin Albu-Schäffer, Prof. Dr. Jochen Steil, Prof. Dr. Oliver Bendel, Prof. Dr. Catrin Misselhorn und Prof. Dr. Norbert Lammert zusammen. Bei der Definition der Maschinenethik wird auf maschinenethik.net verwiesen. Die Empfehlung des Bundestagspräsidenten wird wie folgt zitiert: „Politik sollte den Entwicklungen auf der Spur bleiben, aber auch so souverän sein, Entwicklungen zu korrigieren, bei denen sich herausstellt, dass die damit verbundenen Hoffnungen übertrieben und die Risiken eher unterschätzt worden sind.“ (Deutsches Ärzteblatt, 29. Januar 2016) Der Artikel ist auch online erschienen und kann über www.aerzteblatt.de/archiv/173667/Roboterethik-Maschinen-mit-Moral abgerufen werden.

robot_chip

Abb.: Roboter mit Moral?

Es singen die Maschinen

„Seit es Autos gibt, werden sie besungen.“ Mit diesen Worten beginnt ein Artikel von Oliver Bendel, der am 31. Januar 2016 in der Zeitschrift SenLine erschienen ist. „Mercedes Benz“ von Janis Joplin sei einer breiten Öffentlichkeit bekannt, „Wir fahren Manta, Manta“ von den Ärzten eingeweihten Kreisen. Aus den Werken von Chuck Berry ließe sich, so der Verfasser, ein Soundtrack für die Straße mischen. Die Berliner Band 2raumwohnung habe 2004 das Album „Es wird Morgen“ veröffentlicht, mit dem wenig beachteten Lied „Jemand fährt“. „Das war ein paar Jahre nach dem ersten iPod und ein paar vor dem ersten iPhone. Vom Google-Auto hat noch niemand gesprochen.“ In einer Strophe heißt es: „Alles, was klingt, ist Musik./Es singen die Maschinen/auf der stark befahrenen Autobahn/oder auf geraden Schienen.“ Im Folgenden verflicht Oliver Bendel das visionäre Lied mit einer Geschichte zu einer Testfahrt mit dem Model S von Tesla, das einen Autopiloten besitzt. Der Artikel kann über www.senline.ch/es-singen-die-maschinen-id1171 kostenlos heruntergeladen werden. Für die Zeitschrift, die Prof. Dr. Helmut Bachmaier herausgibt, haben schon Prof. Dr. Ernst Peter Fischer und Prof. em. Dr. Helmut Weidhase geschrieben.

The fusion of animal and machine ethics

Der Artikel „Considerations about the relationship between animal and machine ethics“ von Oliver Bendel ist im Januar 2016 in der gedruckten Version der Zeitschrift Artificial Intelligence & Society erschienen. Er stellt Tierethik und Maschinenethik in einen Zusammenhang. Im Abstract heißt es: „Ethics researches morality in respect to humans and animals. Usually, it implies human morality; therefore, the focus is on human-human relationships (generally in ethics) and human-animal relationships (in animal ethics). Ethics can also deal with the morality of machines such as unmanned aerial vehicles, robots and agents or of self-driving cars and computers in automated trading, in other words more or less autonomous systems and programs.“ Auf solche Systeme wird eingegangen, aber nicht im Verhältnis zum Menschen, sondern zum Tier. Und das ist innerhalb der Maschinenethik immer noch – die Onlineversion ist bereits 2013 erschienen – neu. Am Rande wird eine Disziplin der Tier-Maschine-Interaktion (Animal-Machine Interaction) vorgeschlagen. Diese wird im Beitrag „Überlegungen zur Disziplin der Tier-Maschine-Interaktion“ näher diskutiert und im April auf einem Workshop an der Universität Bochum im Rahmen des DFG-Forschungsprojekts „Das verdatete Tier“ vorgestellt. „Considerations about the relationship between animal and machine ethics“ kann über die Website von Springer heruntergeladen werden.

cattle_crossing

Abb.: Soll das Auto für die Kuh bremsen?

Jenseits von Davos

Sonja Striegl von SWR2 war am 20. Januar 2016 im Gespräch mit Prof. Dr. Oliver Bendel. Anlass war das Weltwirtschaftsforum (WEF) in Davos. Dort wird die vierte industrielle Revolution verhandelt. Titel von Veranstaltungen waren beispielsweise „The Internet of Things Is Here“ und „Life in 2030: Humankind and the Machine“. Die Moderatorin fragte den gleichaltrigen Ethiker und Wirtschaftsinformatiker von der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz FHNW – beide sind Jahrgang 1968 und haben die Ausbreitung des Internets und die Fortschritte bei der Robotik bewusst miterlebt – nach Entwicklungen bei selbstständig fahrenden Autos und bei Pflegerobotern. Oliver Bendel erläuterte, wie diese teilautonomen und autonomen Systeme, wenn sie auf sich gestellt sind, entscheiden und handeln und wie man sie im Vorhinein „moralisieren“ kann. Der mehrminütige Beitrag mit dem Titel „Bis dass die Software Euch scheidet“ kann über die Website des Senders angehört werden.

Worker

Abb.: Der Arbeiter der Zukunft?

Der Roboter als Freund oder Feind

Die Industrieroboter verlassen – mit dieser Schilderung beginnt der Artikel „Mein Kollege, der Robot“ – die Schutzräume und Fertigungsstraßen. „Sie bewegen sich durch die Hallen, auf festgelegten Spuren oder nach ihrem eigenen Plan. Sie arbeiten in Kooperationszellen eng mit Menschen zusammen. Und sie schauen uns zu, wie wir etwas machen – und machen es nach.“ Oliver Bendel stellt dar, wie die Industrie 4.0 funktioniert, was in der intelligenten Fabrik passiert und wie sich darin der Roboter verändert. Auch die Perspektive der Ethik wird eingenommen. Die Gesellschaft müsse „entscheiden, ob Roboter uns nicht nur unterstützen, sondern auch ersetzen sollen“. „Reflexionen aus Technik- und Informationsethik mögen ihr dabei helfen.“ Schon davor wird die Maschinenethik gestreift: „Die Maschinenethik interessiert sich für moralische Maschinen, zum Beispiel für Apparaturen, die bestimmte moralische Regeln einhalten oder bestimmte Folgen mit moralischen Implikationen voraussehen können.“ Der Beitrag, der am 18. Januar 2016 in der UnternehmerZeitung erschienen ist, kann kostenlos als PDF heruntergeladen werden.

Abb.: Die vierte industrielle Revolution wird Arbeitsplätze kosten

KI im Deutschlandradio

„Wer ist verantwortlich, wenn künstliche Intelligenz versagt?“ Die Sendung bei Deutschlandradio Kultur vom 12. Januar 2016 mit diesem Titel widmete sich aktuellen Entwicklungen in der Robotik und in Roboter- und Maschinenethik. Zu Wort kommen u.a. Eric Hilgendorf, Experte für Roboterrecht an der Universität Würzburg, Ken Goldberg, Robotiker an der University of California, und Oliver Bendel, Informationsethiker und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Zu Ken Goldberg wird auf der Website gesagt: „Ken Goldberg von der University of California in Berkley Kalifornien ist einer der renommiertesten Robotik-Wissenschaftler weltweit. Er spricht von der Revolution, die auf seinem Arbeitsgebiet gegenwärtig stattfindet. Die Vernetzung von fast allem mit allem – Web 4.0 befreit auch die Roboter aus ihrer Isolation. Sie können nun direkt voneinander und von den Menschen lernen und auf unerhörte Rechnerkapazitäten zugreifen. Cloud Robotics nennt Goldberg das Konzept.“ (Website DRadio Kultur, 12. Januar 2016) Oliver Bendel wird mit diesen Worten vorgestellt: Er „ist Philosoph und Professor für Wirtschaftsinformatik an der Fachhochschule der Nordwestschweiz“. „Bei ihm spürt man die Neugier darauf, was da zwischen Menschen und Maschinen entsteht. Es ist schon mehr ein Miteinander. Am Arbeitsplatz müssen die Roboter aufpassen und ausweichen, um niemanden anzufahren oder mit den Greifern zu verletzen. Und wir Menschen tun gut daran, die Umgebung übersichtlich zu strukturieren, damit sich die Maschinen zurechtfinden.“ (Website DRadio Kultur, 12. Januar 2016) Der Beitrag kann über ondemand-mp3.dradio.de angehört werden.

AI_small

Abb.: Die KI greift nach den Sternen

Maschinenethik in Yps

Yps war jahrzehntelang das Kultheft für Kinder. Diese fieberten vor allem den Gimmicks entgegen, von denen sich einige bis heute im kollektiven Gedächtnis erhalten haben, etwa der Solarzeppelin, das Abenteuerzelt und die Maschine, mit deren Hilfe man eckige Eier macht. Auch umstrittene Beilagen wie die Urzeitkrebse und die Tropenschmetterlinge müssen erwähnt werden. Eigene Produktionen, u.a. mit dem karierten Yps-Känguru, und lizensierte Comics dienten als leichtverdauliches Lesefutter. Ein paar Jahre nach der Einstellung im Jahre 2000 erschienen Testausgaben, die sich an Erwachsene richteten. Der große Erfolg blieb aus. Nach einer längeren Zeit versuchte man es nochmals, mit einer thematischen Fokussierung auf Mode, Automobile und Technik und einem durchgehenden Bezug – so die Pressemitteilung des Verlags – „zu Karos, Kängurus oder Kohl“. Das Konzept ging auf, und so erhalten die Kinder von damals inzwischen jeden zweiten Monat eine Ausgabe. Die erste des Jahres 2016 wartet mit einem Schwerpunkt zu Robotern und Cyborgs auf. Der „Blick in die Zukunft“ widmet sich daneben Fleischimitaten und Traktorstrahlen. Auf Seite 20 findet sich ein Interview mit Oliver Bendel zu Robotik und Maschinenethik. Mit www.yps.de ist das Heft auch im Web präsent.

kangaroo

Abb.: Ein Straßenschild mit einem Känguru

Simple Moral Machines

Vom 21. bis zum 23. März 2016 findet an der Stanford University der Workshop „Ethical and Moral Considerations in Non-Human Agents“ statt, im Rahmen der AAAI Spring Symposia. Keynote-Speaker sind Ron Arkin (Georgia Institute of Technology), Maja Matarić (University of Southern California) und Luis Moriz Pereira (Universidade Nova de Lisboa). Organisiert wird der Workshop von Bipin Indurkhya (Jagiellonian University, Krakau) und Georgi Stojanov (The American University of Paris). Im Programmkomitee sitzen u.a. Peter Asaro (The New School, New York) und Patrick Lin (California Polytechnic State University). Einen der wissenschaftlichen Vorträge wird Oliver Bendel (Hochschule für Wirtschaft FHNW, Basel, Olten und Brugg-Windisch) halten. Aus dem Abstract von „Annotated Decision Trees for Simple Moral Machines„: „This article proposes an approach for creating annotated decision trees, and specifies their central components. The focus is on simple moral machines. The chances of such models are illustrated with the example of a self-driving car that is friendly to humans and animals. Finally the advantages and disadvantages are discussed and conclusions are drawn.“ Weitere Informationen über sites.google.com/site/ethicalnonhumanagents/.

policecar

Abb.: Ein als Polizeiwagen getarntes Roboterauto

Die KI in der Moral

Der Call for Papers zum Workshop ETHICS FOR ARTIFICIAL INTELLIGENCE bei der 25th International Joint Conference on Artificial Intelligence IJCAI-16 sollte Informations-, Maschinen- und Roboterethiker gleichermaßen interessieren. In der Beschreibung heißt es: „Recent progress in various subfields of AI has caused some researchers and pundits to raise concerns about the dangers that AI might ultimately pose. These concerns range from questions about the ethics of delegating to military drones the authority to decide when to attack human targets, up to fears about a possible existential risk posed by AI technologies … Much of the debate surrounding these issues has taken place in a scientific vacuum, uninformed by the experiences and insights of practicing AI researchers. Meanwhile, a wide range of other and sometimes less obvious ethical issues arise from current and proposed use of AI in diverse areas such as medicine, social care, autonomous trading agents and autonomous vehicles.“ (Website Workshop) Zum Ziel des Workshops wird gesagt: „The aim of this workshop is to bring together … AI researchers and others interested in understanding how the discipline of AI should respond to these concerns. The workshop particularly aims to foster an active exchange of ideas between attendees from different disciplinary backgrounds to gain a better understanding of the ethical issues surrounding AI.“ (Website Workshop) Die Konferenz findet vom 9. – 15. Juli 2016 in New York statt. Weitere Informationen über www.cs.ox.ac.uk/efai/call-for-papers/.

Der Lügenbot kommt auf die Welt

An der Hochschule für Wirtschaft FHNW wird ab Frühjahr 2016 im Rahmen einer Abschlussarbeit ein Lügenbot entwickelt. Der betreuende Professor, Dr. Oliver Bendel, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert, etwa „Wenn ein Chatbot zum Lügenbot wird“ (ICTkommunikation), „Können Maschinen lügen? Die Wahrheit über Münchhausen-Maschinen“ (Telepolis) und „Der Lügenbot und andere Münchhausen-Maschinen“ (MittelstandsWiki). In „Robots between the Devil and the Deep Blue Sea“ wurde zudem das sogenannte Lügenbot-Problem vorgestellt, als eines von vier Dilemmata. In den Beiträgen wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man könnte also Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student wird den Chatbot für zwei Szenarien realisieren, den Einsatz im Auftrag der Lebensmittel- und der Tourismusbranche. Bereits 2013 kam der GOODBOT als einfache moralische Maschine auf die Welt. Der Lügenbot könnte als einfache unmoralische Maschine bezeichnet werden, wobei Lügen natürlich nicht per se schlecht ist. Er ist interessant für die Maschinenethik als Gestaltungsdisziplin und für die Informationsethik als Reflexionsdisziplin. Über die Resultate des Projekts wird zur gegebenen Zeit auf maschinenethik.net informiert.

Maedchen_Chatbot

Abb.: Wagt er es, mich anzulügen, der Bot?

Foundation of Responsible Robotics

„Alle forschen an Robotern und keiner bedenkt, was wir damit anrichten.“ (Website DRadio Wissen, 11. Dezember 2015) Dieser Meinung sei, so der Sender, eine Gruppe von Wissenschaftlern. „Deshalb haben sie die Foundation of Responsible Robotics gegründet, also die Stiftung für verantwortungsvolle Robotik. Bei der Gründungsfeier in London warnte der emeritierte Professor und Mitgründer Noel Sharkey, die britische Regierung stecke zwar viel Geld in die Forschung – aber die Auswirkungen auf die Gesellschaft würden überhaupt nicht bedacht. Und auch ethische Fragen spielten kaum eine Rolle.“ (Website DRadio Wissen, 11. Dezember 2015) Allerdings fragen Informationsethik, Technikethik und Roboterethik sowie Wirtschaftsethik – in vielen Ländern umtriebige Disziplinen – sehr wohl nach ethischen Implikationen des Einsatzes von Robotern, und die Maschinenethik konzipiert sogar moralische Maschinen. Folgende Beispiele führt Noel Sharkey an: „Durch die Automatisierung in der Industrie könnten massenhaft Menschen arbeitslos werden. Auch Menschenrechte würden verletzt, etwa wenn Roboter bei der Betreuung von Senioren mit Kameras filmen. Polizeidrohnen seien in mehreren Ländern mit Waffen ausgerüstet. Selbstfahrende Autos könnten Bomben transportieren und so Selbstmordattentäter ersetzen.“ Das ist freilich nicht das Hauptproblem bei Roboterautos; das Hauptproblem ist, dass diese selbst Menschen töten. „Die Stiftung will erreichen, dass die Forschung solche Gefahren stärker mitdenkt.“ (Website DRadio Wissen, 11. Dezember 2015) Dies ist auf jeden Fall ein ehrenwertes Ziel.

Artificial Intelligence Ethics

Artificial Intelligence Ethics – dazu kann auch die Maschinenethik gerechnet werden – wird ein neuer Fokus an der Cambridge University. „A new center to study the implications of artificial intelligence and try to influence its ethical development has been established at the U.K.’s Cambridge University, the latest sign that concerns are rising about AI’s impact on everything from loss of jobs to humanity’s very existence.“ (Wall Street Journal, 3. Dezember 2015) Weiter heißt es: „The new center will work in conjunction with the university’s Centre for the Study of Existential Risk, which researches emerging risks to humanity’s future, including climate change, biological warfare, and artificial intelligence.“ (Wall Street Journal, 3. Dezember 2015) Leiter ist Huw Price, der im Interview erklärt: „Stanley Kubrick was a brilliant film director but we can do better than that now …“ „The classic film features a sentient computer program called HAL-9000 on board a space ship. The computer kills the ship’s crew.“ (Wall Street Journal, 3. Dezember 2015) Weitere Informationen über blogs.wsj.com.

Kamera

Abb.: Das Auge von HAL

Robots between the Devil and the Deep Blue Sea

„Robots between the Devil and the Deep Blue Sea“ lautet der Titel des Beitrags, der am 1. Dezember 2015 in der brasilianischen Zeitschrift Liinc em Revista erschienen ist. Oliver Bendel stellt klassische Dilemmata vor und überträgt sie ins Informationszeitalter. Insbesondere interessiert der Einsatz von Chatbots, Robotern, Drohnen und selbstständig fahrenden Autos, der immer wieder problembehaftet ist. Bei den Lösungsansätzen wird u.a. die Perspektive der Maschinenethik eingenommen. Es stellt sich heraus, dass klassische Dilemmata für die Herausforderungen der Gegenwart nützlich sind und dabei helfen, die Entscheidungsmöglichkeiten teilautonomer und autonomer Systeme zu diskutieren sowie Robotik, Künstliche Intelligenz und Informatik in dieser Frage zu sensibilisieren und ihre Ergebnisse und Erzeugnisse zu optimieren. Skizziert werden das „Roboterauto-Problem“, die „Parkbucht des Karneades“, „Buridans Robot“ und das „Lügenbot-Problem“. Der Beitrag kann über die Website der Zeitschrift kostenlos heruntergeladen werden.

Teufel

Abb.: Roboter können in Dilemmata geraten