The Car that Rolls on Twitter Polls

„Wer soll auf den Straßen über Leben und Tod von Menschen entscheiden?“ So lautete die Frage von @Infoethik bei einer der ersten Umfragen auf Twitter. Die neue Funktion namens Twitter Polls erlaubt es, die Meinungen der Benutzer einzuholen. Auf ZDNet wird Produktmanager Todd Sherman zitiert: „Twitter Polls sei eine neue Möglichkeit, mit dem riesigen Twitter-Publikum zu interagieren und herauszufinden, was Menschen denken. Für die Teilnehmer sei es eine einfache Möglichkeit, sich Gehör zu verschaffen.“ (Website ZDNet, 22. Oktober 2015) Weiter wird erklärt: „Umfragen auf Twitter haben eine vorgegebene Laufzeit von 24 Stunden. Nutzer können über zwei mögliche Antworten zu einer Frage abstimmen lassen.“ (Website ZDNet, 22. Oktober 2015) Jeder, der angemeldet ist, kann den passenden Radiobutton auswählen; wie man abgestimmt hat, wird nicht öffentlich mitgeteilt. Die beiden Antworten „Die Fahrer“ und „Die Autos“ wurden in den ersten Minuten einige Male angeklickt. Die Autos rasten davon. Es sollen weitere Umfragen zur Maschinenethik und zur Informationsethik stattfinden.

twittervogel

Abb.: Da freut sich der Vogel

Das Roboterauto zwischen den Kulturen

Prof. Dr. Mark Coeckelbergh vom Centre for Computing and Social Responsibility De Montfort University, Leicester, UK hält am 21. Oktober 2015 einen Vortrag zum Thema „Die Ethik selbstfahrender Autos“. Im Ankündigungstext heißt es: „Sollten wir völlig automatisierte, intelligent selbstfahrende Autos ohne menschliche Fahrer entwickeln und verwenden? Können solche Autos jemals sicher sein? Können sie ethisch sein? Stellen solche Autos eine Bedrohung von Menschen dar oder ist das Weglassen von Menschen als Fahrer die Lösung?“ (Website ots.at) Es geht demnach um Fragen der Technik- und Informationsethik, aber auch der Maschinenethik. Auch die Frage nach der kulturellen Adaption wird aufgeworfen: „Ein weiteres Problem könnte hinsichtlich der kulturellen Unterschiede entstehen: wenn Fahrverhalten in Gesellschaften und Kulturen verschieden ist, wie kann das beim Design solcher autonomer Systeme berücksichtigt werden?“ Der Vortrag findet am Österreichischen Forschungsinstitut für Artificial Intelligence in Wien statt und beginnt um 18.30 Uhr. Weitere Informationen über www.ots.at.

Abb.: Für die Kuh wird gebremst, ob in Indien oder in Texas

Programm der Tagung „Roboterethik“

Das Programm der Tagung „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“, veranstaltet von der Daimler und Benz Stiftung sowie vom Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (ceres), wurde Mitte Oktober 2015 fertiggestellt. Es steht auch über maschinenethik.net zum Download bereit. Während der eintägigen Veranstaltung in Berlin soll, wie ceres auf seiner Website schreibt, „aus verschiedenen Blickwinkeln beleuchtet werden, wie autonome Systeme unser Leben und unsere Gesellschaft verändern und welche ethischen Spannungsfelder hierdurch in unterschiedlichen Lebensbereichen aufgeworfen werden bzw. zukünftig entstehen können“ (Website ceres). Die Leitung der Tagung, die am 24. November 2015 ab 10 Uhr stattfindet, hat Prof. Dr. Christiane Woopen inne, die Referenten sind Prof. Dr.  Alin Albi Schäffer (Deutsches Zentrum für Luft- und Raumfahrt, Direktor des Instituts für Robotik and Mechatronik), Prof. Dr. Oliver Bendel (Fachhochschule Nordwestschweiz, Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik), Prof. Dr. Hartmut Hirsch-Kreinsen (Technische Universität Dortmund, früherer Inhaber des Lehrstuhls für Wirtschafts- und Industriesoziologie), Prof. Dr. Norbert Lammert (Präsident des Deutschen Bundestages), Prof. Dr. Catrin Misselhorn (Universität Stuttgart, Direktorin des Instituts für Philosophie), Prof. Dr. Jochen Steil (Universität Bielefeld, geschäftsführender Direktor des Instituts für Kognition und Robotik) und Prof. Dr. Johannes Weyer (Technische Universität Dortmund, Professor für Techniksoziologie). Die Eröffnungsrede hält Prof. Dr. Eckard Minx, Vorsitzender des Vorstands der Daimler und Benz Stiftung.

Abb.: Eine Skulptur in Berlin

Rolf Pfeifer und Ethik

In einem Artikel im Tages-Anzeiger von Lucie Machac (11. Oktober 2015) werden auch Maschinenethik und Roboterethik gestreift. Grundlage ist ein Interview mit Rolf Pfeifer. Als Erbauer definiere er für den Roboter auch ein Wertesystem. „Er meint damit nicht ethisch-moralische Werte.“ Maschinenethik treibt er demnach  nicht – wie ist es mit der Roboterethik, genauer gesagt mit dem Bereich, der nach Rechten von Maschinen fragt? Würde Pfeifer, wenn individuelle Fähigkeiten erworben wurden, den Stecker ziehen? „Zum jetzigen Zeitpunkt habe ich überhaupt keine Skrupel.“ Mit dieser Haltung ist der Robotiker nicht allein – die meisten Experten sehen keinerlei Anlass, Roboter jetzt oder in naher Zukunft wie Tiere oder Menschen zu behandeln. Dennoch wagt er einen Blick in die weitere Zukunft: „Aber stellen Sie sich vor, wenn uns Roboter einmal anflehen können, den Stecker bittebitte nicht zu ziehen  … Und vielleicht weinen sie dabei sogar. Was würden Sie dann tun?“ Die meisten Experten würden antworten: Erst recht den Stecker ziehen.

Kabel

Abb.: Wer zieht den Stecker, wer das Kabel?

Ein Cyborg aus Pflanze und Maschine

Cyborgs sind Verschmelzungen von Mensch und Maschine. Auch Tier oder Pflanze können als biologische Komponente dienen. Es geht in der praktischen Anwendung meist darum, den menschlichen Körper mit technischen Mitteln zu perfektionieren oder seine Schwächen auszugleichen. Eine Kakerlake kann als fremdgesteuerte Kreatur und Spionin dienen, was Informations-, Technik-, Roboter- und Tierethik kritisch reflektieren müssen. FLORABORG ist ein Versuch, die Pflanze selbst (und nicht ihr Umfeld) zu optimieren, damit sie z.B. gegen Trockenheit gewappnet ist. Hält diese eine Weile an, ist die Pflanze gestresst. Dies kann von einem Computer gemessen werden, etwa einem Smartphone. Die solarbetriebenen Fächer werden ausgefahren und dem Sonnenlicht entgegengestreckt. Es kann sich Kondenswasser bilden, das über die künstlichen und echten Blätter tropft, den Stengel hinunterrinnt und ins Erdreich eindringt, wo es von den Wurzeln aufgenommen wird. Hat sich die Pflanze erholt, verringert sich der Stress, und die Fächer können eingefahren werden. Nicht zuletzt vermögen die Fächer auch Schatten zu spenden. Welche Stellung ein Cyborg aus Pflanze und Maschine in der Maschinenethik hat, muss erst noch erforscht werden.

Abb.: Designstudie FLORABORG

Formalisierung von Ethik

Einen Artikel über die Formalisierung von Ethik hat Caspar Österheld von der Universität Bremen in der Springer-Fachzeitschrift Synthese veröffentlicht. Der Titel lautet „Formalizing preference utilitarianism in physical world models“. Im Abstract heißt es: „Most ethical work is done at a low level of formality. This makes practical moral questions inaccessible to formal and natural sciences and can lead to misunderstandings in ethical discussion. In this paper, we use Bayesian inference to introduce a formalization of preference utilitarianism in physical world models, specifically cellular automata.“ Auch auf die Maschinenethik wird am Rande eingegangen: „Some formalization has … been conducted in the realm of machine ethics.“ Der Artikel ist über link.springer.com/article/10.1007/s11229-015-0883-1 erhältlich.

Auto und Ethik bei der IAA in Frankfurt

Das große Thema der IAA war im September 2015 das autonome Auto. Das zeigte sich auch im „IAA Spot – Das offizielle Magazin“. Darin wurden nicht zuletzt Bezüge zur Maschinenethik hergestellt. Der Artikel von Holger Holzer mit dem Titel „Das Autonomie-Dilemma“ beginnt mit den Sätzen: „Unsere Autos werden mit zunehmender Autonomie künftig auch über Leben und Tod von Menschen entscheiden müssen. Doch nach welchen Regeln soll das geschehen? Die Diskussion dazu hat gerade erst begonnen.“ Zu Wort kommen u.a. Daimler-Chef Dieter Zetsche und Maschinenethiker Oliver Bendel. Zetsche „forderte erst kürzlich eine ethische Debatte über Roboterautos und die branchenübergreifende Suche nach einem geeigneten Entscheidungs-Algorithmus“. Bendel ist skeptischer und schlägt vor, die Maschinen in komplexen Situationen, in denen das Weiterleben von Menschen auf dem Spiel steht, nicht selbstständig entscheiden zu lassen. Zudem will er die autonomen Autos in festgelegte Bereiche verbannen. Sven Hötitzsch, Experte für Roboterrecht, beantwortet die Schuldfrage im juristischen Sinne. Der Artikel kann hier abgerufen werden.

Train

Abb.: Immer wieder bemüht wird das Trolley-Problem

Wen soll das Roboterauto überfahren?

„Wen soll das autonome Auto lieber überfahren?“ Diesen Titel trägt ein Artikel, der am 14. September 2015 in der Online-Version der WELT erschienen ist; eine gedruckte Version folgte am 21. September. Interviewt wurden Eric Hilgendorf, Juraprofessor an der Universität Würzburg, und Oliver Bendel, Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik an der Hochschule für Wirtschaft FHNW. Auch Politiker werden zitiert: „In rund drei Jahren werden 80 Prozent aller Neuwagen in Deutschland miteinander vernetzt sein“, sage Verkehrsminister Alexander Dobrindt voraus. „Dann können die Autos erkennen, wo andere Fahrzeuge sind, wie weit weg, wie schnell. Sie können Informationen von diesen über den Straßenzustand, die Verkehrsdichte, die Witterungsverhältnisse bekommen.“ (WELT, 14. September 2015) Oliver Bendel konzipiert moralische Maschinen, ist aber skeptisch in Bezug auf komplexe moralische Maschinen, also auch in Bezug auf autonome Autos, die in offenen Welten eine Vielzahl von Entscheidungen – manche mit moralischen Implikationen – treffen müssen. Er ist der Meinung, dass sich gewisse Dilemmata nicht in befriedigender Weise lösen lassen.

Abb.: Was macht man, damit das Auto nicht vom rechten Weg abkommt?

Die Sexroboter kommen (oder auch nicht)

„Ethiker haben“, so meldet es wired.de, „eine Kampagne gegen Sexroboter gestartet“ (wired.de, 16. September 2015). Das Ziel sei, die Entwicklung der Androiden zu verbieten. „Die Gründer der Kampagne befürchten, dass der Umgang mit Sexrobotern menschlichen Beziehungen schadet und eine Sichtweise stärkt, die Frauen und Kinder zu Sexobjekten herabwürdigt.“ (wired.de, 16. September 2015) Diese Aussagen werden einige Experten aus verschiedenen Gründen irritieren. Zunächst einmal gibt es nur wenige Sexroboter. Die menschenartige Roxxxy ist bekannt, neben der einen oder anderen handlichen Variante. Die Akzeptanz ist derzeit gering, und das dürfte sich so schnell auch nicht ändern. Es gibt also, so könnte man einwenden, kein eigentliches Problem. Weiter wird unterstellt, dass die Entwicklung der Roboter in nur einer Richtung stattfindet, dass vor allem das weibliche Geschlecht und die kindliche Unschuld angegriffen werden. Das muss aber nicht sein und ist vom Markt, von der Moral und von anderen Faktoren abhängig. Nicht zuletzt kann man die Roboter auch als moralische Maschinen gestalten, was die Maschinenethik untersucht. Vorschläge dazu unterbreitet der Buchbeitrag „Surgical, Therapeutic, Nursing and Sex Robots in Machine and Information Ethics“ von Oliver Bendel im Herausgeberband „Machine Medical Ethics“ – außerdem sein Artikel „Reflections on the Development and the Design of Medical and Care Robots“ (über gbs-schweiz.org/blog/development-design-medical-care-robots/). Kathleen Richardson und Erik Billing vergleichen ihr Vorgehen mit den Kampagnen, „die sich gegen die Produktion von Killerrobotern wenden“ (wired.de, 16. September 2015). Damit man diese Roboterarten in einen Topf werfen kann, muss man wohl die Rede von den Waffen einer Frau oder eines Manns, seien diese fleischlich oder künstlich, wörtlich nehmen.

womanrobot

Abb.: Sex mit und zwischen Robotern ist nicht weit verbreitet

Von Handygirl zum GOODBOT

Auf seiner Vortrags- und Lesereise vom 14. bis 16. September 2015 durch die Niederlande erzählte Oliver Bendel von seinen Handyromanen und -haikus und trug kurze Passagen aus seinen Werken vor, etwa aus „Handygirl“ (2009 – 2010). Handygirl ist ein Avatar und lebt auf dem Handy von Liza. Sie liest die SMS vor und ist eifersüchtig, wenn Liza über ihr Notebook chattet. Niemand ahnt, dass Handygirl eines Tages zur Superheldin wird. Am wenigsten Handygirl selbst. Doch eines Tages geschieht es: Als Liza in Gefahr gerät und fürchterliche Angst bekommt, steigt Handygirl aus dem Handy und rettet und tröstet sie. Sie wird eine Superheldin, vor allem aber ein Mensch; und für Augenblicke lebt sie wirklich. Handygirl war eine Inspiration für den GOODBOT, der 2013 an der Hochschule für Wirtschaft FHNW als Prototyp entwickelt wurde, und den Oliver Bendel am Ende der Veranstaltungen als moralische Maschine vorstellte. Stationen waren u.a. Universiteit Leiden, Universiteit Groningen und Universiteit Utrecht. Eingeladen haben den Wissenschaftler und Schriftsteller die Goethe-Institute Amsterdam und Rotterdam und die Deutsche Bibliothek in Den Haag. In der Reihe, an der schon Hans Magnus Enzensberger, Friedrich Christian Delius, Peter Stamm und Kathrin Passig mitgewirkt haben, ging es dieses Mal um die Digitalisierung der Literatur.

Moral für die Maschine

Der Hessische Rundfunk (hr2 Kultur) bringt am 20. September 2015 eine Sendung zum Thema „Moral für die Maschine – Ansätze einer Roboterethik“. Im Ankündigungstext auf der Website heißt es: „Die Roboter kommen. Aus dem Alltag werden sie bald nicht mehr wegzudenken sein. Roboter-Autos fahren, ohne dass ein Mensch am Steuer sitzt. Pflege-Roboter erinnern alte Menschen daran, regelmäßig zu trinken. Elektronische Plüschtiere geben Pflegebedürftigen Zuwendung und Nähe. Die Maschinen werden immer selbstständiger und intelligenter. Es dauert nicht mehr lange, bis Roboter eigenständig eine moralische Entscheidung fällen müssen. Je autonomer Roboter handeln können, desto dringender ist die Frage nach einer Ethik der Maschinen. An welchen Werten soll sich ein Roboter orientieren? Wie entscheidet das selbstfahrende Auto in einer Dilemmasituation? Inwiefern können emotionale Roboter den Menschen in der Pflege ersetzen? Philosophen und Ingenieure suchen nach Lösungen, den Maschinen moralische Vorstellungen einzuprogrammieren.“ (Website hr2 Kultur) Befragt hat Barbara Schneider u.a. den Maschinenethiker Oliver Bendel. Weitere Informationen über www.hr-online.de/website/radio/hr2/.

Abb.: Roboterfrau (oder Alienfrau?) mit oder ohne Moral

Sollen uns Roboter pflegen?

Unter diesem Titel ist am 9. September 2015 ein Artikel von Oliver Bendel in der Zeitschrift IT for Health erschienen. Operations-, Pflege- und Therapieroboter verbreiten sich immer mehr. Zwei Studierende an der Hochschule für Wirtschaft FHNW, Christine Fahlberg und David Wenger, haben in einem Forschungsbeitrag im Rahmen eines Masterstudiengangs untersucht, ob Patienten unter bestimmten Umständen lieber von Maschinen als von Menschen betreut und begleitet werden wollen. Tatsächlich scheint dies der Fall zu sein, wenn Privat- und Intimsphäre geschützt werden können, wenn man etwa vom Pflegeroboter im Intimbereich gewaschen wird. Als Gesprächspartner und Kontaktperson lehnt man diesen eher ab. Die Perspektive der Patienten wird in einschlägigen Studien selten eingenommen, und überhaupt sind Würde, Intim- und Privatsphäre sowie Datensicherheit kaum ein Thema, auch wenn es immer wieder ethische Betrachtungen gibt. Der Artikel fasst die Ergebnisse der beiden Masterstudierenden zusammen und kündigt weitere Untersuchungen an, bei denen auch die Maschinenethik eine Rolle spielen soll. Informationen zum Heft sind über www.netzmedien.ch/de-CH/medien-plattformen/itforhealth verfügbar. Eine Onlineversion ist in der Netzwoche über www.netzwoche.ch/de-CH/News/2015/09/10/E-Health-Prozesse-auf-dem-Operationstisch.aspx erschienen.

CareAbb.: Im Health Care geht es auch um moralische, sittliche und soziale Werte

Auch Maschinen brauchen Moral

Im Beitrag „Auch Maschinen brauchen Moral“ von Marlene Nowotny wird auf die Forschung von Matthias Scheutz, Professor für Cognitive and Computer Science und Direktor des Human-Robot Interaction Laboratory an der Tufts University in Massachusetts, eingegangen. „Je selbstständiger diese Maschinen in sozialen Kontexten agieren, desto besser müssen sie mit Konfliktsituationen umgehen können.“ (Website ORF, 1. September 2015) Scheutz arbeite „daran, Robotern genau diese Fähigkeit zu geben“. „Eine solche ethische Kontrollarchitektur für Roboter könnte auch bei selbstfahrenden Autos zum Einsatz kommen. Die entsprechende Robotertechnologie ist hier bereits vorhanden – die Fahrzeuge können u.a. einschätzen, ob der Fahrer vor ihnen risikoaffin ist oder nicht -[,] aber die selbstfahrenden Autos sind nicht in der Lage, in Krisensituationen Entscheidungen zu treffen.“ (Website ORF, 1. September 2015) Im Gegensatz zu Autos mit Notbremsassistenten – die Technik ist also teilweise verfügbar, an der Moral wird noch gefeilt. Interessant ist der Hinweis auf aktuelle Forschungsergebnisse von Scheutz: „In solchen Situationen ein Urteil zu bilden, ist kompliziert genug. Doch es kommt erschwerend hinzu, dass Menschen an Roboter höhere ethische Erwartungen haben als an ihre Mitmenschen.“ Der Beitrag ist am 1. September 2015 erschienen und kann über science.orf.at/stories/1762399/ abgerufen werden.

Tagung „Roboterethik“

Die Tagung „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“ findet am 24. November 2015 in Berlin statt. Veranstalter sind Daimler und Benz Stiftung sowie Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (ceres). Auf der Website heißt es: „Während der eintägigen Veranstaltung soll aus verschiedenen Blickwinkeln beleuchtet werden, wie autonome Systeme unser Leben und unsere Gesellschaft verändern und welche ethischen Spannungsfelder hierdurch in unterschiedlichen Lebensbereichen aufgeworfen werden bzw. zukünftig entstehen können. Neben Ausführungen zu Entwicklungsstand, Eigenschaften und Einsatzmöglichkeiten autonomer Systeme soll deren Einsatz in den Bereichen Gesundheit, Wirtschaft, Politik und Verkehrswesen insbesondere aus ethischer, philosophischer und sozialwissenschaftlicher Perspektive betrachtet werden.“ (Website ceres) Beiträge gibt es u.a. von Prof. Dr.-Ing. Alin Albu-Schäffer, Deutsches Zentrum für Luft- und Raumfahrt, Acting Head of the Institute of Robotics and Mechatronics, Prof. Dr. rer. nat. Jochen Steil, Universität Bielefeld, Managing Director Research Institute for Cognition and Robotics, und Prof. Dr. phil. Catrin Misselhorn, Universität Stuttgart, Direktorin des Instituts für Philosophie und Inhaberin des Lehrstuhls für Wissenschaftstheorie und Technikphilosophie. Prof. Dr. oec. Oliver Bendel, Maschinenethiker und Wirtschaftsinformatiker an der Hochschule für Wirtschaft FHNW, hält den Vortrag „Die Moral in der Maschine“. Weitere Informationen über ceres.uni-koeln.de.

Robotcar

Abb.: Ist das Roboterauto gut oder böse?

Tagung „Autonomes Fahren“

Die Daimler AG lädt zur Tagung „Autonomes Fahren“. Am 23. September 2015 widmet man sich in Frankfurt am Main sowohl Roboterautos als auch selbstständig fahrenden LKW. In der von Dr. Christine Hohmann-Dennhardt (Vorstand für Integrität und Recht der Daimler AG) unterschriebenen Information heißt es: „Wenn aber Autos in Zukunft autonom über unsere Straßen fahren sollen, dann müssen zuvor auch alle rechtlichen, ethischen und gesellschaftspolitischen Fragen beantwortet sein, die sich rund um die Thematik ergeben.“ Es referieren u.a. Prof. Dr. Sabine Gless von der Universität Basel (Ordinaria für Strafrecht und Strafprozessrecht) und Prof. Dr. Ferdinand Dudenhöffer (Automobilexperte). Vor allem aber ist die Politik präsent. Ein Vertreter der Maschinenethik fehlt; diese Lücke vermag die Fachtagung „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“ zu schließen, die am 24. November in Berlin stattfindet und die von der Daimler und Benz Stiftung und dem Cologne Center for Ethics, Rights, Economics, and Social Sciences of Health (ceres) getragen wird.

mercedes_skizze

Abb.: Wohin steuert Daimler?

Roboterautos und Ethik

Im Folgenden eine Zusammenstellung von Beiträgen zu Fahrerassistenzsystemen und autonomen Autos aus Sicht der Maschinenethik und der Ethik im Allgemeinen. Die meisten sind online verfügbar.

Baumann, Michael. Auto mit Moral. In: Schweiz am Sonntag, 17. Mai 2015. Auch als PDF verfügbar.

Bendel, Oliver. Alle Maschinen sind gleich. In: ICTkommunikation (Online-Ausgabe), 18. Mai 2015. Über https://ictk.ch/inhalt/alle-maschinen-sind-gleich.

Bendel, Oliver. Robot Cars from the Fifties. In: gbs-schweiz.org, 13. April 2015. Über http://gbs-schweiz.org.

Bendel, Oliver. Made in Switzerland: Smart Cars. In: UnternehmerZeitung, 5 (2015) 21. S. 34 – 35. Auch als PDF erhältlich.

Bendel, Oliver. Die Parkbucht des Karneades: Viereinhalb Dilemmata der Robotik. In: inside-it.ch, 17. März 2015. Über http://www.inside-it.ch/articles/39531.

Bendel, Oliver. Die Maschinenstürmer des Informationszeitalters. In: ICTkommunikation (Online-Ausgabe), 5. März 2015. Über https://ictk.ch/inhalt/die-maschinenst%C3%BCrmer-des-informationszeitalters.

Bendel, Oliver. Überlegungen zur Disziplin der Tier-Maschine-Interaktion. In: gbs-schweiz.org, 14. Februar 2015. Über http://gbs-schweiz.org/blog/ueberlegungen-zur-disziplin-der-tier-maschine-interaktion/.

Bendel, Oliver. Neun Thesen zu autonomen Autos. In: ICTkommunikation (Online-Ausgabe), 6. Februar 2015. Über https://ictk.ch/inhalt/neun-thesen-zu-autonomen-autos.

Bendel, Oliver. Selbstständig fahrende Autos. Beitrag für das Gabler Wirtschaftslexikon. Gabler/Springer, Wiesbaden 2015. Über http://wirtschaftslexikon.gabler.de/Definition/selbststaendig-fahrende-autos.html.

Bendel, Oliver. Advanced Driver Assistance Systems and Animals. In: Künstliche Intelligenz, Volume 28, Issue 4 (2014). S. 263 – 269.

Bendel, Oliver. Wirtschaftliche und technische Implikationen der Maschinenethik. In: Die Betriebswirtschaft, 4/2014. S. 237 – 248.

Bendel, Oliver. Towards Machine Ethics. In: Technology Assessment and Policy Areas of Great Transitions. 1st PACITA Project Conference, March 13 – 15, 2013. Prague, Czech Republic. S. 321 – 326. Auch als PDF erhältlich.

Bendel, Oliver. Für wen bremst das Roboterauto? In: Computerworld.ch, 16. Mai 2014. Über http://www.computerworld.ch/marktanalysen/studien-analysen/artikel/.

Bendel, Oliver. Fahrerassistenzsysteme aus ethischer Sicht. In: Zeitschrift für Verkehrssicherheit, 2/2014. S. 108 – 110.

Bendel, Oliver. Fahrerassistenzsystem. Beitrag für das Gabler Wirtschaftslexikon. Gabler/Springer, Wiesbaden 2014. Über http://wirtschaftslexikon.gabler.de/Definition/fahrerassistenzsystem.html.

Bendel, Oliver. Das Tier als Objekt der Moral der Maschine: Zum Verhältnis von Tier- und Maschinenethik. In: Telepolis, 2. Januar 2014. Über http://www.heise.de/tp/artikel/40/40684/.

Bendel, Oliver. Considerations about the Relationship between Animal and Machine Ethics. In: AI & SOCIETY, Dezember 2013 („Online-First“-Artikel auf SpringerLink).

Bendel, Oliver. Ich bremse auch für Tiere: Überlegungen zu einfachen moralischen Maschinen. In: inside-it.ch, 4. Dezember 2013. Über http://www.inside-it.ch/articles/34646.

Bendel, Oliver. Buridans Robot: Überlegungen zu maschinellen Dilemmata. In: Telepolis, 20. November 2013. Über http://www.heise.de/tp/artikel/40/40328/1.html.

Bendel, Oliver. Einfache moralische Maschinen. In: KMU Business World, 30. August 2013. Über http://www.kmu-businessworld.ch/de/content/einfache-moralische-maschinen.

Bendel, Oliver. Asimovs Automatobile: Selbstständig fahrende Autos in Fiktion und Realität und als Gegenstand der Maschinenethik. In: Telepolis, 27. August 2013. Über http://www.heise.de/tp/artikel/39/39728/1.html.

Bendel, Oliver. Über gute und böse Maschinen: Möglichkeiten und Grenzen der Maschinenethik. In: ICTkommunikation, 5/2013. S. 28 – 30. Auch als PDF erhältlich.

Bendel, Oliver. Die Moral der Maschinen: Überlegungen zur Maschinenethik. In: inside-it.ch, 24. Oktober 2012. Über http://www.inside-it.ch/articles/30517.

Bendel, Oliver. Maschinenethik. Beitrag für das Gabler Wirtschaftslexikon. Gabler/Springer, Wiesbaden 2012. Über http://wirtschaftslexikon.gabler.de/Definition/maschinenethik.html.

Beuth, Patrick. Wenn Software über Leben und Tod entscheidet. In: ZEIT ONLINE, 13. Mai 2014. Über http://www.zeit.de/digital/internet/2014-05/unfall-fahrerlose-autos-ethik.

Bröker, Jürgen. Wie viel Moral muss eine Maschine haben? In: Die Welt, 12. April 2015. Online über http://www.welt.de/sonderthemen.

Büchel, Stephanie. Wie viel Moral braucht eine Maschine? In: Liewo, 2. Juni 2013. S. 12. Auch als PDF erhältlich (mit freundlicher Genehmigung der Autorin).

Hevelke, Alexander; Nida-Rümelin, Julian. Responsibility for Crashes of Autonomous Vehicles: An Ethical Analysis. In: Science and Engineering Ethics, 11. Juni 2014.

Holzer, Holger. Das Autonomie-Dilemma: Wenn Maschinen über Menschenleben entscheiden. In: Focus, 28. Januar 2015. Über http://www.focus.de/auto/news/wenn-maschinen-ueber-menschenleben-entscheiden-das-autonomie-dilemma_id_4437354.html.

Kaeser, Eduard. Das „moralische“ Auto. In: NZZ.ch, 17. April 2014. Über http://www.nzz.ch/wissenschaft/uebersicht/das-moralische-auto-1.18284699.

Mertens, Frank. Kind oder Rentner: Für wen bremst das Roboterauto? In: Autogazette, 1. April 2015. Über http://www.autogazette.de/daimler/ethik/autonom/kind-oder-rentner-fuer-wen-bremst-das-roboterauto-512035.html.

Nüesch, Danja. Das Zähmen der Maschinen. In: Schweizer Radio und Fernsehen SRF, 17. November 2014. Über http://www.srf.ch/kultur/gesellschaft-religion/das-zaehmen-der-maschinen.

Rauch, Christian. Cloud am Steuer. In: GDI Impuls, 2/2014. S. 40 – 45. Auch als PDF erhältlich (mit freundlicher Genehmigung des Autors).

Thiel, Thomas. Fahren nach Zahlen. In: FAZ.NET, 2. August 2015. Über http://www.faz.net/aktuell/feuilleton/geisteswissenschaften/ethische-prinzipien-fuer-autonome-autos-13722800.html.