Programm der Tagung „Roboterethik“

Das Programm der Tagung „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“, veranstaltet von der Daimler und Benz Stiftung sowie vom Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (ceres), wurde Mitte Oktober 2015 fertiggestellt. Es steht auch über maschinenethik.net zum Download bereit. Während der eintägigen Veranstaltung in Berlin soll, wie ceres auf seiner Website schreibt, „aus verschiedenen Blickwinkeln beleuchtet werden, wie autonome Systeme unser Leben und unsere Gesellschaft verändern und welche ethischen Spannungsfelder hierdurch in unterschiedlichen Lebensbereichen aufgeworfen werden bzw. zukünftig entstehen können“ (Website ceres). Die Leitung der Tagung, die am 24. November 2015 ab 10 Uhr stattfindet, hat Prof. Dr. Christiane Woopen inne, die Referenten sind Prof. Dr.  Alin Albi Schäffer (Deutsches Zentrum für Luft- und Raumfahrt, Direktor des Instituts für Robotik and Mechatronik), Prof. Dr. Oliver Bendel (Fachhochschule Nordwestschweiz, Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik), Prof. Dr. Hartmut Hirsch-Kreinsen (Technische Universität Dortmund, früherer Inhaber des Lehrstuhls für Wirtschafts- und Industriesoziologie), Prof. Dr. Norbert Lammert (Präsident des Deutschen Bundestages), Prof. Dr. Catrin Misselhorn (Universität Stuttgart, Direktorin des Instituts für Philosophie), Prof. Dr. Jochen Steil (Universität Bielefeld, geschäftsführender Direktor des Instituts für Kognition und Robotik) und Prof. Dr. Johannes Weyer (Technische Universität Dortmund, Professor für Techniksoziologie). Die Eröffnungsrede hält Prof. Dr. Eckard Minx, Vorsitzender des Vorstands der Daimler und Benz Stiftung.

Abb.: Eine Skulptur in Berlin

Rolf Pfeifer und Ethik

In einem Artikel im Tages-Anzeiger von Lucie Machac (11. Oktober 2015) werden auch Maschinenethik und Roboterethik gestreift. Grundlage ist ein Interview mit Rolf Pfeifer. Als Erbauer definiere er für den Roboter auch ein Wertesystem. „Er meint damit nicht ethisch-moralische Werte.“ Maschinenethik treibt er demnach  nicht – wie ist es mit der Roboterethik, genauer gesagt mit dem Bereich, der nach Rechten von Maschinen fragt? Würde Pfeifer, wenn individuelle Fähigkeiten erworben wurden, den Stecker ziehen? „Zum jetzigen Zeitpunkt habe ich überhaupt keine Skrupel.“ Mit dieser Haltung ist der Robotiker nicht allein – die meisten Experten sehen keinerlei Anlass, Roboter jetzt oder in naher Zukunft wie Tiere oder Menschen zu behandeln. Dennoch wagt er einen Blick in die weitere Zukunft: „Aber stellen Sie sich vor, wenn uns Roboter einmal anflehen können, den Stecker bittebitte nicht zu ziehen  … Und vielleicht weinen sie dabei sogar. Was würden Sie dann tun?“ Die meisten Experten würden antworten: Erst recht den Stecker ziehen.

Kabel

Abb.: Wer zieht den Stecker, wer das Kabel?

Ein Cyborg aus Pflanze und Maschine

Cyborgs sind Verschmelzungen von Mensch und Maschine. Auch Tier oder Pflanze können als biologische Komponente dienen. Es geht in der praktischen Anwendung meist darum, den menschlichen Körper mit technischen Mitteln zu perfektionieren oder seine Schwächen auszugleichen. Eine Kakerlake kann als fremdgesteuerte Kreatur und Spionin dienen, was Informations-, Technik-, Roboter- und Tierethik kritisch reflektieren müssen. FLORABORG ist ein Versuch, die Pflanze selbst (und nicht ihr Umfeld) zu optimieren, damit sie z.B. gegen Trockenheit gewappnet ist. Hält diese eine Weile an, ist die Pflanze gestresst. Dies kann von einem Computer gemessen werden, etwa einem Smartphone. Die solarbetriebenen Fächer werden ausgefahren und dem Sonnenlicht entgegengestreckt. Es kann sich Kondenswasser bilden, das über die künstlichen und echten Blätter tropft, den Stengel hinunterrinnt und ins Erdreich eindringt, wo es von den Wurzeln aufgenommen wird. Hat sich die Pflanze erholt, verringert sich der Stress, und die Fächer können eingefahren werden. Nicht zuletzt vermögen die Fächer auch Schatten zu spenden. Welche Stellung ein Cyborg aus Pflanze und Maschine in der Maschinenethik hat, muss erst noch erforscht werden.

Abb.: Designstudie FLORABORG

Umweltfreundliche Roboterautos

An der Fachhochschule Nordwestschweiz FHNW untersucht ein Student seit Anfang Oktober 2015, ob Fahrerassistenzsysteme (FAS) und autonome Autos zur Verbesserung der Energieeffizienz, zur Ressourcenschonung und zum Umweltschutz beitragen können. FAS unterstützen den Lenker von Kraftfahrzeugen und übernehmen in bestimmten Fällen seine Aufgaben. Selbstständig fahrende oder autonome Autos bewegen sich als Prototypen durch die Städte und Landschaften, in den USA genauso wie in Europa und Asien. Im Projekt werden vorhandene umweltfreundliche Technologien betrachtet. Beispielsweise haben manche PKW eine Standby-Funktion, die sich vor Ampeln und in Staus aktivieren lässt. Es sollen aber auch neue Technologien für das Energiesparen, die Reduktion von Schadstoffemissionen, die Verkehrsoptimierung und -lenkung etc. vorgestellt und allenfalls vorgeschlagen werden. Auch LKW sollen einbezogen werden. Es wird bis Januar 2016 eine knappe Studie entstehen, die Möglichkeiten darstellt und diskutiert. In der Vertiefung Umwelt und Management im Studiengang Energie- und Umwelttechnik werden immer wieder hochaktuelle Fragestellungen definiert. Betreuer der Arbeit ist Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW.

beetle

Abb.: Können Roboterautos umweltfreundlich sein?

Formalisierung von Ethik

Einen Artikel über die Formalisierung von Ethik hat Caspar Österheld von der Universität Bremen in der Springer-Fachzeitschrift Synthese veröffentlicht. Der Titel lautet „Formalizing preference utilitarianism in physical world models“. Im Abstract heißt es: „Most ethical work is done at a low level of formality. This makes practical moral questions inaccessible to formal and natural sciences and can lead to misunderstandings in ethical discussion. In this paper, we use Bayesian inference to introduce a formalization of preference utilitarianism in physical world models, specifically cellular automata.“ Auch auf die Maschinenethik wird am Rande eingegangen: „Some formalization has … been conducted in the realm of machine ethics.“ Der Artikel ist über link.springer.com/article/10.1007/s11229-015-0883-1 erhältlich.

Poppen mit Pepper

Wie diverse Medien melden, warnt ein Roboterhersteller vor dem Sex mit seinem Produkt. In der Gebrauchsanweisung heiße es, Benutzer dürften keine sexuellen Handlungen an Pepper vornehmen. „Andernfalls drohten Strafen – welche genau, wird allerdings nicht erwähnt, ebensowenig wie geklärt wird, wie der Hersteller etwaige sexuelle Handlungen mit dem Humanoiden aufdecken will.“ (Neues Deutschland, 28. September 2015) In einem neuen Lexikon zu Informations- und Maschinenethik („300 Keywords Informationsethik“, Springer-Verlag, ab November 2015 erhältlich) wird zum Thema gesagt: „Robotersex, Sex mit und zwischen Robotern, ist ein Sujet von Science-Fiction-Büchern und -Filmen und – dort teilweise mit Hilfe von Avataren visualisiert – von Computerspielen. Auf dem Markt sind Sexroboter als handliches Spielzeug und (wie im Falle von Roxxxy) in Lebensgröße erhältlich.“ Mit Pepper hat Roxxxy nun ausgewachsene Konkurrenz bekommen, und es ist nur eine Frage der Zeit, bis der Volksmund den Namen anders ausspricht. Aus Sicht der Maschinenethik ist noch etwas interessant: „Ein Sprecher des Pepper-Vertreibers SoftBank erklärte, beispielsweise seien Manipulationen der Roboter-Software verboten, mit denen dem Gerät eine sexy Stimme verliehen werden könnte.“ Vorschläge zur Einordnung und Gestaltung von Sexrobotern unterbreitet der Buchbeitrag „Surgical, Therapeutic, Nursing and Sex Robots in Machine and Information Ethics“ von Oliver Bendel im Buch „Machine Medical Ethics“ – außerdem der Artikel „Reflections on the Development and the Design of Medical and Care Robots“ (über gbs-schweiz.org/blog/development-design-medical-care-robots/) vom selben Autor.

Chili

Abb.: Kein Pfeffer, aber scharf

Auto und Ethik bei der IAA in Frankfurt

Das große Thema der IAA war im September 2015 das autonome Auto. Das zeigte sich auch im „IAA Spot – Das offizielle Magazin“. Darin wurden nicht zuletzt Bezüge zur Maschinenethik hergestellt. Der Artikel von Holger Holzer mit dem Titel „Das Autonomie-Dilemma“ beginnt mit den Sätzen: „Unsere Autos werden mit zunehmender Autonomie künftig auch über Leben und Tod von Menschen entscheiden müssen. Doch nach welchen Regeln soll das geschehen? Die Diskussion dazu hat gerade erst begonnen.“ Zu Wort kommen u.a. Daimler-Chef Dieter Zetsche und Maschinenethiker Oliver Bendel. Zetsche „forderte erst kürzlich eine ethische Debatte über Roboterautos und die branchenübergreifende Suche nach einem geeigneten Entscheidungs-Algorithmus“. Bendel ist skeptischer und schlägt vor, die Maschinen in komplexen Situationen, in denen das Weiterleben von Menschen auf dem Spiel steht, nicht selbstständig entscheiden zu lassen. Zudem will er die autonomen Autos in festgelegte Bereiche verbannen. Sven Hötitzsch, Experte für Roboterrecht, beantwortet die Schuldfrage im juristischen Sinne. Der Artikel kann hier abgerufen werden.

Train

Abb.: Immer wieder bemüht wird das Trolley-Problem

Wen soll das Roboterauto überfahren?

„Wen soll das autonome Auto lieber überfahren?“ Diesen Titel trägt ein Artikel, der am 14. September 2015 in der Online-Version der WELT erschienen ist; eine gedruckte Version folgte am 21. September. Interviewt wurden Eric Hilgendorf, Juraprofessor an der Universität Würzburg, und Oliver Bendel, Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik an der Hochschule für Wirtschaft FHNW. Auch Politiker werden zitiert: „In rund drei Jahren werden 80 Prozent aller Neuwagen in Deutschland miteinander vernetzt sein“, sage Verkehrsminister Alexander Dobrindt voraus. „Dann können die Autos erkennen, wo andere Fahrzeuge sind, wie weit weg, wie schnell. Sie können Informationen von diesen über den Straßenzustand, die Verkehrsdichte, die Witterungsverhältnisse bekommen.“ (WELT, 14. September 2015) Oliver Bendel konzipiert moralische Maschinen, ist aber skeptisch in Bezug auf komplexe moralische Maschinen, also auch in Bezug auf autonome Autos, die in offenen Welten eine Vielzahl von Entscheidungen – manche mit moralischen Implikationen – treffen müssen. Er ist der Meinung, dass sich gewisse Dilemmata nicht in befriedigender Weise lösen lassen.

Abb.: Was macht man, damit das Auto nicht vom rechten Weg abkommt?

Die Sexroboter kommen (oder auch nicht)

„Ethiker haben“, so meldet es wired.de, „eine Kampagne gegen Sexroboter gestartet“ (wired.de, 16. September 2015). Das Ziel sei, die Entwicklung der Androiden zu verbieten. „Die Gründer der Kampagne befürchten, dass der Umgang mit Sexrobotern menschlichen Beziehungen schadet und eine Sichtweise stärkt, die Frauen und Kinder zu Sexobjekten herabwürdigt.“ (wired.de, 16. September 2015) Diese Aussagen werden einige Experten aus verschiedenen Gründen irritieren. Zunächst einmal gibt es nur wenige Sexroboter. Die menschenartige Roxxxy ist bekannt, neben der einen oder anderen handlichen Variante. Die Akzeptanz ist derzeit gering, und das dürfte sich so schnell auch nicht ändern. Es gibt also, so könnte man einwenden, kein eigentliches Problem. Weiter wird unterstellt, dass die Entwicklung der Roboter in nur einer Richtung stattfindet, dass vor allem das weibliche Geschlecht und die kindliche Unschuld angegriffen werden. Das muss aber nicht sein und ist vom Markt, von der Moral und von anderen Faktoren abhängig. Nicht zuletzt kann man die Roboter auch als moralische Maschinen gestalten, was die Maschinenethik untersucht. Vorschläge dazu unterbreitet der Buchbeitrag „Surgical, Therapeutic, Nursing and Sex Robots in Machine and Information Ethics“ von Oliver Bendel im Herausgeberband „Machine Medical Ethics“ – außerdem sein Artikel „Reflections on the Development and the Design of Medical and Care Robots“ (über gbs-schweiz.org/blog/development-design-medical-care-robots/). Kathleen Richardson und Erik Billing vergleichen ihr Vorgehen mit den Kampagnen, „die sich gegen die Produktion von Killerrobotern wenden“ (wired.de, 16. September 2015). Damit man diese Roboterarten in einen Topf werfen kann, muss man wohl die Rede von den Waffen einer Frau oder eines Manns, seien diese fleischlich oder künstlich, wörtlich nehmen.

womanrobot

Abb.: Sex mit und zwischen Robotern ist nicht weit verbreitet

Von Handygirl zum GOODBOT

Auf seiner Vortrags- und Lesereise vom 14. bis 16. September 2015 durch die Niederlande erzählte Oliver Bendel von seinen Handyromanen und -haikus und trug kurze Passagen aus seinen Werken vor, etwa aus „Handygirl“ (2009 – 2010). Handygirl ist ein Avatar und lebt auf dem Handy von Liza. Sie liest die SMS vor und ist eifersüchtig, wenn Liza über ihr Notebook chattet. Niemand ahnt, dass Handygirl eines Tages zur Superheldin wird. Am wenigsten Handygirl selbst. Doch eines Tages geschieht es: Als Liza in Gefahr gerät und fürchterliche Angst bekommt, steigt Handygirl aus dem Handy und rettet und tröstet sie. Sie wird eine Superheldin, vor allem aber ein Mensch; und für Augenblicke lebt sie wirklich. Handygirl war eine Inspiration für den GOODBOT, der 2013 an der Hochschule für Wirtschaft FHNW als Prototyp entwickelt wurde, und den Oliver Bendel am Ende der Veranstaltungen als moralische Maschine vorstellte. Stationen waren u.a. Universiteit Leiden, Universiteit Groningen und Universiteit Utrecht. Eingeladen haben den Wissenschaftler und Schriftsteller die Goethe-Institute Amsterdam und Rotterdam und die Deutsche Bibliothek in Den Haag. In der Reihe, an der schon Hans Magnus Enzensberger, Friedrich Christian Delius, Peter Stamm und Kathrin Passig mitgewirkt haben, ging es dieses Mal um die Digitalisierung der Literatur.

Moral für die Maschine

Der Hessische Rundfunk (hr2 Kultur) bringt am 20. September 2015 eine Sendung zum Thema „Moral für die Maschine – Ansätze einer Roboterethik“. Im Ankündigungstext auf der Website heißt es: „Die Roboter kommen. Aus dem Alltag werden sie bald nicht mehr wegzudenken sein. Roboter-Autos fahren, ohne dass ein Mensch am Steuer sitzt. Pflege-Roboter erinnern alte Menschen daran, regelmäßig zu trinken. Elektronische Plüschtiere geben Pflegebedürftigen Zuwendung und Nähe. Die Maschinen werden immer selbstständiger und intelligenter. Es dauert nicht mehr lange, bis Roboter eigenständig eine moralische Entscheidung fällen müssen. Je autonomer Roboter handeln können, desto dringender ist die Frage nach einer Ethik der Maschinen. An welchen Werten soll sich ein Roboter orientieren? Wie entscheidet das selbstfahrende Auto in einer Dilemmasituation? Inwiefern können emotionale Roboter den Menschen in der Pflege ersetzen? Philosophen und Ingenieure suchen nach Lösungen, den Maschinen moralische Vorstellungen einzuprogrammieren.“ (Website hr2 Kultur) Befragt hat Barbara Schneider u.a. den Maschinenethiker Oliver Bendel. Weitere Informationen über www.hr-online.de/website/radio/hr2/.

Abb.: Roboterfrau (oder Alienfrau?) mit oder ohne Moral

Sollen uns Roboter pflegen?

Unter diesem Titel ist am 9. September 2015 ein Artikel von Oliver Bendel in der Zeitschrift IT for Health erschienen. Operations-, Pflege- und Therapieroboter verbreiten sich immer mehr. Zwei Studierende an der Hochschule für Wirtschaft FHNW, Christine Fahlberg und David Wenger, haben in einem Forschungsbeitrag im Rahmen eines Masterstudiengangs untersucht, ob Patienten unter bestimmten Umständen lieber von Maschinen als von Menschen betreut und begleitet werden wollen. Tatsächlich scheint dies der Fall zu sein, wenn Privat- und Intimsphäre geschützt werden können, wenn man etwa vom Pflegeroboter im Intimbereich gewaschen wird. Als Gesprächspartner und Kontaktperson lehnt man diesen eher ab. Die Perspektive der Patienten wird in einschlägigen Studien selten eingenommen, und überhaupt sind Würde, Intim- und Privatsphäre sowie Datensicherheit kaum ein Thema, auch wenn es immer wieder ethische Betrachtungen gibt. Der Artikel fasst die Ergebnisse der beiden Masterstudierenden zusammen und kündigt weitere Untersuchungen an, bei denen auch die Maschinenethik eine Rolle spielen soll. Informationen zum Heft sind über www.netzmedien.ch/de-CH/medien-plattformen/itforhealth verfügbar. Eine Onlineversion ist in der Netzwoche über www.netzwoche.ch/de-CH/News/2015/09/10/E-Health-Prozesse-auf-dem-Operationstisch.aspx erschienen.

CareAbb.: Im Health Care geht es auch um moralische, sittliche und soziale Werte

Auch Maschinen brauchen Moral

Im Beitrag „Auch Maschinen brauchen Moral“ von Marlene Nowotny wird auf die Forschung von Matthias Scheutz, Professor für Cognitive and Computer Science und Direktor des Human-Robot Interaction Laboratory an der Tufts University in Massachusetts, eingegangen. „Je selbstständiger diese Maschinen in sozialen Kontexten agieren, desto besser müssen sie mit Konfliktsituationen umgehen können.“ (Website ORF, 1. September 2015) Scheutz arbeite „daran, Robotern genau diese Fähigkeit zu geben“. „Eine solche ethische Kontrollarchitektur für Roboter könnte auch bei selbstfahrenden Autos zum Einsatz kommen. Die entsprechende Robotertechnologie ist hier bereits vorhanden – die Fahrzeuge können u.a. einschätzen, ob der Fahrer vor ihnen risikoaffin ist oder nicht -[,] aber die selbstfahrenden Autos sind nicht in der Lage, in Krisensituationen Entscheidungen zu treffen.“ (Website ORF, 1. September 2015) Im Gegensatz zu Autos mit Notbremsassistenten – die Technik ist also teilweise verfügbar, an der Moral wird noch gefeilt. Interessant ist der Hinweis auf aktuelle Forschungsergebnisse von Scheutz: „In solchen Situationen ein Urteil zu bilden, ist kompliziert genug. Doch es kommt erschwerend hinzu, dass Menschen an Roboter höhere ethische Erwartungen haben als an ihre Mitmenschen.“ Der Beitrag ist am 1. September 2015 erschienen und kann über science.orf.at/stories/1762399/ abgerufen werden.

Asimov für Autos

In seinem Artikel „Asimowsche Regeln für den Asphaltdschungel: Autonome Fahrzeuge werfen grundlegende ethische Fragen auf“ lässt Hans-Arthur Marsiske verschiedene Experten zu Wort kommen. Der Maschinenethiker Oliver Bendel, Hochschule für Wirtschaft FHNW, schätzt moralische Maschinen, konzipiert sie auch selbst, ist aber der Meinung, dass sie bestimmte Entscheidungen nicht übernehmen sollten, etwa über Leben und Tod von Menschen im Straßenverkehr. Patrick Lin, Philosoph an der California Polytechnic State University, ist der Ansicht, „dass autonome Fahrzeuge bei einem unvermeidlichen Zusammenstoß in der Lage sein sollten, die Kollision zu optimieren, also so zu reagieren, dass der Schaden möglichst gering ausfällt“. Er bezieht Menschen ausdrücklich mit ein; die Maschine wird also darüber urteilen, wer überleben darf und wer sterben muss. Der Jurist Eric Hilgendorf befürchtet grundsätzlich, „dass autonome Fahrzeuge das deutsche Rechtsverständnis unter Druck setzen könnten, da es schwieriger zu programmieren sei als das angelsächsische“. Sowohl Lin als auch Bendel plädieren für eine breite gesellschaftliche Diskussion. Der Beitrag ist am 28. August 2015 im Onlinemagazin Telepolis erschienen und kann über www.heise.de/tp/artikel/45/45810/1.html abgerufen werden. Einen ähnlichen Artikel des selben Autors hat die Zeitung Neues Deutschland am Tag darauf abgedruckt: „Das moralische Auto: Lässt sich die Steuerung autonomer Fahrzeuge so programmieren, dass sie menschlichen Verhaltensregeln folgen?“, verfügbar über www.pressreader.com.

Bully

Abb.: Da war die Welt noch in Ordnung

Tagung „Roboterethik“

Die Tagung „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“ findet am 24. November 2015 in Berlin statt. Veranstalter sind Daimler und Benz Stiftung sowie Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (ceres). Auf der Website heißt es: „Während der eintägigen Veranstaltung soll aus verschiedenen Blickwinkeln beleuchtet werden, wie autonome Systeme unser Leben und unsere Gesellschaft verändern und welche ethischen Spannungsfelder hierdurch in unterschiedlichen Lebensbereichen aufgeworfen werden bzw. zukünftig entstehen können. Neben Ausführungen zu Entwicklungsstand, Eigenschaften und Einsatzmöglichkeiten autonomer Systeme soll deren Einsatz in den Bereichen Gesundheit, Wirtschaft, Politik und Verkehrswesen insbesondere aus ethischer, philosophischer und sozialwissenschaftlicher Perspektive betrachtet werden.“ (Website ceres) Beiträge gibt es u.a. von Prof. Dr.-Ing. Alin Albu-Schäffer, Deutsches Zentrum für Luft- und Raumfahrt, Acting Head of the Institute of Robotics and Mechatronics, Prof. Dr. rer. nat. Jochen Steil, Universität Bielefeld, Managing Director Research Institute for Cognition and Robotics, und Prof. Dr. phil. Catrin Misselhorn, Universität Stuttgart, Direktorin des Instituts für Philosophie und Inhaberin des Lehrstuhls für Wissenschaftstheorie und Technikphilosophie. Prof. Dr. oec. Oliver Bendel, Maschinenethiker und Wirtschaftsinformatiker an der Hochschule für Wirtschaft FHNW, hält den Vortrag „Die Moral in der Maschine“. Weitere Informationen über ceres.uni-koeln.de.

Robotcar

Abb.: Ist das Roboterauto gut oder böse?

Selfie von Curiosity

Curiosity hat wieder einmal ein Selfie geschossen. Spiegel Online meldet: „Wie von einem ausgestreckten Arm aus fotografiert, machte der Forschungsroboter ein Selbstporträt, das ihn aus einem ungewöhnlichen Blickwinkel zeigt.“ (SPON, 22. August 2015) Man könne der Maschine erstmals unter den Bauch schauen. „Das Bild ist so detailliert, dass sogar ein kleiner Stein erkennbar ist, der sich in einem der mittleren Räder verfangen hat.“ (SPON, 22. August 2015) Oliver Bendel hat schon mehrfach über Roboselfies (auch Robot Selfies genannt) geschrieben. Weltraumroboter sind in der Ferne unterwegs, sie sind allein, um nicht zu sagen einsam, und was liegt näher, als ein Foto von sich selbst zu knipsen und es an die daheimgebliebenen Kohlenstoffeinheiten zu schicken. Der eigentliche Zweck ist natürlich, den Ingenieuren zu zeigen, ob die Instrumente und Apparate in Ordnung sind, ob die Haut eine Beschädigung oder eine Veränderung aufweist. Oder ob ein Fremdkörper die Funktionen beeinträchtigt. Bei Curiosity, dem Mars-Rover, kann man wohl aufatmen: Ein kleiner Stein ist auch in jenen Gefilden nur ein kleiner Stein. Der letzte Artikel von Oliver Bendel zu Roboselfies ist am 1. Februar 2015 in Telepolis erschienen und kann über www.heise.de/tp/artikel/43/43793/1.html aufgerufen werden. Davor wurde „Robot selfies, and the road to self-recognition“ (Robohub, 9. Juni 2014) publiziert (über robohub.org/robot-selfies-and-the-road-to-self-recognition/).