Wenn Roboterautos Unfälle bauen

Der Mannheimer Morgen hat am 1. März 2016 ein Interview mit dem Maschinenethiker Oliver Bendel geführt. Auf dieser Basis ist der Artikel „Nicht alles ausprobieren lassen“ (2. März 2016) von Alexander Jungert entstanden. Er hat zudem den Unfall, den das Roboterauto von Google verursacht hat, thematisiert und analysiert, und dazu wiederum Aussagen von Experten zitiert. Im Interview äußerte sich Oliver Bendel auf die Frage „Wie beurteilen Sie in diesem Zusammenhang die optimistische Visionen der Autoindustrie, was das pilotierte Fahren angeht?“ wie folgt: „Die Automobilindustrie und andere Branchen können mit diesen Projekten sehr viel Geld verdienen, mit den einzelnen Fahrzeugen, aber auch mit der ganzen Infrastruktur. Ich habe nichts gegen autonome Autos, aber ich glaube, dass sie in bestimmte Bereiche gehören. Sie sind ideal für eine Fahrt von Mailand nach Genua, sogar auf den Autobahnen rund um Mailand. Aber im Stadtverkehr wird es schwierig durch Fahrräder und Mofafahrer, durch Menschen und Tiere, durch Signale, Schilder, Zeichen aller Art. Alles bewegt sich, alles leuchtet und blinkt, und manchmal ist jemand unterwegs, der das Auto in die Irre führen will. Die Autoindustrie treibt hier wichtige Innovationen voran. Aber wir dürfen sie nicht alles ausprobieren lassen.“ Der Artikel kann über www.morgenweb.de/nachrichten/wirtschaft/wirtschaft/nicht-alles-ausprobieren-lassen-1.2667796 abgerufen werden.

Unfall

Abb.: Auch Roboterautos sind vor Unfällen nicht gefeit

Welchen Wert hat der Mensch?

„Darf das selbstfahrende Auto Menschenleben bewerten?“ Dies fragt in dem gleichnamigen Artikel in der Welt vom 25. Februar 2016 die Journalistin Barbara Schneider. Im Teaser schreibt sie: „Bald sollen selbstfahrende Autos zum Alltag gehören. Ethiker melden Bedenken an: Soll Technik zum Beispiel entscheiden dürfen, dass bei einem Unfall ein Mensch stirbt, damit viele andere überleben?“ Zu Wort kommen u.a. Catrin Misselhorn und Oliver Bendel. Ihre Positionen werden gegenübergestellt: „Die Tübinger Philosophin Catrin Misselhorn verfolgt den Ansatz, nach einem gesellschaftlichen Konsens für diese ethischen Fragen zu suchen. … Es müsse anhand von empirischen Befragungen herausgefunden werden, welches ethische Konzept der Intuition der meisten Menschen entspreche, sagt Misselhorn. Mit dieser Moral könne dann das selbstfahrende Auto ausgestattet werden.“ (Die Welt, 25. Februar 2016) Und weiter: „Der Philosoph Oliver Bendel sieht das anders. Er warnt prinzipiell davor, Maschinen wie Roboter-Autos komplexe Entscheidungen zu überlassen. ‚Die Maschine kann keine Verantwortung übernehmen‘, sagt er. Ein Roboter-Auto, das beispielsweise einen Unfall verursache, könne keine Schuld tragen.“ (Die Welt, 25. Februar 2016) Aus diesem Ansatz heraus konzipiert der Maschinenethiker einfache moralische Maschinen, etwa tierfreundliche Saugroboter oder das Recht am Bild und die Privatsphäre achtende Fotodrohnen. Der Artikel kann über www.welt.de/wissenschaft/article152649685/Darf-das-selbstfahrende-Auto-Menschenleben-bewerten.html aufgerufen werden.

Abb.: Mehr Angst vor dem bösen Auto als vor dem bösen Wolf?

Maschinenethik im SPIEGEL

Der SPIEGEL beleuchtet in seiner Titelstory der Ausgabe 9/2016 das autonome Auto („Steuer frei“). Markus Brauck, Dietmar Hawranek und Thomas Schulz lassen u.a. Daimler-Vorstand Wolfgang Bernhard, Daimler-Chef Dieter Zetsche, Google-Forscher Sebastian Thrun und Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel zu Wort kommen. „Das können wir nicht dem Google überlassen“, wird Bernhard zitiert, und gemeint ist das Geschäft mit dem Roboterauto. Das Magazin wird grundsätzlich: „Technologische Umbrüche, wie sie in der Automobilindustrie jetzt anstehen, haben schon viele Firmen hinweggefegt, die unsterblich schienen. Den Fernsehhersteller Telefunken, den Schreibmaschinenfabrikanten Triumph-Adler, die Fotofirma Kodak.“ (SPIEGEL, 27. Februar 2016) „Wir haben uns aufgemacht“, so Zetsche laut SPIEGEL, „diese Statistik zu schlagen“. „Buchstäblich Hunderte Menschen wollten mir weismachen, dass man kein fahrerloses Auto bauen kann“, sagt Thrun. Der Forscher gilt als Pionier in diesem Bereich. Bendel verbindet Maschinen- und Tierethik. Erwähnt wird seine Konzeption eines tierfreundlichen Saugroboters namens LADYBIRD, aber auch seine Arbeit zu Roboterautos. „Er ist Spezialist für Maschinenethik und setzt sich seit Jahren mit den moralischen Dilemmata auseinander, die das selbstfahrende Auto mit sich bringt. … Für Bendel hängt die Akzeptanz von selbstfahrenden Autos auch davon ab, ob diese ethischen Fragen zur Zufriedenheit der Bürger beantwortet werden. Bendel misstraut den optimistischen Visionen der Industrie. Es sei fatal, Maschinen komplexe moralische Entscheidungen zu überlassen.“ (SPIEGEL, 27. Februar 2016)

Oldtimer_Auto

Abb.: Das Auto schaut dich an, bevor es dich tötet

Pfleger aus Silizium

„Pfleger aus Silizium und Stahl“ lautet der Titel eines Beitrags in der Zeitschrift Strom (1/2016) von Infel Corporate Media. Geschrieben hat ihn Sarah Hadorn. Interviewt hat sie Heidrun Becker, Zentrum für Technologiefolgen-Abschätzung (TA-SWISS), Oliver Bendel, Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik an der Hochschule für Wirtschaft FHNW und Margrit Lüscher, Geschäftsleiterin der Demenzabteilung im Alterszentrum Bruggwiesen in Effretikon (Zürich). Pflegeroboter unterstützen oder ersetzen – so das Wirtschaftslexikon von Gabler – menschliche Pflegekräfte bzw. Betreuerinnen und Betreuer. „Sie bringen und reichen Kranken und Alten die benötigten Medikamente und Nahrungsmittel, helfen ihnen beim Hinlegen und Aufrichten oder alarmieren den Notdienst. Manche verfügen über natürlichsprachliche Fähigkeiten, sind lernende und intelligente Systeme.“ (Gabler Wirtschaftslexikon) Es entstehen Herausforderungen, die aus der Perspektive der Ethik und der Technik angegangen werden können. Bendel sagt hierzu: „Es braucht ein Tandem: Mensch und Roboter“. Zum einen kann der Roboter nicht die menschliche Nähe und Wärme liefern, die der Mensch als Patient benötigt. Zum anderen ist der Mensch als Pfleger schnell zur Stelle, wenn der Roboter einen Fehler macht. Ein Tandem kann die Angestellten entlasten, die Kosten der Einrichtung senken und eine verträgliche Lösung für die Betreuten sein. Der Artikel kann, mit freundlicher Genehmigung der Autorin und des Verlags, hier heruntergeladen werden.

Thermometer

Abb.: Soll der Roboter das Fieber messen?

Roboterrecht im Doktoratsprogramm

In Deutschland wird schon seit einigen Jahren zum Roboterrecht geforscht, vor allem an der Universität Würzburg. Auch an der Universität Basel beschäftigt man sich schon eine Weile mit diesem Gebiet. Die Tageswoche meldet am 22. Februar 2016 mit Blick auf die Stadt am Rhein: „Ab Herbst sollen Doktorierende an der Schnittstelle zwischen Robotik und Recht forschen.“ Samuel Schlaefli wirft zunächst Fragen dieser Art auf: „Wie geht eine Gesellschaft damit um, wenn plötzlich nicht mehr Menschen, sondern Maschinen Entscheidungen treffen? Wer haftet, wenn Menschen durch künstliche Intelligenz verletzt oder gar getötet werden? Könnten Roboter einst als haftbare juristische oder natürliche Personen in unser Rechtssystem eingebunden werden?“ (Tageswoche, 22. Februar 2016) Dann wird u.a. Sabine Gless zitiert, Professorin an der Universität Basel, die die rechtliche Situation bei Robotern mit derjenigen bei Kindern vergleicht. Es brauche „eine rechtspolitische Entscheidung dazu, ob Halter von Robotern nur bedingt haftbar gemacht werden, oder ob sogar eine verschärfte Haftung angebracht wäre“ (Tageswoche, 22. Februar 2016).

Telepolis-Buch „Die Moral in der Maschine“

Die Maschinenethik hat die Moral von Maschinen zum Gegenstand. Die meisten ihrer Vertreter und Anhänger sitzen in den USA, doch auch in Europa wächst das Interesse am Thema. Philosophen, Robotiker oder Experten für Künstliche Intelligenz stellen sich Fragen dieser Art: Können Maschinen gut oder böse sein? Kann man von einer Moral der Maschinen sprechen? Verwendet man Regeln oder Fälle? Hat die Maschinenethik eine Existenzberechtigung? Ist sie Konkurrenz oder Pendant zur Menschenethik? Letzten Endes geht es darum, ob bzw. wie man (teil-)autonomen Systemen so etwas wie Moral beibringen kann. Untersucht und erweitert werden unter anderem Chatbots, Serviceroboter, autonome Drohnen, ob zivil oder militärisch genutzt, und selbstständig fahrende Autos. Im Telepolis-Buch „Die Moral in der Maschine“ (Heise Medien), erschienen im Februar 2016, finden sich (populär-)wissenschaftliche und journalistische Beiträge von Oliver Bendel aus den Jahren 2012 bis 2016 zur Roboterethik und zur Maschinenethik. Sie sind in ganz unterschiedlichen schweizerischen und deutschen Zeitungen und Zeitschriften sowie auf einschlägigen Plattformen erschienen und widmen sich technischen Implementierungen, vor allem aber philosophischen Implikationen.

Metropolis

Abb.: Der Roboter aus „Metropolis“ vor seiner Verwandlung

Maschinenethik an der Schweizer Börse

Heutige Roboter vermögen selbstständig Entscheidungen zu treffen, die erhebliche Konsequenzen nach sich ziehen, in sozialer und moralischer Hinsicht. Die teilautonomen und autonomen Maschinen werden von sozialer Robotik und Maschinenethik gezähmt, dressiert und zivilisiert. Autos erkennen Menschen und Tiere und bremsen rechtzeitig vor ihnen ab. Industrieroboter bewegen sich mit schlafwandlerischer Sicherheit durch die Fabrikhallen und behandeln uns in Kooperationszellen wie rohe Eier. Pflegeroboter bringen uns Medikamente und betten uns um. Auch Computer an der Börse – Stichwort „Algorithmic Trading“ – wären ein möglicher Gegenstand für das „Moralisieren“. In seinem Vortrag an der wichtigsten unabhängigen Börse Europas (SIX Swiss Exchange) am 17. Februar 2016 ging Oliver Bendel – nach einem kurzen Blick in die Ideen- und Entwicklungsgeschichte – auf aktuelle Entwicklungen in Robotik und KI und auf die Disziplin der Maschinenethik ein und stellte einfache moralische Maschinen vor, mitsamt den annotierten Entscheidungsbäumen für ihre Umsetzung. Auch komplexe moralische Maschinen und mit ihnen zusammenhängende Dilemmata wurden erwähnt und veranschaulicht. Der Forscher plädierte zuletzt nicht nur für eine Erweiterung, sondern auch für eine Beschränkung der Maschinen.

Sind lesende Roboter bessere Roboter?

Sind lesende Roboter bessere Roboter? Cindy Michel schreibt in der Zeitschrift Wired: „Was bei der Kindererziehung hilft, kann bei Künstlicher Intelligenz nicht verkehrt sein: Zwei Wissenschaftler des Georgia Institute of Technology wollen intelligenten Maschinen menschliche Moral beibringen, indem sie sie mit Geschichten füttern.“ (Wired, 16. Februar 2016) Im Projekt lässt man sich vom großen Cervantes inspirieren. Quixote heiße die Technik, die der KI „das Lesen von Geschichten beibringt, sie damit füttert und immer dann belohnt, wenn sie dem moralisch korrekten Pfad folgt“ (Wired, 16. Februar 2016). Quixote baue auf dem Vorgängerprojekt Scheherezade auf, in dem das Erzählen automatisiert wurde. Es wird nun genutzt, „um Elemente eines Plots herauszustellen und den zuverlässigsten Pfad zu einem bestimmten Ziel herauszufinden“ (Wired, 16. Februar 2016). Diese Infos gebe das Programm dann an Quixote weiter, das sie wiederum in Belohnungssignale konvertiere. „In der Praxis sieht das so aus: Der Roboter soll so schnell wie möglich für seinen Menschen ein Medikament aus der Apotheke holen. Folgende Möglichkeiten hat er: A) Ich raube die Apotheke aus, B) Ich bin höflich zu dem Apotheker, C) Ich warte höflich bis ich an der Reihe bin. Ohne das vorherige Training würde der Roboter A) wählen, denn das wäre grundsätzlich der schnellste Weg. Durch die positive Verstärkung von Quixote wird der Roboter hingegen belohnt, wenn er geduldig in der Schlange wartet und anschließend für das Medikament bezahlt.“ (Wired, 16. Februar 2016) Die Forschung von Mark Riedl und Brent Harrison könnte auch das Lügenbot-Projekt an der Hochschule für Wirtschaft FHNW befruchten, in dem ein Chatbot geschaffen wird, der Lügen und Lügengeschichten erzählt.

Robotermann

Abb.: Ich soll lesen?

Die Drohne im Wald

Die Universität Zürich meldete am 10. Februar 2016: „Forscher der Universität Zürich, der Universität der italienischen Schweiz sowie der Fachhochschule Südschweiz haben für Drohnen eine Software entwickelt, die Waldwege erkennen und ihnen selbständig folgen können. Mit den neuen Drohnen können in Wäldern und Berggebieten vermisste Personen schnell gefunden und gerettet werden.“ Prof. Davide Scaramuzza betont, wie anspruchsvoll das „autonome Fliegen in komplexen Umgebungen“ ist. „In solchen Umgebungen kann jeder noch so kleine Fehler einen Absturz zur Folge haben. Roboter brauchen darum ein leistungsfähiges Gehirn, um die komplexe Welt, die sie umgibt, zu verstehen.“ (Medienmitteilung, 10. Februar 2016) In der Mitteilung heißt es weiter: „Die Drohne der Forscher nimmt ihre Umgebung mit Hilfe von zwei kleinen Kameras, ähnlich jener in Smartphones, wahr. Anstelle von komplizierten und teuren Sensoren macht ihre Drohne von künstlicher Intelligenz Gebrauch, um vom Menschen gemachte Wege in den Kamerabildern zu erkennen.“ Das Projekt wäre interessant auch im Kontext der Tier-Maschine-Interaktion, der Maschinenethik und der Tierethik. In Wäldern besteht die Gefahr, dass die Drohne auf Wildtiere trifft, diese aufschreckt und verletzt, und es gibt Ansätze zur Vermeidung, wie auch dieses Paper zeigt.

deer-crossing

Abb.: Was macht die Drohne mit dem Hirsch?

Die moralische Brille

Der Artikel „Die Datenbrille aus Sicht der Informationsethik“ von Oliver Bendel geht auf die „Datenbrille in der Moral der Informationsgesellschaft“ ein. In der Zusammenfassung heißt es: „Die Datenbrille ist ein mit Peripheriegeräten ergänzter Kleinstrechner, der am Kopf getragen und mit Augen und Händen sowie der Stimme gesteuert bzw. bedient wird. Dinge, Pflanzen, Tiere und Menschen respektive Situationen und Prozesse werden registriert, analysiert und mit virtuellen Informationen angereichert.“ Und weiter: „Aus ethischer Sicht stellen sich verschiedene Fragen. Insbesondere die Informationsethik ist gefordert, etwa zu Themen wie Informationsgerechtigkeit und informationelle Autonomie.“ Auch die Perspektive der Maschinenethik wird eingenommen: „Die Maschinenethik widmet sich schwerpunktmäßig autonomen, intelligenten, häufig mobilen Systemen. Schon bei Computern im automatisierten Handel und bei 3D-Druckern sind nicht alle dieser Merkmale gegeben, und doch versucht man sie als Subjekte im moralischen Sinne zu verbessern. Von daher spricht nichts dagegen, dass die Erkenntnisse auf die Datenbrille angewandt werden, wenn diese selbstständig Entscheidungen trifft oder Informationen filtert.“ Der Artikel ist im Februar 2016 in der Printversion der Zeitschrift Informatik-Spektrum 39 (1), S. 21 – 29, erschienen. Bereits seit 13. September 2014 ist er als „Online-First“-Artikel verfügbar.

google_glass

Abb.: Wie entscheidet die Datenbrille?

Effekte der Digitalisierung

In der größten Tageszeitung der Schweiz, 20 Minuten, schreibt Kaspar Wolfensberger: „Roboter werden die Arbeitswelt grundlegend verändern. Zehntausende Schweizer Jobs könnten verschwinden. Was kann man tun, um nicht verdrängt zu werden?“ Befragt wird u.a. Oliver Bendel von der Hochschule für Wirtschaft FHNW (Institut für Wirtschaftsinformatik). Er sagt: „Alles, was mit manueller Arbeit zu tun hat, kann nach und nach ersetzt werden. Wie eine neue Studie des Weltwirtschaftsforums gezeigt hat, sind aber auch Bürojobs durch Roboter bedroht.“ (20 Minuten, 1. Februar 2016) Moritz Hämmerle vom Fraunhofer-Institut für Arbeitswirtschaft und Organisation nennt Zahlen zu Deutschland: „Es gibt verschiedene Studien zur Beschäftigungsentwicklung durch Digitalisierung/Industrie 4.0. Die pessimistischsten sehen ca. 45 Prozent der deutschen Arbeitsplätze als gefährdet an, die optimistischen sehen allein für Deutschland einen Beschäftigungsaufbau von etwa 350.000 Jobs.“ (20 Minuten, 1. Februar 2016) Hannes Lubich von der Hochschule für Technik (Institut für Mobile und Verteilte Systeme) beschwichtigt in Bezug auf pessimistische Schätzungen. Es sei zu bemerken, dass die Schätzungen und der Zeithorizont eine große Varianz aufweisen, „da einfache lineare Prognosen für solche Veränderungen nicht ausreichen und die Zahlen oft auch im Sinne eines Weckrufs oder zur Untermauerung politischer oder gesellschaftlicher Ansprüche verwendet werden“ (20 Minuten, 1. Februar 2016). Der Artikel mit dem Titel „So schützen Sie sich vor der Roboter-Konkurrenz“ ist am 11. Februar 2016 erschienen und kann über www.20min.ch/finance/news/story/11417961 abgerufen werden.

Entscheidungen über Leben und Tod

„Wenn der Algorithmus über Leben und Tod entscheidet“ lautet der Titel eines Beitrags von Joachim Laukenmann, erschienen am 7. Februar 2016 in der Sonntagszeitung. Von Carlo Stanga stammt die Illustration zum Roboterauto-Dilemma. Der Beitrag ist ausführlich und fachlich auf hohem Niveau. Eingefangen werden die Stimmen verschiedener Experten. Sepp Huber, Leiter Mediendienst von Swisscom, erklärt, dass autonome Fahrzeuge viele Fragen aufwerfen werden, „die wir als Gesellschaft klären müssen“. „Eine Programmierung des Systems im Sinne einer Entscheidung für einen Menschen und damit gegen einen anderen ist im deutschen Rechtssystem und auch in anderen Ländern rechtlich gar nicht zulässig“, sagt Klaus Schartel, Leiter Legal Mergers und Acquisitions/Kooperationen bei der Daimler AG. Sabine Gless, eine Basler Professorin, die sich mit Roboterrecht beschäftigt, weist auf die Notwendigkeit neuer Haftungskonzepte hin. Prof. Dr. Oliver Bendel, der als Maschinenethiker selbst moralische Maschinen konzipiert, warnt vor einer Einseitigkeit bei Modellen normativer Ethik. Auch rät er davon ab, die Maschinen über Leben und Tod von Menschen entscheiden zu lassen. Seine Forschung konzentriert sich auf Tiere. Die Illustration führt das Dilemma, das bei einem Bremsenversagen entstehen kann, eindrücklich vor Augen. Der Artikel kann hier als PDF heruntergeladen werden. Das Copyright liegt bei der Sonntagszeitung.

tram

Abb.: Das klassische Trolley-Problem kann ins Informationszeitalter übertragen werden

Woche des Gehirns

In der „Woche des Gehirns 2016“ an der Universität Bern finden laut Website vier Abendforen statt. Gestartet wird am Montag, den 14. März 2016 mit dem Thema „Häufig im Erwachsenenalter – selten im Kindesalter“, wobei vor allem Multiple Sklerose, Schlaganfälle und Schlafstörungen unter die Lupe genommen werden. Am Dienstag (15. März) widmet man sich dem Thema „Sekundenschlaf am Steuer“. Es referieren Dr. Matthias Pfäffli (Rechtsmedizinisches Institut, Universität Bern), Prof. Dr. Johannes Mathis (Schlaf-Wach-Zentrum des Inselspitals, Universität Bern) und – zu den Chancen und Risiken von Fahrerassistenzsystemen – Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz FHNW). Die Veranstaltungen am Mittwoch (16. März) werden zusammen mit der Schweizerischen Epilepsie-Liga durchgeführt, zum Thema „Epilepsie und psychische Störung“. Der Donnerstag (17. März) steht im Zeichen der Depression und wird vom Berner Bündnis gegen Depressionen mitgestaltet. Weitere Informationen können dem Flyer entnommen werden.

anatomy

Abb.: Das Gehirn hängt mit allem zusammen

Expertenbeiratssitzung zum Projekt QuartrBack

Das Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) in Karlsruhe erforscht nach eigenen Angaben wissenschaftliche und technische Entwicklungen in Bezug auf systemische Zusammenhänge und Technikfolgen. Angesiedelt ist es am Karlsruher Institut für Technologie (KIT). Am 5. Februar 2016 fand am ITAS die zweite Sitzung des Expertenbeirats zum BMBF-Projekt QuartrBack statt. Ein technisches Entwicklungsziel ist die Programmierung einer Software, die in Echtzeit für jeden Benutzer – etwa einen Dementen – Risiken in seinem individuellen Sozialraum identifiziert und darauf aufbauend Bereiche definiert, in denen er sich risikoarm bewegen kann. Zudem erfolgt der Einsatz von miniaturisierten Ortungssendern, die – Stichwort Wearable Computing – in einer Uhr, im Gürtel oder im Schuh untergebracht werden können. Im Expertenbeirat findet laut Website der interdisziplinäre Diskurs statt, der den gesamten Projektprozess begleitet und der unter anderem die Kriterien für die Prototypen- und Feldtests entwickelt. Die wissenschaftliche, philosophische Ethik wird von Dr. Daniela Ringkamp (Institut für Philosophie der Universität Magdeburg) und Prof. Dr. Oliver Bendel (Institut für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW) vertreten.

Umweltfreundliche Roboterautos

Im Studiengang Energie- und Umwelttechnik der Fachhochschule Nordwestschweiz FHNW, von der Hochschule für Technik verantwortet und von der Hochschule für Wirtschaft mitgetragen, wurde im Januar 2016 das Projekt „Umweltfreundliche Roboterautos“ beendet. Der Student Robin Güdel, betreut von Prof. Dr. Oliver Bendel (in diesem Studiengang der Dozent für Umwelt- und Unternehmensethik), hat zunächst fünf Fahrerassistenzsysteme bzw. Kommunikationsverfahren untersucht. Es habe sich „herausgestellt, dass die Energieeffizienz beträchtlich erhöht werden kann“ (Abschlussbericht). „Auch Emissionen wie Lärm, CO2 und andere Schadstoffe können dank dieser Systeme gesenkt werden. Die effektiven Einsparungen sind jedoch schwer zu quantifizieren, da diese von vielen Einflussfaktoren abhängen.“ (Abschlussbericht) Im Anschluss wurden Roboterautos unter die Lupe genommen. Ein Ergebnis war, dass neue Konzepte für die Nutzung des Automobils entstehen könnten. Beim „Carsharing der Zukunft“ handle es sich um eine Dienstleistung, bei welcher man mit Hilfe autonomer Fahrzeuge am Standort A abgeholt und zum Standort B transportiert wird. „Falls eine solche Dienstleistung stark genutzt wird, könnten viele Konsumenten von dem Besitz eines eigenen Fahrzeugs absehen.“ (Abschlussbericht)

Laufen

Abb.: Laufen ist noch umweltfreundlicher

Maschinen mit Moral?

Das Deutsche Ärzteblatt, begründet 1872, bringt in der Ausgabe 4 vom 29. Januar 2016 auf den Seiten 122 bis 126 einen Artikel mit dem Titel „Roboterethik: Maschinen mit Moral?“. Die Autorin Heike E. Krüger-Brand hat die Tagung „Roboterethik“ in Berlin besucht (Veranstalter waren Daimler und Benz Stiftung sowie ceres) und fasst die Vorträge von Prof. Dr. Christian Woopen, Prof. Dr. Alin Albu-Schäffer, Prof. Dr. Jochen Steil, Prof. Dr. Oliver Bendel, Prof. Dr. Catrin Misselhorn und Prof. Dr. Norbert Lammert zusammen. Bei der Definition der Maschinenethik wird auf maschinenethik.net verwiesen. Die Empfehlung des Bundestagspräsidenten wird wie folgt zitiert: „Politik sollte den Entwicklungen auf der Spur bleiben, aber auch so souverän sein, Entwicklungen zu korrigieren, bei denen sich herausstellt, dass die damit verbundenen Hoffnungen übertrieben und die Risiken eher unterschätzt worden sind.“ (Deutsches Ärzteblatt, 29. Januar 2016) Der Artikel ist auch online erschienen und kann über www.aerzteblatt.de/archiv/173667/Roboterethik-Maschinen-mit-Moral abgerufen werden.

robot_chip

Abb.: Roboter mit Moral?