Robots between the Devil and the Deep Blue Sea

„Robots between the Devil and the Deep Blue Sea“ lautet der Titel des Beitrags, der am 1. Dezember 2015 in der brasilianischen Zeitschrift Liinc em Revista erschienen ist. Oliver Bendel stellt klassische Dilemmata vor und überträgt sie ins Informationszeitalter. Insbesondere interessiert der Einsatz von Chatbots, Robotern, Drohnen und selbstständig fahrenden Autos, der immer wieder problembehaftet ist. Bei den Lösungsansätzen wird u.a. die Perspektive der Maschinenethik eingenommen. Es stellt sich heraus, dass klassische Dilemmata für die Herausforderungen der Gegenwart nützlich sind und dabei helfen, die Entscheidungsmöglichkeiten teilautonomer und autonomer Systeme zu diskutieren sowie Robotik, Künstliche Intelligenz und Informatik in dieser Frage zu sensibilisieren und ihre Ergebnisse und Erzeugnisse zu optimieren. Skizziert werden das „Roboterauto-Problem“, die „Parkbucht des Karneades“, „Buridans Robot“ und das „Lügenbot-Problem“. Der Beitrag kann über die Website der Zeitschrift kostenlos heruntergeladen werden.

Teufel

Abb.: Roboter können in Dilemmata geraten

Pflegeroboter und Schamgefühl

In „Forschung aktuell“ (Deutschlandfunk) wurde am 25. November 2015 der Beitrag „Die Moral der Maschinen“ gesendet. Volkart Wildermuth war am Vortag während der Berliner Konferenz „Roboterethik“ im Gespräch mit Prof. Dr. Jochen Steil, Prof. Dr. Catrin Misselhorn, Prof. Dr. Alin Albu-Schäffer und Prof. Dr. Oliver Bendel. Im Vorspann wird auf Roboter in der Science-Fiction eingegangen. Die Roboter der Wirklichkeit seien fleißig dabei, ihren Kollegen nachzueifern. Dabei würden sich aber moralische Herausforderungen ergeben. Catrin Misselhorn erzählt, dass es ihrer Großmutter nicht recht gewesen sei, wenn der Pflegedienst sie im Intimbereich gewaschen habe. „Ich könnte mir vorstellen, dass ihr in diesem Fall es recht gewesen wäre, wenn ein Roboter diese Tätigkeit übernommen hätte.“ In eine ähnliche Richtung weist eine Befragung, die von der Hochschule für Wirtschaft FHNW durchgeführt wurde. Zu Roboterautos stellt der Maschinenethiker Oliver Bendel fest: „Ich denke, der Mensch sollte bestimmte Entscheidungen selbst treffen, selbst wenn sie falsch sind.“ Für ihn sind dies Entscheidungen über Leben und Tod von Menschen, wie sie in Dilemmata diskutiert werden. Er schlägt grundsätzlich vor, den normalen Verkehr und den autonomen Verkehr soweit wie möglich voneinander zu trennen und Roboterautos zu beschränken. Fußgänger und Fahrradfahrer in Städten sollten sich nicht permanent auf autonome Autos einstellen und ihr Verhalten an diese anpassen müssen. Der Beitrag kann über www.deutschlandfunk.de/forschung-aktuell.675.de.html abgerufen werden.

Krankenschwester

Abb.: Beseitigt der Pflegeroboter das Schamgefühl?

Tödliche Entscheidungen

„Wie Roboter über Menschenleben entscheiden“ lautet der Titel eines Artikels von Katrin Haas, der am 25. November 2015 in der Rheinischen Post erschienen ist. Im Teaser wird gesagt: „Ob im Verkehr oder in der Pflege – überall könnten in Zukunft Roboter moralische, manchmal tödliche Entscheidungen treffen.“ „Ich rate von Maschinen ab, die über Leben und Tod entscheiden“, wird der Maschinenethiker Oliver Bendel (Hochschule für Wirtschaft FHNW) zitiert, und er „wirbt dafür, nur einfache moralische Maschinen zu entwickeln“. Seine Forschung konzentriert sich stark auf Begegnungen von Maschinen mit Tieren. Und in diesem Zusammenhang ist er dafür, möglichst viel Leben zu retten. Auch Catrin Misselhorn von der Universität Stuttgart wird zitiert. Auf die Frage, wie lange es noch dauert, „bis Roboter sich um Menschen kümmern“, antwortet sie: „Vor Kurzem hätte ich gesagt, bis das umgesetzt wird, dauert es noch. Aber jetzt im Moment erlebt die Branche einen großen Auftrieb durch die Diskussion um autonom fahrende Autos.“ Die Online-Version des Artikels kann über www.rp-online.de/wirtschaft/wie-roboter-ueber-menschenleben-entscheiden-aid-1.5584750 abgerufen werden.

Berliner Tagung zur Roboterethik

Eine hochkarätig besetzte Tagung zur Roboterethik fand am 24. November in Berlin statt. Eingeladen hatten Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (ceres) und Daimler und Benz Stiftung. Vor dem eigentlichen Programm mit Beginn um 10 Uhr wurde eine Pressekonferenz mit Prof. Dr. Eckard Minx, Prof. Dr. Christiane Woopen, Prof. Dr. Alin Albu-Schäffer und Prof. Dr. Oliver Bendel durchgeführt. Im Karl-Storz-Besucher- und Schulungszentrum begann dann der wissenschaftliche Marathon. Minx begrüßte und eröffnete, Woopen führte ein, nicht in ihrer Funktion als Vorsitzende des Ethikrats, sondern als Leiterin von ceres. Die Grundlagen autonomer Systeme erklärte Albu-Schäffer in seinem Vortrag „Autonomie und Kognition für menschzentrierte Robotik“. Mit „Autonome Systeme und die Selbstbestimmung des Menschen“ war der nächste Komplex betitelt. „Roboterlernen ohne Grenzen?“ von Prof. Dr. Jochen Steil schuf weitere Robotikgrundlagen. Dann ging es tief in die Maschinenethik. Bendel referierte über „Die Moral in der Maschine“, wobei er die Designstudien CLEANINGFISH und LADYBIRD und den Prototypen GOODBOT vorstellte, Prof. Dr. Catrin Misselhorn über „Maschinen mit Moral? Theoretische Grundlagen und eine Roadmap für autonome Assistenzsysteme in der Pflege“. Nach der Mittagspause waren Prof. Dr. Hartmut Hirsch-Kreinsen und Prof. Dr. Johannes Weyer an der Reihe. Prof. Dr. Norbert Lammert, Bundestagspräsident, sprach zur Rolle der Politik. Christiane Woopen rundete mit ihrem Schlusswort die Veranstaltung ab. Der Diskussionsbedarf war groß, die Nachfrage der Journalisten nach Interviews mit den Fachexperten ebenfalls. Gegen 17 Uhr ging eine ausgesprochen gelungene Veranstaltung zu Ende.

Abb.: Der Berliner Dom

Nachlese zum Workshop zur Maschinenethik

Im Saal war noch ein gut gelaunter Guildo Horn (Podiumsteilnehmer im Workshop „Wie schreibt man über Menschen mit Behinderungen?“), als die Referenten hereinkamen. Er begrüßte sie mit den Worten: „Jetzt kommen schon die Nächsten – hallo!“ Die Nächsten waren die Referenten des Workshops „Maschinenethik“, nämlich Oliver Bendel („Moral für Maschinen“) und Barbara Lenz („Autonome Autos“). Bendel von der Hochschule für Wirtschaft FHNW eröffnete in fachlicher Hinsicht den Workshop und führte in die derzeit wohl meistdiskutierte Disziplin ein – und gestand, dass ihm die ganze Zeit das Lied „Guildo hat euch lieb“ des von ihm sehr geschätzten Sängers und Aktivisten durch den Kopf gehe. Lenz vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) vertiefte mit dem derzeit wohl meistgenannten Anwendungsbeispiel. Abgesagt hatte Frank Sauer, Universität der Bundeswehr München („Autonome Waffen“). Über eine halbe Stunde erstreckte sich ein lebhaftes Frage-Antwort-Spiel mit dem Moderator Ralf Krauter vom Deutschlandfunk, der den Referenten auch noch die letzten Geheimnisse (die natürlich längst publiziert waren) entlockte. Wie programmiert man moralische Maschinen? Was spricht für regelbasierte, was für fallbasierte Ansätze? Wieviel Autonomie soll der Mensch behalten? Was will die Wirtschaft, was die Wissenschaft? Die anwesenden Journalistinnen und Journalisten geizten anschließend nicht mit Fragen. Im Konferenzhotel Maritim ging es insgesamt trubelig zu im Rahmen der Veranstaltung „Wissenswerte“. In den Workshops redete man sich die Köpfe heiß über „Multimediales Storytelling“, „Science und Fiction“ und „Big Data in der Medizin“. Im Messebereich präsentierten sich die Partnerorganisationen, u.a. die Max-Planck-Gesellschaft, die Fraunhofer-Gesellschaft, die Helmholtz-Gemeinschaft, die Leibniz-Gemeinschaft und der Stifterverband. Am frühen Abend war Dr. Franz Alt im Gespräch mit Lena Ganschow. Danach klang der Abend beim Essen im Friesenhof aus.

Das Auto mit Charakter

Kommt bald das Auto, das ein Charakter ist bzw. einen Charakter hat? Dieser Frage geht Oliver Bendel in einem Artikel nach, der am 16. November 2015 in der ICTkommunikation erschienen ist. Der Teaser beginnt mit den Worten: „Das Auto wird rundum und inwendig erneuert. Es weist immer mehr Sensoren und Aktoren und immer mehr Fahrerassistenzsysteme auf. Diese bieten nicht nur automatische, sondern auch autonome Funktionen: Sie entscheiden selbst in kritischen Situationen.“ Der autonome PKW sei als Prototyp unterwegs, zusammen mit seinem großen Bruder, dem autonomen LKW. „Wenn das Auto seinen eigenen Kopf bekommt, dann bestimmt auch bald einen speziellen Charakter.“ Dieser Charakter wird, so der Verfasser, im Wesentlichen als auditives Ein- und Ausgabegerät realisiert werden. Aber auch visuelle Elemente können vorhanden sein. Zuletzt hat die Automobilindustrie versucht, über Frontscheinwerfer, die gefährlich oder freundlich wirken, dem Auto eine Persönlichkeit zu verleihen. Frühe Individualisten (wenn auch tierischer Art) sind Ente und Käfer. Der Beitrag mit dem Titel „Ein Auto mit Charakter“, in dem auch die Maschinenethik als Gestaltungsdisziplin erwähnt wird, kann über ictk.ch/inhalt/ein-auto-mit-charakter aufgerufen werden.

Ente

Abb.: Ein Auto als Individualist

Sexroboter im Wirtschaftslexikon

Vor kurzem haben Ethiker zum Boykott von Sexrobotern aufgerufen. Dabei haben sie angenommen, dass diese Frauen und Kinder diskriminieren und die Entwicklung der Sexualität beeinträchtigen können. Anhaltspunkte dafür gibt es allerdings nicht, und überhaupt scheinen die Probleme in diesem Bereich marginal zu sein. Ein neuer Beitrag im Wirtschaftslexikon von Gabler von Oliver Bendel behandelt die Spielzeuge der etwas anderen Art in nüchterner Form und geht dem Phänomen des Robotersex auf den Grund. Er hebt an mit den Worten: „Sexroboter sind Roboter, mit denen Menschen bestimmte Formen von Sex haben können. In der Regel sind Hardwareroboter gemeint, physisch vorhandene Maschinen. Bei einem weiten Begriff können auch Softwareroboter hinzugezählt werden. Es gibt eine Palette von Produkten für den Hausgebrauch. Manche von ihnen werden für den Gesundheitsbereich in Betracht gezogen.“ Am Ende werden Fragen aus Maschinenethik sowie Technik- und Informationsethik heraus gestellt. Sicherlich könnte man auch die Medizinethik mit einbeziehen. Der Beitrag ist am 16. November 2015 erschienen und kann über wirtschaftslexikon.gabler.de aufgerufen werden.

Abb.: Bei Sexrobotern ist die Gestaltung entscheidend

Diskussionspapier zur Künstlichen Intelligenz

„Die Stiftung für Effektiven Altruismus (EAS; vormals GBS Schweiz) führte am heutigen Donnerstag eine Medienkonferenz zum Thema ‚Künstliche Intelligenz: Chancen und Risiken‘ durch. Anlass war das von der Stiftung verfasste politische Diskussionspapier …, das von drei der sechs Mitautoren im Technopark Zürich vorgestellt wurde.“ Dies meldet der Humanistische Pressedienst am 12. November 2015. Auf der zweiten Seite von „Künstliche Intelligenz: Chancen und Risiken“ steht geschrieben: „Wir bedanken uns bei all jenen, die uns bei der Recherche oder beim Verfassen des Diskussionspapiers behilflich waren. Besonders hervorzuheben sind hierbei Kaspar Etter und Massimo Mannino für ihre Ratschläge zum Aufbau des Papiers; Prof. Oliver Bendel für Anstöße zum Kapitel ‚Vorteile und Risiken gängiger KIs‘; und Prof. Jürgen Schmidhuber für Inputs zu den Kapiteln ‚Generelle Intelligenz und Superintelligenz‘ und ‚Künstliches Bewusstsein‘, sowie für seine Inputs zum aktuellen Forschungsstand verschiedener KI-Bereiche.“ Der Informations- und Maschinenethiker Oliver Bendel sieht sich nicht als Vertreter des effektiven Altruismus und lehnt auch Rechte für Roboter ab, die in dem Papier angedacht werden. Er begrüßt aber die Diskussion, die durch die Stiftung angestoßen wird, und findet die angestellten Überlegungen in hohem Maße interessant und wichtig. Das Diskussionspapier kann hier heruntergeladen werden.

KI

Abb.: Wohin dreht sich die KI?

Roboter mit Nasen

Beim Swiss ICT Symposium vom 10. bis 11. November 2015 gab es ein breites Spektrum von Vorträgen und Themen. Prof. Dr. Manfred Spitzer (Hirnforscher und Psychiater) und Sascha Lobo (SPON-Kolumnist) unterhielten als Keynoter das Publikum mit gewagten Thesen und anschaulichen Beispielen. Im gut besuchten Track „Internet der Dinge“ referierte Moritz Köhler (Director of Software Engineering, Sensirion AG). „IoT-Geräte und Mobiltelefone verschmelzen zusehends und ermöglichen völlig neue Anwendungen und Geschäftsmodelle.“ (www.swissict.ch) Was wird möglich, so fragte er sich, wenn Telefone immer mehr Kenntnis von ihrer Umwelt haben? Und lieferte „eine Einführung in die Sensorik in Mobiltelefonen und deren Bedeutung“. Smartphones, die Atem-, Stadt- und Raumluft analysieren können, lassen Behörden, Unternehmen und Privatleute aufhorchen. Auch Roboter mit Nasen werden für Staunen sorgen und nicht zuletzt bei der Tier-Maschine-Interaktion von Bedeutung sein. „Moralische Maschinen“ lautete der Titel des Vortrags von Prof. Dr. Oliver Bendel (Professor für Wirtschaftsinformatik und Ethik, Hochschule für Wirtschaft FHNW): „Autos bremsen rechtzeitig vor Menschen ab. Serviceroboter bringen Medikamente und sind nett zu uns. Manche Dinge, Roboter und (teil-)autonome Maschinen werden aber falsche oder interessengeleitete Entscheidungen treffen. Einfache moralische Maschinen könnten eine Lösung sein.“ (www.swissict.ch) Vielleicht entdeckt auch die Maschinenethik die Olfaktorik und lässt Roboter die Gerüche von Menschen analysieren und automatisch die dazu passenden Düfte ausströmen. Die Maschine wird insofern gut, als wir sie gut riechen können. Die Vortragsfolien stehen über www.swissict.ch zur Verfügung.

Tissues

Abb.: Brauchen Roboter bald Taschentücher?

Roboterautos in der Schweiz

Im Jahrbuch „Strassenverkehr Schweiz 2016“ geht es auch um Roboterautos. Die Wissenschaftsjournalistin Barbara Fischer hat im Technopark in Zürich den Maschinenethiker Oliver Bendel interviewt. Sie beginnt mit den Worten: „Autonome Fahrzeuge sind nichts Neues, bereits Kutschen haben so funktioniert. War der Kutscher betrunken oder eingeschlafen, blieben die Pferde vor einer Schlucht selbstständig stehen und warteten, bis der Kutscher die Steuerung wieder übernehmen konnte.“ Der Professor, der an der Hochschule für Wirtschaft FHNW arbeitet, meint: „Ein sehr schöner Vergleich. Im Grunde verfügen Kutschen über entsprechende Systeme. Das Pferd ist sozusagen der intelligente Antrieb und Fahrerassistent. Der Kutscher entspricht dem Autofahrer, er ist verantwortlich für das Gefährt. Meist sitzt er bewusst am Steuer, er kann die Führung aber auch delegieren. Ein spannendes Detail im Fall der Kutsche: Pferde haben ihren eigenen Kopf, wenn sie klug sind, bleiben sie rechtzeitig stehen, wenn sie Angst haben, rasen sie womöglich in den Abgrund.“ Im Folgenden plädiert Bendel für einfache moralische Maschinen und problematisiert komplexe moralische Maschinen wie autonome Autos, die über Leben und Tod von Menschen entscheiden. Das Jahrbuch mit dem Interview ist am 9. November 2015 erschienen. Es richtet sich an „die Gesamtheit aller Entscheidungsträger der Schweizer Verkehrsszene“ (www.kömedia.ch). Der Beitrag steht dank der freundlichen Genehmigung durch die Autorin und den Verlag auf dieser Plattform kostenlos als PDF zur Verfügung.

Kleines_Auto

Abb.: Klein, leicht, wendig – ein Vorbild für das Roboterauto?

Wenn Roboter über Leben und Tod entscheiden

Ein Workshop in Bremen widmet sich dem Thema „Maschinenethik – wenn Roboter über Leben und Tod entscheiden“. Den Eröffnungsvortrag hält Prof. Dr. Oliver Bendel, Hochschule für Wirtschaft FHNW (Basel, Olten und Brugg-Windisch). Er führt in die Disziplin ein und stellt Methoden vor, um moralische Maschinen umzusetzen. Dabei geht er auch auf annotierte Entscheidungsbäume ein. Auf der Website www.wissenswerte-bremen.de wird erklärt: „Maschinen, die quasi als Subjekte selbst Verantwortung übernehmen – wer trifft die Entscheidungen, wer übernimmt die Verantwortung? Die technologische Entwicklung stellt die Gesellschaft vor viele Fragen und Herausforderungen; bisherige Regeln lassen sich nur schwer auf aktuelle und zukünftige Gegebenheiten übertragen.“ Der Workshop lege den Fokus auf ein hochaktuelles Problem und widme sich den ethischen Problemen bei zwei exemplarischen autonomen Systemen, nämlich bei Roboterautos (Vortrag von Prof. Dr. Barbara Lenz, Leiterin Institut für Verkehrsforschung, Deutsches Zentrum für Luft- und Raumfahrt, Berlin) und autonomen Waffensystemen (Vortrag von Dr. Frank Sauer, Senior Researcher, Institut für Politikwissenschaft, Universität der Bundeswehr München). Der Workshop ist Teil des Dialogforums WISSENSWERTE 2015 vom 16. bis 17. November 2015. Die Programmplanung obliegt u.a. der Technischen Universität Dortmund, Partner sind Helmholtz-Gemeinschaft, Leibniz-Gemeinschaft, Max-Planck-Gesellschaft, Fraunhofer-Gesellschaft und Stifterband für die deutsche Wissenschaft. Das Programmheft enthält weitere Informationen.

Roboterhand

Abb.: Auf wen wird der Roboter zeigen?

Wen sollen das Auto und die Drohne töten?

Wen soll das autonome Auto töten? Darf es überhaupt töten? Wen soll die Drohne töten? Der Maschinenethiker Oliver Bendel befasst sich seit mehreren Jahren mit solchen Fragen. Bei watson.ch gibt es am 4. November alte und neue Antworten. Bendel spricht sich dafür aus, die Maschine nicht über Leben und Tod von Menschen entscheiden zu lassen. Dafür muss man das Roboterauto, wenn man es zulässt, in die Schranken weisen. Auf separaten Fahrspuren, zu bestimmten Uhrzeiten und mit reduzierter Geschwindigkeit entstehen weniger Unfälle und dadurch weniger Dilemmata. Zudem werden die Fahrzeuge für Skeptiker und Gegner berechenbarer, was ihrer Akzeptanz zuträglich ist. Überhaupt muss, so fordert Bendel, die Gesellschaft miteinbezogen werden. Am Rande wird auch auf Kampfroboter eingegangen. Der Maschinenethiker sagt dazu: „Ich habe zwar den Aufruf gegen Kampfroboter mitunterschrieben, aber ich muss zugeben, dass die Sache nicht ganz so schwarz-weiss ist, wie sie auf den ersten Blick scheint. Ein Kollege stellte schon vor einiger Zeit fest: Im Gegensatz zu Soldaten vergewaltigen Killerroboter nicht, sie brandschatzen nicht, sie plündern nicht. Sympathisch sind sie mir trotzdem nicht.“ (watson.ch, 4. November 2015) Der Beitrag kann über www.watson.ch/!106690026 aufgerufen werden.

fokker

Abb.: An diesem Jagdflugzeug war noch nichts autonom

Doktorand(in) in IT Ethics gesucht

Die Universität von Uppsala in Schweden sucht zwei Doktoranden im Bereich der Mensch-Computer-Interaktion. Maschinenethik und Informationsethik spielen bei einer der Stellen eine zentrale Rolle. In der allgemeinen Beschreibung steht: „The importance of IT necessitates the integration of ethical aspects in the development of computerized artifacts. Automation and interaction with advanced technology demand new knowledge of the conditions of use. An important part of HCI is the development of theories and methods on the integration of ethical values during the design and use of IT systems.“ (Website Uppsala Universitet) Zu den Anforderungen der einen Stelle wird gesagt: „One PhD student will work on developing basic HCI theory and theory/method for the integration of ethical aspects in design and use of computerized systems and tools. Part of the work is to investigate theories empirically through the construction of prototypes and test environments.“ (Website Uppsala Universitet) Bewerbungsschluss ist der 1. Dezember 2015. Für Fragen zu den Projekten können die Professoren Anders Jansson (anders.jansson@it.uu.se) und Iordanis Kavathatzopoulos (iordanis@it.uu.se) kontaktiert werden. Weitere Informationen über www.uu.se.

The Car that Rolls on Twitter Polls

„Wer soll auf den Straßen über Leben und Tod von Menschen entscheiden?“ So lautete die Frage von @Infoethik bei einer der ersten Umfragen auf Twitter. Die neue Funktion namens Twitter Polls erlaubt es, die Meinungen der Benutzer einzuholen. Auf ZDNet wird Produktmanager Todd Sherman zitiert: „Twitter Polls sei eine neue Möglichkeit, mit dem riesigen Twitter-Publikum zu interagieren und herauszufinden, was Menschen denken. Für die Teilnehmer sei es eine einfache Möglichkeit, sich Gehör zu verschaffen.“ (Website ZDNet, 22. Oktober 2015) Weiter wird erklärt: „Umfragen auf Twitter haben eine vorgegebene Laufzeit von 24 Stunden. Nutzer können über zwei mögliche Antworten zu einer Frage abstimmen lassen.“ (Website ZDNet, 22. Oktober 2015) Jeder, der angemeldet ist, kann den passenden Radiobutton auswählen; wie man abgestimmt hat, wird nicht öffentlich mitgeteilt. Die beiden Antworten „Die Fahrer“ und „Die Autos“ wurden in den ersten Minuten einige Male angeklickt. Die Autos rasten davon. Es sollen weitere Umfragen zur Maschinenethik und zur Informationsethik stattfinden.

twittervogel

Abb.: Da freut sich der Vogel

Konferenz zu Robotersex abgesagt

Im November 2014 fand die Konferenz „Love and Sex with Robots“ auf Madeira statt. Auf der Website loverobots.mixedrealitylab.org stand zur Veranstaltung geschrieben: „Within the fields of Human-Computer Interaction and Human-Robot Interaction, the past few years have witnessed a strong upsurge of interest in the more personal aspects of human relationships with these artificial partners. This upsurge has not only been apparent amongst the general public, as evidenced by an increase in coverage in the print media, TV documentaries and feature films, but also within the academic community.“ Themen waren u.a. „Robot Emotions“, „Humanoid Robots“ und „Roboethics“. Eine weitere Konferenz zu Robotersex und Sexrobotern, die für November 2015 in Malaysia geplant war, musste auf Verlangen der Behörden abgesagt werden. Auf loveandsexwithrobots.org ist zu lesen: „Due to circumstances beyond our control, the Second International Congress on Love and Sex with Robots will be postponed until 2016. The conference will definitely not be held anywhere in Malaysia. We deeply apologize to any person or any authority which have felt offense in any way.“ Weitere Informationen über www.bento.de.

 

womanrobo

Abb.: Mensch oder Roboter?

Das Roboterauto zwischen den Kulturen

Prof. Dr. Mark Coeckelbergh vom Centre for Computing and Social Responsibility De Montfort University, Leicester, UK hält am 21. Oktober 2015 einen Vortrag zum Thema „Die Ethik selbstfahrender Autos“. Im Ankündigungstext heißt es: „Sollten wir völlig automatisierte, intelligent selbstfahrende Autos ohne menschliche Fahrer entwickeln und verwenden? Können solche Autos jemals sicher sein? Können sie ethisch sein? Stellen solche Autos eine Bedrohung von Menschen dar oder ist das Weglassen von Menschen als Fahrer die Lösung?“ (Website ots.at) Es geht demnach um Fragen der Technik- und Informationsethik, aber auch der Maschinenethik. Auch die Frage nach der kulturellen Adaption wird aufgeworfen: „Ein weiteres Problem könnte hinsichtlich der kulturellen Unterschiede entstehen: wenn Fahrverhalten in Gesellschaften und Kulturen verschieden ist, wie kann das beim Design solcher autonomer Systeme berücksichtigt werden?“ Der Vortrag findet am Österreichischen Forschungsinstitut für Artificial Intelligence in Wien statt und beginnt um 18.30 Uhr. Weitere Informationen über www.ots.at.

Abb.: Für die Kuh wird gebremst, ob in Indien oder in Texas