„Einer meiner Lieblingsgötter ist Hephaistos, der Schöpfer von Talos und Pandora. Über die Frau mit der Büchse muss man kaum ein Wort verlieren. Talos ist weniger bekannt, obwohl er als Spielzeug bis in unsere Gegenwart überdauert hat. Er, der Wächter von Kreta, bewarf herannahende Boote mit Steinen, bis sie mitsamt den Feinden untergingen. Wenn diese doch das Ufer erreichten, drückte er sie an seinen metallenen Körper, der inzwischen glühte. Das erinnert an eine andere künstliche Figur, die eiserne Jungfrau des Nabis – doch bleiben wir bei Talos.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der am 16. Juli 2017 in der Beilage Sonntag – und damit in Zeitungen wie Hannoversche Allgemeine und Leipziger Volkszeitung – erschienen ist. Von den erdachten Maschinen und Robotern der Antike wird ein Bogen gespannt bis zu selbstfahrenden Autos. Und zur Maschinenethik, die die Möglichkeiten moralischer Maschinen erkundet. Diese sind ein Topos der Ideengeschichte der künstlichen Kreatur, und ganz gegensätzliche Geschöpfe wie Galatea und Golem treffen sich einerseits in ihrer Sprachlosigkeit und Tumbheit, andererseits auch in ihren Möglichkeiten moralischen oder unmoralischen Handelns. Während Galatea weitgehend Projektionsfläche und Gebärmaschine bleibt, wird der Golem in einer Version zur Zerstörungsmaschine, losgelassen auf Prag. Der Beitrag mit dem Titel „Maschine entmündigt Mensch“ (ursprünglich: „Von Talos bis Pandora“) kann hier aufgerufen werden.
Nachrichten aus der neuen Fabrik
„Im Aargau kam der GOODBOT zur Welt. Programmiert wurde er in verschiedenen Kantonen, doch am Campus Brugg-Windisch der FHNW wurde er erdacht und ausprobiert. Wir hatten 2013 verschiedene Chatbots auf Websites mit Aussagen und Fragen gefüttert. Die Ergebnisse waren erschütternd. Maschinen dieser Art sind dazu da, die Benutzer über Produkte und Dienstleistungen zu informieren. Sie sind auch vorbereitet auf Fragen, die sie selbst und die Welt betreffen. Wenn die Sprache indes auf einen beabsichtigten Selbstmord oder Amoklauf kam, versagten die meisten von ihnen.“ Mit diesen Worten beginnt der Artikel „Nachrichten aus der neuen Fabrik“ von Oliver Bendel, der in der Aargauer Wirtschaft Nr. 7 (14. Juli 2016) erschienen ist. Und weiter: „Ich erfand den GOODBOT, der bei Problemen besser reagieren und im Extremfall eine nationale Notfallnummer herausgeben konnte. Drei Studenten implementierten ihn prototypisch. Die Gestaltungsdisziplinen, deren Methoden wir anwandten, waren soziale Robotik und Maschinenethik. Erstere bringt Roboter hervor, die zu sozialen Interaktionen fähig sind und Menschen nicht überfordern und nicht verletzen, letztere Maschinen, die moralisch angemessen entscheiden und handeln.“ (Aargauer Wirtschaft, 14. Juli 2016) Im Folgenden wird auf die Industrie 4.0 und die Smart Factory eingegangen, wo soziale Robotik und Maschinenethik ebenfalls eine Rolle spielen. Der ganze Artikel kann über hier heruntergeladen werden.
Abb.: Die Smart Factory ist mit der Umwelt vernetzt
Aufhalten lassen wir uns nicht
Die Journalistin Heike Henzmann hat im Rahmen der Serie „Walk and Talk“ für die Zeitschrift aktuelle technik (at) ein langes Gespräch mit dem Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel geführt. Der erste Teil des Interviews ist im Juni 2016 erschienen und in diesem Blog besprochen worden. Der zweite Teil mit dem Titel „Aufhalten lassen wir uns nicht.“ liegt seit dem 14. Juli vor und kann hier heruntergeladen werden. In dem Gespräch ging es, wie bereits ausgeführt, um Maschinenethik, Informationsethik und Technologiefolgenabschätzung sowie um Moral und Ethik im Allgemeinen. Zur Maschinenethik führt Oliver Bendel aus: „Die Maschinenethik begreife ich als Gestaltungsdisziplin, die Informationsethik als Reflexionsdisziplin. Die Maschinenethik ist die Disziplin, die die Moral der Maschine zum Thema hat. Die Moral des Menschen wird anders als in der Menschenethik nur nebenbei betrachtet, als Mittel zum Zweck. Eine menschliche Moral ist sehr viel besser als eine maschinelle Moral. Der maschinellen Moral fehlt einiges. Die Maschine kann aber mindestens eine so gute Moral haben wie der menschliche Fundamentalist.“ (at, 7/2016) Diese These wird im Folgenden näher beleuchtet und begründet. Neben dem Text finden sich in beiden Beiträgen viele Fotos, aufgenommen bei miesestem Regenwetter und bester Diskutierlaune.
Autonome Autos in der Sendung „Kontrovers“
In der Sendung „Kontrovers“ (Bayerisches Fernsehen) vom 13. Juli 2016 ging es um selbstfahrende Autos. Zu Wort kamen neben Bürgerinnen und Bürgern u.a. Alexander Dobrindt, Bundesverkehrsminister von Deutschland, und Prof. Dr. Oliver Bendel, Wirtschaftsinformatiker, Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Im Ankündigungstext wurde unter dem Titel „Auch eine Frage der Moral“ der Inhalt des Films skizziert und auf Dilemmata eingegangen: „Es gibt viele offene Fragen: Wie verhält sich ein autonomes Fahrzeug in einer Gefahrensituation? Was macht das Auto, wenn plötzlich ein kleines Mädchen vor ihm auf die Straße läuft? Was, wenn der Fahrer das Kind nur verschonen kann, indem er ausweicht, aber dadurch zum Beispiel einen Senioren gefährdet? Ist ein junges Leben mehr wert als ein älteres?“ (Website BR) Oliver Bendel ist nicht gegen hoch- und vollautomatisiertes Fahren oder autonome Autos. Diese gehören nur nach seiner Meinung auf die Autobahn, nicht in die Stadt. Selbst die Autobahn ist noch schwierig zu bewältigen; die Stadt zu bewältigen, ist kaum möglich. Ein Problem sind Kameras, die sich schnell täuschen respektive leicht täuschen lassen. Sie müssen auf jeden Fall mit weiteren Sensoren gekoppelt werden. Das Gespräch mit Oliver Bendel führte Patrick Lerch. Weitere Informationen über www.br.de.
Abb.: Das Interview mit Oliver Bendel fand in München statt
K5 übersieht Kind
Der Sicherheits- und Überwachungsroboter von Knightscope im Stanford Shopping Center hat ein Kind leicht verletzt. Dies meldete GIZMODO am 12. Juli 2016: „A 300-pound security robot … knocked down and ran over a 16-month-old boy. The parents of the injured boy are understandably pissed, claiming the autonomous machine is dangerous.“ (GIZMODO, 12. Juli 2016) Oliver Bendel hatte im Frühjahr über den K5 berichtet, dem er selbst vor Ort begegnet war. Dabei hatte er ihn mit einem Modell aus China, dem AnBot, verglichen und Überlegungen aus Sicht der Ethik angestellt: „Ich war verwundert, dass man dem K5 in Stanford so nahe kommen konnte. Vielleicht gibt es auch einen Knopf bei ihm, den man drücken kann. In diesem Fall müsste er eine gewisse Nähe erlauben. Aber was ist, wenn er ein Kind oder ein Tier überfährt? Wenn sein enormes Gewicht auf einem kleinen Körper liegen bleibt?“ Zum Vorgang schreibt GIZMODO: „When the Knightscope K5 senses trouble, it alerts local authorities – though it didn’t seem particularly concerned when it plowed into the toddler earlier this week. Little is known about the incident, but the robot’s sensors didn’t seem to detect Harwin – and that’s obviously a problem.“ (GIZMODO, 12. Juli 2016) Der Beitrag von Oliver Bendel ist am 19. Mai in der Zeitschrift inside-it.ch erschienen und kann über www.inside-it.ch/post/blechpolizisten-mit-elektroschockern-20160519 aufgerufen werden.
Wie gefährlich sind Roboter?
Den Chancen und Risiken von Robotern widmet sich die Bild am Sonntag am 10. Juli 2016 auf einer Doppelseite. „Wie viel Roboter ist gut?“ fragt der Autor, Florian Zerfaß, im Titel. Am 7. Juli sprach er mit Oliver Bendel, Wirtschaftsinformatiker, Informationsethiker und Maschinenethiker, der zu den Chancen zählt, dass Roboter die Menschen unterstützen und entlasten. Konkret erwähnte er gegenüber dem Journalisten das BMW-Werk in Spartanburg, wo Leichtbauroboter die Türdichtungen eindrücken und so die Handgelenke der Arbeiter entlasten, die unmittelbar daneben ihren weniger beschwerlichen Aufgaben nachgehen. Auch Pflegeroboter führte er an, die zusammen mit Pflegern im Tandem die Patienten umbetten und -lagern – Prototypen wie Robear, die in Bälde in Pflegeheimen und Krankenhäusern einsatzbereit sein sollen. Mit Risiken behaftet seien selbstlernende Systeme in offenen Welten. In der BamS wird Oliver Bendel mehrfach zitiert. Unter anderem weist er als Maschinenethiker darauf hin, dass man Maschinen eine Art von Moral beibringen kann. Der Artikel wird auf der Titelseite mit der Frage „Wie gefährlich sind Roboter?“ angeteasert und ist auf den Seiten 8 und 9 abgedruckt. Die Seiten 4 und 5 gehören dem Bundesverkehrsminister Alexander Dobrindt, der über seine „großen Baustellen“ reden soll. Eine davon ist die Ethikkommission, die die Entscheidungen automatischer und autonomer Autos aus ethischer Sicht beurteilen und sie in moralischer Hinsicht bestimmen soll. Ob ihr dies gelingen wird, steht in den Sternen. Oliver Bendel warnt davor, dass Autos über Leben und Tod von Menschen bestimmen.
Abb.: Ist das Mädchen sicher?
Eine Bombenidee
In Dallas wurde, wie Telepolis meldete, „ein ferngesteuerter Roboter zum Platzieren einer Bombe eingesetzt, um einen Täter auszuschalten“ (Telepolis, 8. Juli 2016). Eigentlich kein Fall für die Maschinenethik, die sich auf Entscheidungen (teil-)autonomer Systeme konzentriert. Aber dennoch ein interessantes Beispiel, weil es zeigt, dass Roboter oftmals vielfältig genutzt, umgewidmet und zweckentfremdet werden können. Florian Rötzer schreibt in diesem Sinne: „Praktisch macht es keinen Unterschied, ob der Täter schließlich durch von Polizisten abgegebene Schüsse ausgeschaltet wird oder durch einen Sprengsatz, den ein Roboter ferngesteuert zu diesem brachte und in die Luft gehen ließ. Aber es zeigt …, dass auch Nichtkampfroboter Dual-Use-Maschinen sind und zu tödlichen Waffen umfunktioniert werden können …“ (Telepolis, 8. Juli 2016) Damit wächst die Zahl der potenziellen Kampfroboter und Kriegsmaschinen erheblich, und auch private Drohnen können zum Werkzeug von Behörden oder auch von Terroristen werden. Die Angst vor der Mehrfachverwendung geht nicht nur in der Medienlandschaft und in der Gesellschaft, sondern auch in der Wirtschaft um. Vor einiger Zeit warnte ein Hersteller davor, seinen niedlichen Spielzeugroboter Pepper für Sexspiele zu verwenden. Das wird sicherlich nicht die Lust zügeln, sondern die Phantasie beflügeln, und man muss nur auf Gebrauchsanweisungen und Vorführungen der etwas anderen Art warten. Auch Rötzer spekuliert, dass der Einsatz in Dallas die Polizei „auf neue Ideen bringen könnte“ (Telepolis, 8. Juli 2016). Für die Maschinenethik ergibt sich die Erkenntnis, dass Entscheidungen der Software unter Berücksichtigung unterschiedlicher Möglichkeiten der Hardware programmiert werden müssen.
Abb.: Roboter mit Bomben werden sich verbreiten
Die Versklavung der Maschinen
„Der Maschinenethiker Oliver Bendel beschäftigt sich mit selbstfahrenden Autos und versucht, ihnen Moral beizubringen. Wer aber entscheidet, welche Moral befolgt werden soll?“ (Website SRF, 6. Juli 2016) Mit diesen Worten beginnt ein Beitrag von Yves Bossart auf der Website des Schweizer Fernsehens, der ein Interview mit dem Wissenschaftler enthält und auf visualisierte Gedankenexperimente des Senders verweist. Am Ende wird Oliver Bendel nach Rechten von Robotern befragt. Er antwortet darauf: „Für moralische Rücksicht braucht es einen Lebenswillen, Bewusstsein oder Empfindungsfähigkeit. All das haben Maschinen noch nicht einmal im Ansatz. Deswegen dürfen wir alles mit ihnen machen, ja sie dürfen auch versklavt werden. Das einzige, was dagegen spricht, ist der psychologische Verdacht, dass wir Menschen vielleicht moralisch abstumpfen, wenn wir menschenähnliche Wesen schlecht behandeln oder versklaven. Ein Argument, das man in ähnlicher Form bereits beim deutschen Philosophen Immanuel Kant findet.“ Der Beitrag kann über www.srf.ch/kultur/gesellschaft-religion/autonome-autos-gehoeren-nicht-in-unsere-staedte abgerufen werden.
Abb.: Versklavte Maschinen statt versklavte Menschen
Von Tür zu Tür
Die Süddeutsche Zeitung widmete am 5. Juli 2016 die berühmte Seite Drei fünf Personen, die sich mit dem „Zusammenleben von Mensch und Maschine“ beschäftigen, nämlich Oliver Bendel („Maschinenethiker“), Severin Kacianda („Robotikinformatiker“), Volker Hartmann („Jurist“), Lennart Lutz („Roboterrechtler“) und Eric Hilgendorf („Strafrechtsprofessor“). Mit dem Erstgenannten, seines Zeichens studierter Philosoph, promovierter Wirtschaftsinformatiker und Professor an der Hochschule für Wirtschaft FHNW in der Schweiz, hatte Hannes Vollmuth am 24. April 2016 in Berlin zu einer Taxifahrt abgemacht. Der Unfall des Tesla-Autos in den USA war zu diesem Zeitpunkt noch nicht passiert. Dennoch sprach sich Oliver Bendel dezidiert dafür aus, sowohl automatische als auch autonome Autos zu beschränken. Er sieht sie auf Autobahnen, die wie in Europa in der Regel frei von Fußgängern, Radfahrern und Wendemöglichkeiten sind. In Florida war an einer Kreuzung auf einem Highway ein Sattelschlepper senkrecht zu einem Model S geraten. Der Autopilot mit seinem Auge, der Kamera, hatte die aufragende Fläche des Aufliegers für den Himmel (so die erste Vermutung des Unternehmens) oder ein Straßenschild (so eine zweite Erklärung) gehalten. Der Wissenschaftler und der Journalist fuhren mit dem Taxi von Berlin-Mitte zu einer Autobahn, auf der Roboterautos getestet wurden. Sie unterhielten sich über moralische Maschinen, automatische und autonome Autos – und die Fahrt mit dem Tesla Model S, die Oliver Bendel einige Zeit zuvor absolviert hatte. Er war freihändig über die Autobahn bei Bern geglitten, hatte dem Autopiloten beim Spurhalten und -wechseln vertraut und Spaß dabei. Dennoch hätte er die Kontrolle nicht mehrere Minuten abgegeben. Sein Traum ist es, dass er eines Tages von einem autonomen Auto von Mailand nach Genua befördert wird und entweder aus dem Fenster schauen oder in Ruhe arbeiten kann. Eine Beförderung wie bei einem Zug, aber von Tür zu Tür. Der Artikel ist unter dem Titel „Error“ erschienen.
Machine Ethics and Law in Cracow
The call for papers for „Machine Ethics and Machine Law“ has been released. This international conference will take place in Cracow (Poland) from 18 to 19 November 2016. According to the announcement, the deadline for abstract submissions is 9 September 2016. The following information is provided on the website: „Artificial Intelligence systems have become an important part of our everyday lives. What used to be a subject of science fiction novels and movies has trespassed into the realm of facts. Many decision making processes are delegated to machines and these decisions have direct impact on humans and societies at large. This leads directly to the question: What are the ethical and legal limitations of those artificial agents? Issues such as liability, moral and legal responsibility (in different contexts: from autonomous cars to military drones) are coming into the forefront. It is clear that some constraints should be imposed; both the unintended and often unforeseen negative consequences of the technological progress, as well as speculative and frightening views of the future portrayed in the works of fiction, leave no doubt that there ought to be some guidelines. The problem is to work out these constraints in a reasonable manner so that machine can be a moral and legal agent, or else argue that it is impossible and why.“ (conference website) The conference is a follow-up of the AAAI Spring Symposium on „Ethical and Moral Considerations in Non-Human Agents“ which was held in March 2016 at Stanford University. Further information via machinelaw.philosophyinscience.com (link no longer valid).
Fig.: Moral machines are also relevant in farming
Der Roboter der Schmerzen
„Darf ein Roboter einen Menschen nach eigenem Gutdünken verletzen? Ein US-Robotiker hat einen Roboter gebaut, der selbst entscheidet, ob er einem Menschen in den Finger sticht. Die Aktion soll eine Diskussion über Roboter anregen.“ (Golem, 13. Juni 2016) Mit diesen Worten beginnt ein Artikel in Golem, der die Arbeit von Alexander Reben, Bereichsleiter beim kalifornischen Inkubator Stochastic Labs, vorstellt. Der Roboter ist nichts anderes als ein Arm, an dessen Ende eine Nadel angebracht ist. „Er steht auf einer kleinen Plattform. Darauf gibt es eine Markierung, die anzeigt, wo der Finger platziert wird.“ (Golem, 13. Juni 2016) Der Wissenschaftler gibt an, den ersten Roboter gebaut zu haben, der „autonom und absichtlich“ das erste Robotergesetz von Isaac Asimov bricht. Auch die Forschung des Pentagon zu autonomen Kampfrobotern weist in diese Richtung. Derzeit sind die Drohnen noch ferngesteuert, aber das wird sich zu Lande und in der Luft bald ändern. Der Roboter von Alexander Reben kann als unmoralische Maschine („immoral machine“) bezeichnet werden, insofern er absichtlich und systematisch gegen das Wohl des Menschen verstößt, ohne dass der Zweck die Mittel heiligen würde.
Abb.: Auch eine solche Nadel kann Schmerzen verursachen
Eine verhängnisvolle Verwechslung
Am 1. Juli 2016 war Matthias Meili vom Tages-Anzeiger im Gespräch mit dem Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel. Thema war der Unfall des Tesla Model S. Ein Sattelschlepper war über eine Einfahrt auf dem Highway, über die die Richtung gewechselt werden kann, senkrecht zum PKW geraten, der die weiße Fläche für den Himmel bzw. ein Schild gehalten hat und unvermindert weitergefahren ist. „Dieser Unfall hätte von einem menschlichen Fahrer absolut vermieden werden können, sofern es nicht zu schnell gegangen ist, was ich aber nicht beurteilen kann. Grundsätzlich hat der Mensch kein Problem damit, eine sehr helle Fläche vom Himmel zu unterscheiden.“ (Tages-Anzeiger, 1. Juli 2016) Vermutlich hätte der Fahrer den Sattelzug auch frühzeitig gesehen und hätte ausweichen oder herunterbremsen können. Oliver Bendel ist nicht grundsätzlich gegen automatisierte und autonome Autos, ganz im Gegenteil: „Ich habe den Tesla vor einigen Monaten mit Autopilot auf einer Autobahn in der Nähe von Bern gefahren und das sehr genossen. Der Wagen hat erst mal den Verkehr beobachtet und als eine Lücke kam, hat er selbständig die Spur gewechselt. Das macht er sehr weich und sehr flüssig, es war faszinierend.“ (Tages-Anzeiger, 1. Juli 2016) Der Wissenschaftler rät dazu, in den nächsten Jahren weitere Tests und Experimente zu machen und hoch- und vollautomatisierte bzw. autonome Autos vorrangig auf Autobahnen ohne Wendemöglichkeiten fahren zu lassen. Der Artikel vom 1. Juli kann über www.tagesanzeiger.ch/wissen/technik/ein-mensch-haette-diesen-unfall-nicht-gebaut/story/26161200 aufgerufen werden.
Der Tesla-Unfall
Der tödliche Unfall mit einem Tesla Model S vom Mai 2016, der derzeit durch die Medien geht, wurde vom Hersteller am 30. Juni 2016 wie folgt beschrieben: „What we know is that the vehicle was on a divided highway with Autopilot engaged when a tractor trailer drove across the highway perpendicular to the Model S. Neither Autopilot nor the driver noticed the white side of the tractor trailer against a brightly lit sky, so the brake was not applied. The high ride height of the trailer combined with its positioning across the road and the extremely rare circumstances of the impact caused the Model S to pass under the trailer, with the bottom of the trailer impacting the windshield of the Model S.“ (Tesla-Blog, 30. Juni 2016) Demnach kamen zwei Umstände zusammen. Zum einen ist der Sattelzug senkrecht auf den Highway getroffen bzw. hat senkrecht zum Automobil gestanden. Eine ähnliche Situation könnte sich mit LKW und PKW in europäischen Städten ständig ergeben, auf europäischen Autobahnen dagegen kaum. Zum anderen hat sich die Kamera täuschen lassen und, von unten her aufnehmend, die weiße Fläche des Fahrzeugs mit dem hellen Himmel dahinter gleichgesetzt. Dies zeigt einmal mehr, dass Kameras nur bedingt eine geeignete Technik für automatische und autonome Autos sind und in jedem Falle mit verschiedenen anderen Systemen wie Radar und LiDAR kombiniert werden müssen. Kameras kann man leicht täuschen und täuschen sich leicht. Im Tesla Model S ist eine komplexe Sensorik verbaut (Kameras, Radar, Ultraschall). Allerdings besteht offenbar Verbesserungsbedarf, und was das optische System wahrnimmt, muss unbedingt durch ein anderes geeignetes System überprüft werden. Zusätzlich könnten die Hersteller konventioneller PKW und LKW in die Pflicht genommen werden. In Zukunft sind graue, weiße oder blaue Karosserien und Sattelauflieger vielleicht zu vermeiden.
Abb.: Auch die Fläche dieses LKWs könnte verwechselt werden
Merging of Man and Machines
„Merging of man and machines: questions of ethics in dealing with emerging“ – this is the title of an event which takes place in the European Parliament, Brussels, on 8 September 2016, 9:30 – 13:00. The IEU monitoring newsletter DIGITAL AGENDA provides the following information: „The Working Group Green Robotics would like to invite you to a public hearing on ‚Merging of man and machines: questions of ethics in dealing with emerging technology‘. With this and further discussions we would like to develop a position on how society should respond to questions like How will our lives and our society change with the increasing fusion with modern technology? What role have politics and law in this context? Is there a need for regulation and if so, how? How can human rights be addressed?“ In the track „Ethics & Society: Examples of how our lives, values and society will change“ three experts will give talks, namely Yvonne Hofstetter (author and director of Teramark Technologies GmbH), Prof. Dr. Oliver Bendel (author of „Die Moral in der Maschine“ and Professor at the School of Business FHNW) and Constanze Kurz (author and spokesperson Chaos Computer Club). The track „Politics & Law: Examples of how we do/can debate and regulate this field“ is maintained by Juho Heikkilä (DG Connect, Robotics, Head of Unit, tbc) and Prof. Dr. Dr. Eric Hilgendorf (Chairman of the Department of Criminal Law, Criminal Justice, Legal Theory, Information and Computer Science Law, University of Würzburg). Two other lecturers of the event are Enno Park (Chairman of Cyborgs e.V.) and Dana Lewis (founder and OpenAPS thinker).
Fig.: Man or machine or both?
AI for Human-Robot Interaction
Für das AAAI Fall Symposium „AI for Human-Robot Interaction (AI-HRI)“ vom 17. bis 19. November 2016 wurde der Call for Papers veröffentlicht. Dieser richtet sich speziell an Sozialwissenschaftler. Im Ausschreibungstext heißt es: „AI-HRI (The AAAI Fall Symposium on Artificial Intelligence (AI) for Human-Robot Interaction (HRI)) seeks to bring together the subset of the HRI community focused on the application of AI solutions to HRI problems. Building on the success of the two previous years’ symposia, the central purpose of this year’s symposium is to share exciting new and ongoing research, foster discussion about necessary areas for future work, and cultivate a vibrant, interconnected research community.“ Einreichungen mit normaler Länge fokussieren auf den Gebrauch von autonomen KI-Systemen. Kurzbeiträge beschreiben Herausforderungen, auf die Sozialwissenschaftler treffen beim Entwerfen, Durchführen und Evaluieren von HRI-Studien. Deadline ist der 15. Juli 2016. Die Konferenz findet in Arlington (Virginia) statt. Weitere Informationen über ai-hri.github.io.
Das Silicon Valley in Berlins Mitte
In der Berlin-Brandenburgischen Akademie der Wissenschaften am Gendarmenmarkt fand am 14. Juni 2016 das DVR-Forum „Automatisiertes Fahren und Ethik“ statt. Der Untertitel „Welche Entscheidungen wollen wir Maschinen überlassen?“ deutete den Schwerpunkt an. An der Podiumsdiskussion nahmen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Prof. Dr. Dr. Eric Hilgendorf (Universität Würzburg), Prof. Dr. Jürgen Leohold (Volkswagen AG), Prof. Dr. Volker Lüdemann (Hochschule Osnabrück) und Prof. Klaus Kompaß (BMW Group) teil. Es moderierte Monika Jones von der Deutschen Welle. Bendel sprach sich dafür aus, die Roboterautos auf der Autobahn fahren zu lassen. Innenstädte seien in den nächsten Jahren kaum beherrschbar. Als Maschinenethiker sieht er nur geringe Chancen, dass befriedigende Regeln und Formeln in Bezug auf Tod und Leben von menschlichen Verkehrsteilnehmern entwickelt werden. Seine Forschung konzentriert sich daher darauf, dass Haus- und Wildtieren mit Hilfe von Fahrerassistenzsystemen und Roboterautos geholfen wird. Hilgendorf wies darauf hin, dass ein utilitaristisches Durchzählen in manchen Fällen durchaus vom Recht gedeckt sei. Lüdemann problematisierte Roboterautos als Datenkraken. Kompaß und Leohold sprachen aus der Perspektive der deutschen Automobilindustrie, die – wie mehrere Diskutanten bemerkten – unter immer mehr Druck aus dem Silicon Valley gerät. Dieses geriet zum Sinnbild des Wandels in der Branche und war mit einem Mal in Berlins Mitte. Weitere Informationen über www.tag-der-verkehrssicherheit.de.