Partnership on Artificial Intelligence

Fünf IT-Konzerne haben angekündigt, dass sie ihre Forschung im Bereich der Künstlichen Intelligenz (KI) bündeln wollen. Google, Amazon, Facebook, IBM und Microsoft haben die „Partnership on Artificial Intelligence to Benefit People and Society“ gegründet. Die Süddeutsche schreibt dazu: „Man könnte nun eine Weltverschwörung des Silicon Valley vermuten. Immerhin handelt es sich hier um die fünf Konzerne, die international die größten Datenbanken und damit das Gros der globalen Datensätze besitzen. In Wahrheit ist die Gründung jedoch ein historischer Schritt, denn die Partnerschaft für künstliche Intelligenz soll vor allem garantieren, dass die Konzerne gemeinsame ethische Richtlinien für die Entwicklung künstlicher Intelligenz finden.“ (Süddeutsche Zeitung, 29. September 2016) Es fehlen bislang Apple sowie die von Elon Musk geleitete Non-Profit-Organisation namens OpenAI. Gerade letzterer würde man sowohl eine gesellschafts- und benutzerbezogene Reflexion der Chancen und Risiken von Robotik und eine Erstellung von Moralkodizes für die Entwicklung von Robotern (Informationsethik und Roboterethik) als auch eine zielführende Integration von Entscheidungsmechanismen in die Maschinen (Maschinenethik) zutrauen. Nicht nur die Wirtschaft widmet sich Möglichkeiten der Regulierung, sondern auch Arbeitsgruppen der IEEE (Global Initiative Classical Ethics) mit Mitgliedern wie Jared Bielby, Rafael Capurro und Oliver Bendel sowie des Europäischen Parlaments. So wurde im Mai 2016 der Initiativbericht zu zivilrechtlichen Regelungen im Bereich der Robotik von der luxemburgischen Berichterstatterin Mady Delvaux-Stehres vorgelegt.

Die Zukunft gehört der Mensch-Maschine

radio eins (rbb) widmet sich einen Tag lang dem Thema Mensch und Maschine. Im Programm zum 3. Oktober 2016 heißt es: „1978 legten sich Kraftwerk fest: Die Zukunft gehört der Mensch-Maschine …“ (Website radio eins) „Fühlen wir uns, so der Sender, heute nicht tatsächlich wie Mensch-Maschinen? „Die Verschmelzung von Natur und Technik scheint schließlich allgegenwärtig. Längst sind wir angeschlossen an die Computerwelt und die Cyborgs sind unter uns!“ (Website radio eins) Und weiter: „Die Beziehung zwischen Mensch und Maschine begegnet uns überall – im Alltag, in der Wissenschaft, Wirtschaft, Philosophie, Medizin, Sport, Kunst, Literatur und Musik.“ (Website radio eins) Oliver Bendel wird befragt zur Maschinenethik, zu moralischen Maschinen – und zu seinem Buch „Die Moral in der Maschine“, das 2016 bei Heise Medien erschien und eine Auswahl seiner Artikel und Aufsätze zur Maschinenethik enthält. Knut Elstermann befand sich im Babylon-Studio von radioeins, Oliver Bendel im SRF-Studio in Zürich. Man sprach kurz und intensiv. Das Resultat kann man sich bei radio eins bzw. über www.radioeins.de/programm/ anhören.

girl_machine

Abb.: Maschine und Mensch verschmelzen

Der LÜGENBOT in der Bild am Sonntag

Die Bild am Sonntag (BamS) hat den LÜGENBOT getestet und ihm einige Perlen der Unwahrheit entlockt. Dies ist in einem Artikel von Florian Zerfaß vom 2. Oktober 2016 nachzulesen, mit dem Titel „Roboter lernen lügen für die Wahrheit“. Angela Merkel sei Bundeskanzlerin und die beste Rapperin der Welt, der FC Schalke 04 habe in der Bundesliga 134 Punkte. Besonders interessant ist das erste Beispiel. Der Satz fängt wahr an und endet falsch; der Benutzer wird in Sicherheit gewiegt und dann aufs Glatteis geführt. Der LÜGENBOT aka LIEBOT wurde 2013 von Oliver Bendel erfunden und 2016 von Kevin Schwegler umgesetzt. Er beherrscht verschiedene Lügenstrategien, von denen manche als genuin maschinell angesehen werden können – so lügt kein Mensch, nicht einmal ein Lügenbold. Der Chatbot lügt nicht immer, aber meistens. Es gibt vielfältige Anwendungsmöglichkeiten – so können Maschinen, die Fakes und Lügen entdecken sollen, mit ihm trainiert werden. Letztlich geht es darum, vertrauenswürdige und verlässliche Systeme zu entwickeln.

Programmierte Moral für autonome Maschinen

„Programmierte Moral für autonome Maschinen“ – so der Titel einer Diskussionsveranstaltung von Telepolis und Westendverlag zur Buchmesse in Frankfurt. Auf der Website der Zeitschrift heißt es: „Maschinen und Roboter, die immer selbständiger handeln und entscheiden sollen, ziehen als Saug- und Mähroboter, als Pflege-, Spiel-, Service- oder auch Sexroboter, als unverkörperte Agenten, als Überwachungs- oder auch als Kampfroboter in die Lebenswelt ein. Wir müssen den Umgang mit den neuen Mitbewohnern lernen und diesen müssen höchst unterschiedliche Regeln im Umgang mit den Menschen und der Umwelt einprogrammiert werden. Autonome Fahrzeuge könnten bald massenhaft auf den Straßen fahren. Dass sie keine hundertprozentige Sicherheit bei ihren Entscheidungen bieten, zumal wenn sie mit menschlichen Fahrern konfrontiert sind, hat sich bereits an Unfällen gezeigt.“ (Website Telepolis) Und weiter: „Muss für intelligente Maschinen eine eigene Ethik entworfen werden? Müssen sie als digitale Personen verstanden werden? Können Maschine[n] überhaupt moralische Wesen sein und sich moralisch entscheiden? Oder wird die Ethik der Maschinen letztlich immer die Ethik des Programmierers sein? Und wenn autonome Maschinen Pflichten haben, müssen ihnen dann auch Rechte gewährt werden?“ (Website Telepolis) Die Gäste in der Naxoshalle sind Prof. Dr. Catrin Misselhorn, Direktorin des Instituts für Philosophie der Universität Stuttgart, Prof. Dr. Oliver Bendel, Professor am Institut für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW, und Peter Weibel, Medienkünstler und Medientheoretiker, Vorstand des Zentrums für Kunst und Medien Karlsruhe. Es moderiert Florian Rötzer, Chefredakteur von Telepolis. Weitere Informationen über www.heise.de/tp/artikel/49/49560/1.html.

skyscraper

Abb.: Hochhaus in Frankfurt

System erkennt Lügen von Menschen

Jeden Monat überprüft der Harvard Business Manager nach eigener Aussage die Thesen von Wissenschaftlern. „Diesmal geht es um die Annahme: Textalgorithmen können Lügen in E-Mails enttarnen.“ (SPON, 28. September 2016) Spiegel Online meldet am 28. September 2016: „Daran forschen Stephan Ludwig, Associate Professor an der University of Surrey (zum Zeitpunkt des Interviews noch Junior Professor für Marketing an der University of Westminster), und Tom Van Laer, Junior Professor für Marketing an der Cass Business School der City University London. Das Ergebnis ihrer Analyse: Wer lügt oder die Wahrheit stark verbiegt, hält sich beim Schreiben unbewusst an bestimmte Regeln.“ (SPON, 28. September 2016) Sie haben vor diesem Hintergrund einen Algorithmus entwickelt, der Lügen von Menschen erkennt. Mit dem LÜGENBOT, der 2016 an der Hochschule für Wirtschaft FHNW implementiert wurde, hätten die Wissenschaftler einen idealen Trainingspartner. Dieser spezielle Chatbot sagt meistens die Unwahrheit, aber nicht immer. Dabei benutzt er verschiedene Lügenstrategien, die er teils kombiniert. Ob das System der Briten auch die maschinellen Lügen des LIEBOT zu erkennen vermag, ist eine spannende Frage, die vielleicht in den nächsten Monaten beantwortet werden kann, wenn die Wissenschaftler zusammenfinden.

directory

Abb.: Hier geht’s zur Lüge

Vorbild Mensch

„Mehr als 600 Ausgaben sind in den vergangenen Jahrzehnten von bild der wissenschaft erschienen. Das erste Heft kam 1964 an den Kiosk. Ersonnen hat es Heinz Haber. Der Physiker produzierte und moderierte … die ersten Wissenssendungen im deutschen Fernsehen.“ (Website bdw) So schreibt es die Zeitschrift selbst auf ihrer Website. In der aktuellen Ausgabe (Oktober 2016) ist ein vierseitiges Interview mit Prof. Dr. Oliver Bendel zu finden, unter dem Titel „Maschinen können Moral lernen“. Es geht um Maschinenethik, um Robotik und Künstliche Intelligenz. Der Mensch ist für die Maschine sozusagen Vorbild. Sie versucht ihn zu imitieren und zu kopieren. Und so entwickelt sie Ansätze einer Moral. Die Fotos hat der Stuttgarter Fotograf Kai R. Joachim angefertigt. Er hat für Magazine wie Metal Hammer, Glamour UK und Cosmopolitan gearbeitet und Aerosmith, Roger Hodgson, Mike Rutherford und Destiny’s Child abgelichtet. Oliver Bendel ist auf den Fotos auf dem Campus Brugg-Windisch unterwegs, in den imposanten oberen Stockwerken, an der spektakulären weißen Wendeltreppe der Bibliothek und am berühmten alten Hallerbau. In dem Heft geht es zudem um den tödlichen Tesla-Unfall in den Vereinigten Staaten. Nicht zuletzt wird nach der Sicherheit auch in anderer Hinsicht gefragt; die „Fülle an Elektronik in den Autos macht es Dieben und Hackern leicht“ (bdw, 10/2016).

machine_brain

Abb.: Maschinen können von Menschen lernen

Ein bisschen Mensch in der Maschine

In der neuen Ausgabe von RED, dem Magazin der Schweizer Börse SIX, sind Frank M. Rinderknecht von Rinspeed und Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW im Gespräch. Bereits im Juli 2016 traf man sich in der Werkstatt in Zumikon, in der es von futuristischen Fahrzeugen nur so wimmelt. Man stieg in diese hinein und aus diesen wieder heraus – und rollte zusammen die mächtigen Räder. Die Bilder dazu findet man in dem vierseitigen Beitrag mit dem Titel „Wie viel Mensch soll in der Maschine stecken?“. Iris Kuhn-Spogat fragte im Büroraum bei Kaffee und Wasser nach autonomen Autos, maschinellen Entscheidungen und verrückten Erfindungen. Ihre Gesprächspartner waren sich in vielen Dingen einig. Man liebt das Spielerische, Verrückte, man versucht das scheinbar Unmögliche, bei der Entwicklung von Roboterautos und Amphibienfahrzeugen sowie von guten und bösen Chatbots. SIX und Rinspeed haben schon mehrmals zusammengearbeitet. Ein Video – abrufbar über six.swiss/rinspeed – gibt Einblicke, nicht zuletzt in die Werkstatt. Auch Oliver Bendel und die Finanzexperten haben sich bereits einmal getroffen, bei seinem Vortrag über Maschinenethik an der Börse in Zürich. Der Beitrag wurde von den Verantwortlichen freundlicherweise zur Verfügung gestellt und kann als PDF heruntergeladen werden.

Sinn und Zweck von Lügenmaschinen

In einem ganzseitigen Interview, das in der SonntagsZeitung vom 18. September 2016 publiziert wurde, erläutert Oliver Bendel, welche Gefahren von Münchhausen-Maschinen ausgehen und welche Zwecke er mit dem LÜGENBOT verfolgt. Dessen Entwicklung sei mit einem Dilemma verbunden. „Ähnlich wie bei der Erforschung der Kernspaltung besteht die Gefahr des Missbrauchs. Im Prinzip könnte sich der Lügenbot als unmoralische Maschine in der Welt verbreiten und Schaden anrichten. Aber er ist einerseits mit einem Passwort geschützt, andererseits glaube ich, dass der Nutzen des Lügenbots überwiegt.“ Der Nutzen wird von Oliver Bendel immer wieder erläutert, bei Veranstaltungen und in Veröffentlichungen. Wenn man alle maschinellen Strategien des Lügens kenne, könne man diesen auch jeweils begegnen, sowohl als Entwickler als auch als Benutzer. Entwickler müssen, so der Vater des LÜGENBOT, die Wissensbasen schützen und die externen Quellen kontrollieren. Sie können grundsätzlich darauf achten, dass die Maschine mit Hilfe ihrer Begriffe, Sätze und Regeln nicht zu lügen vermag. Die Anbieter können offenlegen, wie die Chatbots funktionieren, die Benutzer wachsam sein, nach dem Anbieter fragen, dem Kontext, und die Systeme testen. Die Erkenntnisse mag man in der Maschinenethik und in der Wirtschaft nutzen, um moralische Maschinen zu bauen. Mit Anti-Münchhausen-Maschinen kann man Verlässlichkeit und Vertrauen aufbauen. Das Interview wurde von Joachim Laukenmann geführt und ist auf Seite 60 der Schweizer Zeitung zu finden. Es kann hier als PDF heruntergeladen werden.

blueandroid

Abb.: Ob er die Wahrheit spricht – oder nicht?

Grüne Robotik

Der Livestream der Veranstaltung „Merging of man and machines: questions of ethics in dealing with emerging“ vom 8. September 2016 wurde aufgezeichnet und kann über web.greensefa.streamovations.be/index.php/event/stream/merging-of-man-and-machine aufgerufen werden (Link nicht mehr gültig). Ins Europäische Parlament in Brüssel eingeladen hatte der Grünen-Abgeordnete Jan Philipp Albrecht von der Green Working Group Robotics. Auf der Website wurde wie folgt eingeführt: „Technology has fundamentally altered our lives and will continue to do so. Ethical considerations must remain guiding posts at all times. Undoubtedly, how we approach the regulation of emerging technologies will have wide implications for our definition of human dignity and the equality of individuals.“ (Website Albrecht) Es ging um Fragen dieser Art: „How will our lives and our society change with the increasing fusion with modern technology? What role have politics and law in this context? Is there a need for regulation and if so, how? How can human rights be addressed?“ (Website Albrecht) Den Track „Ethics & Society: Examples of how our lives, values and society will change“ haben Yvonne Hofstetter (Teramark Technologies GmbH), Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) und Dr. Constanze Kurz (Chaos Computer Club e.V.) bestritten. Bendels Vortrag wurde mit Folien unterstützt; diese können hier heruntergeladen werden.

sun_flower

Abb.: Wo die Grünen sind, sind die Sonnenblumen nicht weit

Roboter haben kurze Beine oder keine

Roboter haben kurze Beine. Zumindest manche von ihnen, etwa der LÜGENBOT. Genaugenommen hat dieser nicht einmal Beine, sondern nur ein Rad. Wolfgang Schmitz von VDI nachrichten war im September 2016 im Gespräch mit Oliver Bendel, Wirtschaftsinformatiker und Maschinenethiker. Eine Frage von ihm lautete, worin der Nutzen des LÜGENBOT bestehe. Die Antwort lautete: „Es gibt bereits Münchhausen-Maschinen. Wir wollen mit dem Lügenbot, der als Chatbot realisiert ist, zunächst auf ihre Existenz und ihre Strategien hinweisen. Kennt man diese, kann man ihnen effektiv begegnen. Entwickler können Wissensbasen schützen und externe Quellen kontrollieren. Mit moralisch verlässlichen Maschinen können Anbieter Vertrauen aufbauen. Die Benutzer werden wachsamer, indem sie etwa nach dem Anbieter fragen. Nicht zuletzt kann die Maschinenethik die Erkenntnisse für ihre Forschungen nutzen.“ Das Gespräch drehte sich weiter um Münchhausen-Maschinen, menschliche und maschinelle Lügenbolde und moralische und unmoralische Maschinen. Das LÜGENBOT-Projekt wurde seit 2013 von Oliver Bendel mit mehreren Artikeln vorbereitet. 2016 konnte der Chatbot dann realisiert werden. In dieser Form konzipiert und programmiert hat ihn Kevin Schwegler. Das ganze Interview mit dem Titel „Lügentechnik zerstört Vertrauen“ ist am 16. September 2016 in der gedruckten Ausgabe der VDI nachrichten erschienen.

rot_anlaufen

Abb.: Der LÜGENBOT wird rot

Nervenzellen auf Platinen

Ein sechsseitiges Interview mit Oliver Bendel ist in der Absatzwirtschaft (Sonderausgabe dmexco, 14. September 2016, S. 36 bis 41) erschienen. Peter Hanser ist in die Schweiz gereist und hat den Wirtschaftsinformatiker und Maschinenethiker im Au Premier im Zürcher Hauptbahnhof getroffen. Es war ein Gespräch über Technik und Ethik, in dessen Verlauf u.a. die folgenden Worte fielen: „Ich unterscheide Maschinenethik als Gestaltungsdisziplin und andere Disziplinen wie Informationsethik oder Technikethik als Reflexionsdisziplinen. In der Maschinenethik wollen wir wirklich Maschinen konzipieren und am Ende auch prototypisch bauen. Dabei arbeiten wir eng mit KI, Robotik und anderen Disziplinen zusammen. In der Informationsethik und Technikethik reflektieren wir Probleme, die sich beim Einsatz von Robotern ergeben. Es ist beides sinnvoll und notwendig. Wir haben zum ersten Mal in der Geschichte der Ethik eine Form der Ethik, die danach fragt, wie man maschinelle Moral umsetzen kann. Zugleich haben wir zunehmende Probleme durch den Einsatz von Robotern, etwa durch den Ersatz von Arbeitskräften, Kollisionen von Menschen und Maschinen und technikbezogene Sexpraktiken. Es stellt sich die Frage, was wir künftig mit Maschinen tun wollen. Damit sind dann Bereichsethiken gefordert wie Informations-, Technik-, Medizin-, Sexualethik und so weiter.“ Die Maschinen, die das Licht der Welt erblickt haben, sind der GOODBOT und der LIEBOT, und beiden wird im Artikel mit dem Titel „Vielleicht haben Maschinen eines Tages Bewusstsein“ ein Infokasten gewidmet. Das mit dem Bewusstsein hält Oliver Bendel für unwahrscheinlich, aber nicht für ausgeschlossen. Ein Weg könnte sein, auf informationstechnischen Strukturen, auf Platinen etc., tierische oder menschliche Hirnzellen wachsen zu lassen. Ein umgekehrter Cyborg sozusagen.

neuronen

Abb.: Hirnzellen könnten auf informationstechnischen Strukturen wachsen

Olli im Playboy

Local Motors und IBM haben ein autonomes Shuttle präsentiert, das an das autonome Shuttle der PostAuto AG erinnert, das in Sitten im Wallis verkehrt. Anders als dieses kann Olli aber – so sein Name – nicht nur denken, sondern auch sprechen, beides auf hohem Niveau und mit Hilfe von IBM Watson. Es werden Wünsche von Passagieren entgegengenommen, etwa in Bezug auf Fahrziele, und diese sogar vorgeschlagen; wenn es heiß ist, fährt das Auto zur nächsten Eisdiele. Olli kann auch beruhigend auf die Passagiere oder die Passanten einreden: „For citizens of Maryland, many of whom have never seen a self-driving car, Watson’s reassuring communications could be critical to making them more comfortable with the idea that there’s no human being at the wheel.“ (Information IBM) Das Auto an sich wandelt sich ständig. Es ist nicht mehr nur ein Wagen, der von einem Fahrer beherrscht wird; es ist ein automatisches Transportmittel, das seinen Weg allein findet, das Menschen aufsammelt, das Wünsche erfüllt und weckt, das mit seiner Umgebung und mit Lebewesen interagiert, das beobachtet und mitdenkt und entscheidet, das selbst bezahlen und selbst etwas besorgen und einladen kann. Local Motors hat es mit seinen Innovationen bereits in den Playboy geschafft. Auch eine Kooperation mit BMW war 2012 verkündet worden. Ob Olli es in den Playboy schafft, ist noch ungewiss. Weitere Informationen über localmotors.com/olli/.

page

Abb.: Bettie Page hat es geschafft (Quelle: Wikipedia)

Die Suche nach dem Moralmodul

„Das Auto hat sich und seine Umwelt immer wieder stark verändert. Am Anfang versuchte man, die Kutsche nachzuahmen, und fast wie in den Jahrhunderten zuvor holperte und wankte man über das Pflaster. Dann entdeckte man die Stromlinienförmigkeit, duckte sich in den Fahrerraum hinein, wand sich aus dem Sitz heraus. In die Lücke, die die Steine hinterlassen hatten, floss der Asphalt. Die Städte wurden umgebaut. Sie wurden so autofreundlich, dass der Gehsteig in manchen Ländern zum Strich verkam, auf dem man sich vorsichtig zwischen Verkehr und Mauer vorwärts bewegte. Vorwärts, vor allem im Sinne des Fortschritts, das war die Devise, bis man die Innenstädte wieder für die Fußgänger erschloss und Fußgängerzonen entstanden. Dann tat sich eine Weile nichts. Autoindustrie und Stadtplaner wirkten müde und schwach. Bis die Idee des autonomen Autos geboren wurde.“ So beginnt ein Artikel zu Roboterautos und zur Maschinenethik von Oliver Bendel, erschienen am 9. September 2016 im Tagesspiegel, der traditionsreichen Zeitung aus Berlin, für Berlin und ganz Deutschland. Er kann über https://causa.tagesspiegel.de/die-suche-nach-dem-moralmodul.html abgerufen werden.

kutschenfahrt

Abb.: Den Pferden und dem Kutscher ausgeliefert

Zur Zweckentfremdung von Robotern

„Roboter konnten schon immer zweckentfremdet werden. Je mehr sie aber vermögen, je mehr Instrumente sie haben, je mehr sie zu Generalisten werden, desto eher scheinen sie auch für Anwendungen geeignet zu sein, für die sie nicht vorgesehen waren. Und je mehr sich Roboter verbreiten, desto mehr sind sie auch Menschen zugänglich und ausgeliefert, die sie in vielfältiger Weise ge- und missbrauchen können.“ Mit diesen Worten beginnt ein Gastbeitrag von Oliver Bendel, Professor an der Hochschule für Wirtschaft der FHNW, in der ICTkommunikation vom 5. September 2016. Weiter heißt es: „Immer wieder werden Beispiele für eine tatsächliche oder angestrebte bzw. abgelehnte Umwidmung der Maschinen bekannt. Der vorliegende Artikel definiert die Begriffe der in diesem Kontext vor allem in Frage kommenden Service- und Spielzeugroboter und geht auf Zweckentfremdungen ein, die besonders diskussionswürdig und zukunftsträchtig scheinen. Auch Softwareroboter wie Social Bots und Chatbots wären darstellungswürdig, sollen hier aber ausgeklammert werden.“ Es wird u.a. die Perspektive der Maschinenethik eingenommen: „Diese fragt nach der Möglichkeit maschineller Moral, und zusammen mit Robotik und Künstlicher Intelligenz konzipiert und konstruiert sie moralische Maschinen. Auch unmoralische Maschinen können aus ihr heraus entstehen, und eine Möglichkeit der Zweckentfremdung wäre, eine moralische Maschine durch Umprogrammierung oder einen feindlichen Angriff in eine unmoralische zu transformieren.“ Der Beitrag kann über ictk.ch/inhalt/die-zweckentfremdung-von-robotern abgerufen werden.

Robotangel

Abb.: Noch hochgetunt oder schon zweckentfremdet?

Journal on Vehicle Routing Algorithms

Springer invites scientists to contribute to the Journal on Vehicle Routing Algorithms. Editors-in-chief are Christian Prins, Troyes University of Technology, France, and Marc Sevaux, University of South-Brittany, France. The publishing house declares that the new journal „is an excellent domain for testing new approaches in modeling, optimization, artificial intelligence, computational intelligence, and simulation“ (Mailing, 2 September 2016). „Articles published in the Journal on Vehicle Routing Algorithms will present solutions, methods, algorithms, case studies, or software, attracting the interest of academic and industrial researchers, practitioners, and policymakers.“ (Mailing, 2 September 2016) According to the website, a vehicle routing problem (VRP) „arises whenever a set of spatially disseminated locations must be visited by mobile objects to perform tasks“ (Website Springer). „The mobile objects may be motorized vehicles, pedestrians, drones, mobile sensors, or manufacturing robots; the space covered may range from silicon chips or PCBs to aircraft wings, warehouses, cities, or countries; and the applications include traditional domains, such as freight and passenger transportation, services, logistics, and manufacturing, and also modern issues such as autonomous cars and the Internet of Things (IoT), and the profound environmental and societal implications of achieving efficiencies in resources, power, labor, and time.“ (Website Springer) The moral decisions of cars, drones and vacuum cleaners can also be investigated. More information via www.springer.com.

Maschinenethik im Europäischen Parlament

Automatisierte Maschinen und (teil-)autonome Systeme verbreiten sich immer mehr. Sie treffen selbstständig Entscheidungen, auch moralischer Art. Zugleich verschmelzen Menschen und Maschinen, Menschen vermessen sich bei Aktivitäten (Quantified Self), zeichnen ihr Leben auf (Lifelogging), ergänzen und verbessern Körper und Geist und werden zu Cyborgs. Das Europäische Parlament in Brüssel widmet sich diesen Entwicklungen am 8. September 2016 von 9.30 bis 13.00 Uhr. Titel der Veranstaltung, zu der Jan Philipp Albrecht einlädt, ist „Merging of man and machines: questions of ethics in dealing with emerging“. Der Newsletter DIGITAL AGENDA wartet mit folgenden Informationen auf: „The Working Group Green Robotics would like to invite you to a public hearing on ‚Merging of man and machines: questions of ethics in dealing with emerging technology‘. With this and further discussions we would like to develop a position on how society should respond to questions like How will our lives and our society change with the increasing fusion with modern technology? What role have politics and law in this context? Is there a need for regulation and if so, how? How can human rights be addressed?“ Im Track „Ethics & Society: Examples of how our lives, values and society will change“ sprechen drei Expertinnen und Experten zu den genannten Themen, nämlich Yvonne Hofstetter (Direktorin der Teramark Technologies GmbH), Prof. Dr. Oliver Bendel (Professor an der Hochschule für Wirtschaft FHNW) und Constanze Kurz (Sprecherin des CCC). Der Track „Politics & Law: Examples of how we do/can debate and regulate this field“ wird bestritten von Juho Heikkilä (Bereichsleiter bei DG Connect) und Dr. Hielke Hijmans (Special Advisor at the Offices of the European Data Protection Supervisor). Zwei weitere Vortragende sind Enno Park (Vorsitzender von Cyborgs e.V.) und Dana Lewis (Unternehmensgründerin). Weitere Informationen über www.janalbrecht.eu/termine/merging-of-man-and-machines-questions-of-ethics-in-dealing-with-emerging-technology.html (Link nicht mehr gültig).

LIEBOT

Abb.: Der LIEBOT ist eine unmoralische Maschine