Die neue Ausgabe von apunto widmet sich Transhumanismus, Robotik, Künstlicher Intelligenz und Maschinenethik. Im Heft finden sich Interviews mit Prof. Dr. Jürgen Schmidhuber und Prof. Dr. Oliver Bendel. Thomas Feierabend, Präsident Angestellte Schweiz, schreibt in seinem Vorwort, dass es immer mehr Einsatzbereiche von Robotern gibt. „In der industriellen Produktion haben sie schon lange Einzug gehalten, sie können heute auch bereits Gäste in Hotels empfangen. Versuche in der Alterspflege sind im Gange, und selbstfahrende Busse sowie Taxis finden sich sogar in der Schweiz.“ (apunto, 4/2017) Er entwirft eine Dystopie des Cyborgs in der Arbeitswelt: „Er funktioniert dann völlig frei von Störungen und sehr effizient. Er ist programmiert auf Beginn und Ende der Erwerbsarbeit, ist nie zu spät und befolgt die Anordnungen der Vorgesetzten ohne Widerrede. Und noch schlimmer: Können betriebliche Reorganisationen dann einfach digital veranlasst werden?“ (apunto, 4/2017) Jürgen Schmidhuber und Oliver Bendel sind dann in ihren Ausführungen zu Robotern und KI etwas optimistischer. Der KI-Experte ist der Meinung, dass KI keine Menschen versklaven wird. Der Maschinenethiker ist der gleichen Meinung – und hält Roboter und KI-Systeme in erster Linie für nützliche Werkzeuge. Eine Gefahr geht seines Erachtens von Crackern aus. Das ganze Heft kann hier heruntergeladen werden.
Ein interner Event bei Audi am 20. September 2017 in Ingolstadt widmet sich dem Zusammenhang von Künstlicher Intelligenz (KI), Ethik und Rechtswissenschaft. Eingeladen sind als Referenten u.a. Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Prof. Dr. Sepp Hochreiter (Johannes Kepler Universität Linz) und Dr. Alexander Mertens (RWTH Aachen). Oliver Bendel erklärt, was Ethik und Moral sind (Ethik als Disziplin, Moral als ihr Gegenstand), was die Maschinenethik ist (eine Disziplin, die nach der Möglichkeit maschineller Moral fragt, so wie die KI als Disziplin nach der Möglichkeit künstlicher Intelligenz) und welchen Artefakten sich die Maschinenethik seit ca. zehn Jahren zuwendet (selbstständig fahrenden Autos, zivilen Drohnen, Pflege- und Therapierobotern, Kampfrobotern, Chatbots, um nur einige Typen zu nennen). Anders als Bereichsethiken wie Informationsethik und Technikethik beschäftigt sich die Maschinenethik nicht nur mit Maschinen, sondern setzt sie auch um, zusammen mit KI und Robotik. Audi wurde 1909 gegründet und gehört zum Volkswagen-Konzern.
Omer Kabir von der israelischen Tageszeitung Calcalist hat im Februar 2017 ein Interview mit Oliver Bendel geführt, das am 16. August 2017 erschienen ist. Es geht um Künstliche Intelligenz, Robotik und Maschinenethik. Zu einer Frage führte Oliver Bendel aus: „I would like to distinguish between simple and complex moral machines. While simple moral machines are useful and valuable in many contexts, e.g., in order to protect animals in the household, in the parkway or in the wilderness, complex moral machines can be dangerous, on the battle field as well as in road traffic. I am against autonomous weapons and autonomous cars which decide between life and death of human beings. I prefer simple machines which follow simple rules in our absence, simple machines that are our representatives, not least in a moral sense.“ Auf eine andere gab er die Antwort: „Industrial and service robots as well as agents and chatbots will support and replace us, doing some things better than their human competitors. They may be more precise, faster and cheaper. The machines can used for automatic operation round the clock. We may experience initial discomfort and pressure. After some discussions and perhaps revolutions, we could head for adequate economic, political and legal conditions. Perhaps there will be an unconditional basic income for all citizens, and I must admit that I sympathise with this idea. Other experts also propose a machinery tax or a quota of robots, but I am rather sceptical about such restrictions. I like the discussions about them more than themselves.“ Der Artikel mit dem Titel „Affäre mit einem Roboter“ kann hier als PDF heruntergeladen oder über www.calcalist.co.il/internet/articles/0,7340,L-3719292,00.html aufgerufen werden.
Abb.: Affäre mit einem Roboter (Foto: Calcalist/Kai R. Joachim)
Der Beitrag zur Künstlichen Intelligenz in der Zeitschrift National Geographic (7/2017) ist nun als PDF verfügbar und kann hier heruntergeladen werden. Auf 14 Seiten widmet man sich der Arbeit von Oliver Bendel. Der Informations- und Maschinenethiker stand dem Chefredakteur Florian Gless und der Redakteurin Ines Bellinger Rede und Antwort, die von Hamburg in die Schweiz gereist waren. Zudem gibt es eine Graphic Novel zu aktuellen Entwicklungen und den entsprechenden Überlegungen von Oliver Bendel. Ein Glossar zur KI rundet den Beitrag ab. Die Fotos stammen von Elias Hassos, der u.a. Hans Magnus Enzensberger und Martin Walser porträtiert und auf dem FHNW-Campus Brugg-Windisch fotografiert hat. „Wir können in der Hängematte liegen“ – so lautet die Überschrift des Beitrags. Oliver Bendel ist der Meinung, dass uns Roboter unterstützen und entlasten können. Dass Menschen die besten Jahre des Lebens und die besten Stunden des Tages einem Unternehmen schenken, das ihnen womöglich nicht einmal sympathisch ist, hält er für eine Ideologie, die man hinterfragen kann. Vielleicht reichen vier Stunden am Tag für den Lebensunterhalt, wenn ein Grundeinkommen dazukommt. Denn die Gewinne werden weiter erzielt, mit Hilfe von Robotik und KI auch ohne die Arbeiter und Angestellten. Sie müssen nur gerecht verteilt werden. Weitere Informationen über www.nationalgeographic.de.
Was haben Wonder Woman und ein Lügendetektor gemeinsam? Warum schämen wir uns für andere Menschen? Kann die Sonne erlöschen? Wer war Mata Hari? Die Fragen bei „Beat the Prof“ auf ZEIT ONLINE sind immer anregend, die Antworten oft verblüffend. Im Mai 2017 wurde ein neues Quiz freigeschaltet, und zwar zu Künstlicher Intelligenz, Robotik und Maschinenethik. Die Fragen und Antworten erarbeitete der Informations- und Maschinenethiker Oliver Bendel, der in Zürich lebt und in Basel, Olten und Windisch an der Hochschule für Wirtschaft FHNW arbeitet. Enthalten ist u.a. eine Frage zum Fetter-Mann-Problem. Der bedauernswerte Unbeteiligte werde von einer Brücke auf ein Gleis gestoßen. Aber warum? Antwort 1: „Er wird getötet, damit andere auf dem Gleis überleben.“ Antwort 2: „Er wird heruntergeschubst, damit die Brücke nicht einstürzt.“ Antwort 3: „Er wird getötet, damit das Fetter-Mann-Problem entsteht.“ Das Quiz kann über www.zeit.de/campus/2017-05/beat-the-prof-ethik-kuenstliche-intelligenz aufgerufen werden. Aber Achtung: Die Zeit läuft davon!
„We love AI“ nennt sich ein neues Angebot der Deutschen Telekom im World Wide Web, das sich ganz der Künstlichen Intelligenz widmet. Jan Hofmann begrüßt die Besucher: „Wir sind überzeugt, dass künstliche Intelligenz nicht nur den Kundenservice verändern wird, sondern unsere gesamte Industrie – jede Industrie, unsere Gesellschaft und unser tägliches Leben.“ (Website We love AI) Eines der ersten Interviews wurde mit dem Informations- und Maschinenethiker Oliver Bendel geführt. Er untersucht die Möglichkeit maschineller Moral und baut einfache moralische Maschinen als Artefakte, die er dann wiederum untersucht. Zu seinem neuesten Projekt innerhalb der Maschinenethik, das einen tierfreundlichen Saugroboter namens LADYBIRD zum Ziel hat, sagt er: „Mir geht es um das Prinzip. Mir geht es darum, zu zeigen, dass solche tierfreundlichen Maschinen möglich sind. Dass man zum Beispiel Entscheidungsbäume benutzen kann, um solche Maschinen zu bauen. In diese Entscheidungsbäume kann man moralische Begründungen einbeziehen. Das mit Ladybird ist ein sehr anschauliches Beispiel. Wir bauen eine Maschine, die bestimmte Farbsensoren hat, die über Muster- und Bilderkennung verfügt und tatsächlich den Marienkäfer erkennt und verschont. Ich will das Prinzip verdeutlichen: Es ist möglich, eine Maschine zu bauen, die bestimmten ethischen Modellen und moralischen Regeln folgt.“ Das ganze Interview kann über www.we-love.ai/de/blog/post/Interview-OliverBendel.html aufgerufen werden.
Die ZEIT führte mit dem Maschinenethiker Oliver Bendel ein Interview, das am 11. bzw. 12. April 2017 veröffentlicht wurde. Eine Frage lautete: „Kann man in Bezug auf bestimmte Programme oder Roboter überhaupt von Moral oder Unmoral sprechen? Können Maschinen gut oder böse sein?“ Die Antwort: „Da sind wir mittendrin in der Maschinenethik. Wir kennen seit 2500 Jahren die Ethik als eine Disziplin, die sich ausschließlich auf Menschen richtete. Jetzt haben wir es mit neuen Subjekten der Moral zu tun, eben Maschinen. Natürlich sind sie nicht gut oder böse, weil sie keinen eigenen Willen, kein Bewusstsein haben. Aber sie treffen, teilautonom oder autonom, bestimmte moralisch relevante Entscheidungen.“ Eine ähnliche Diskussion begann mit der Disziplin der Künstlichen Intelligenz. Viele Experten verwenden den Begriff der künstlichen Intelligenz (der auf den Gegenstand der Disziplin verweist) metaphorisch oder intentional. So kann man es auch bei der „maschinellen Moral“ machen. Die letzte Frage lautete: „Werden intelligente Roboter irgendwann einmal die Menschheit bedrohen?“ Oliver Bendel antwortete dem Journalisten: „Dass sich Roboter zusammenrotten, um uns Menschen zu eliminieren, halte ich für surreal. Dass Maschinen zu Rassisten werden können, ist schon Realität.“ Das Interview kann über www.zeit.de/2017/16/kuenstliche-intelligenz-moral-maschinenethik-interview nachgelesen werden.
„Android oder Maschine?“ Das fragt die neue Ausgabe der Zeitschrift designreport (Erscheinungsdatum 13. April 2017). In der Ankündigung wird deutlich, worum es geht: „Kaum ein Technologiebereich entwickelt sich derzeit so dynamisch wie die Robotik. Unterstützt von den Fortschritten der Künstlichen Intelligenz steigern sich die Autonomie und damit auch die Anwendungsszenarien automatischer Systeme. Längst geht es nicht mehr nur um Industrieroboter, sondern um persönliche Alltagsassistenten, um Roboter für Medizin, Logistik, Sicherheit oder Mobilität. Die Artenvielfalt der Automaten wächst dynamisch – und damit eine ganz neue Aufgabe für das Design. Dabei geht es nicht nur um die Frage, ob und wie humanoid die neuen Roboter sein dürfen. Es geht vielmehr um die Gestaltung eines neuen technologischen Abschnittes und um die Art, wie wir künftig leben sowie arbeiten wollen. Das Design hat wesentlichen Einflussauf die Nutzungsszenarien, aber auch auf die Akzeptanz der Maschinen.“ (Website designreport) Die Redakteure stellen die neuesten Entwicklungen vor und berichten über einen Besuch der Ausstellung „Hello Robot“ in Weil am Rhein. Enthalten sind auch Interviews, mit einem KUKA-Entwickler zu Industrierobotern und mit Oliver Bendel (Hochschule für Wirtschaft FHNW) zur Maschinenethik. Weitere Informationen über www.designreport.de (Link nicht mehr gültig).
Den Session Chair für die Talk Session 5 („Miscellaneous“) beim AAAI Spring Symposium „AI for Social Good“ hatte Amulya Yadav inne. Er ging auf die Methoden und Strategien im Bereich „AI for Social Good“ ein, erwähnte den Belmont-Report und wertete ihn für den gegebenen Kontext aus. „Optimal Thresholds for Intrusion Detection Systems“ wurde von Yevgeniy Vorobeychik vorgetragen (Paper zusammen mit Aron Laszka, Waseem Abbas u.a.). Die Methoden wurden auf „Water Distribution Networks“ angewandt. Das Referat von Evan Patterson trug den Titel „Machine representation of Data Analyses“ (Paper mit Ioana Baldini, Aleksandra Mojsilovic und Kush Varshney). Er ging aus von einer Case Study namens „Accelerated Cure Project“ und fragte nach neuen Arten von „data science platforms“. Oliver Bendel ging in „Towards Kant Machines“ (Paper zusammen mit Kevin Schwegler und Bradley Richards) auf das abgeschlossene LÜGENBOT-Projekt ein. Der LIEBOT ist in der Lage, systematisch zu lügen. Die Ergebnisse können dazu verwendet werden, solche natürlichsprachlichen Systeme zu entwickeln, die niemals oder selten lügen. Danach präsentierte er sein Paper „LADYBIRD: the Animal-Friendly Robot Vacuum Cleaner“. LADYBIRD erkennt Marienkäfer und stellt, wenn ihm diese zu nahe kommen, seine Arbeit ein. Der Prototyp wird zurzeit an der Hochschule für Wirtschaft FHNW entwickelt. Erisa Karafili offerierte eine „Argumentation-based Security for Social Good“ (Co-Autoren sind Antonis C. Kakas, Nikolaos I. Spanoudakis und Emil C. Lupu), Mahendra Prasad reiste „Back to the Future“, mit „A Framework for Modelling Altruistic Intelligence Explosions“ im Gepäck. Um 17.30 Uhr – nach einer angeregten Plenumsdiskussion – war das Symposium vorbei. Für den Abend und den Morgen des darauffolgenden Tages waren weitere allgemeine Veranstaltungen innerhalb der AAAI 2017 Spring Symposia geplant.
Weiter ging es mit dem AAAI Spring Symposium „AI for Social Good“ am 27. März 2017 um 14.00 Uhr mit der Talk Session 1 („Healtcare“). Den Session Chair hatte Eric Horvitz (Technical Fellow & Managing Director, Microsoft Research) inne. Er führte aus technisch-mathematischer Perspektive in die Thematik ein. Lanbo She (Michigan State University) begann mit „Teaching and Checking of Constraints for Surgical Tray Layout“. Er schlug einen Agenten vor, der beim korrekten Zusammenstellen der Operationsinstrumente für unterschiedliche Situationen hilft. Co-Autor des Papers war Jonathan Connell (IBM T. J. Watson Research). Sujoy Chatterjee referierte anstelle von Malay Bhattacharya (Indian Statistical Institute, Kolkata) über „In Search of Health Doubles“. Nach ihrem Ansatz sollte man weltweit Personen identifizieren können, die in ihren biologischen Eigenschaften zu anderen Personen passen, denen damit geholfen werden kann. Arnaud Delaunay (LinkValue) ging in „Wandering Detection Within an Embedded System for Alzheimer Suffering Patients“ auf einen innovativen Ansatz für Alzheimer-Patienten ein, die mit einer Smartwatch ausgestattet und überwacht werden. Co-Autor des Papers war Jean Guerin. Der Vortrag von Yevgeniy Vorobeychik (Vanderbilt University) – das Paper wurde zusammen mit Bo Li, Muqun Li und Bradley Malin geschrieben – trug den Titel „Sanitizing Large-Scale Medical Records Before Publishing“ und stellte eine iterative Methode für „sanitizing data at scale“ vor.
Das AAAI Spring Symposium „AI for Social Good“ wurde am 27. März 2017 nach der Kaffeepause um 11.00 Uhr fortgeführt. Eric Rice (USC School of Social Work) und Sharad Goel (Stanford University) referierten in ihren Keynotes zum Thema „AI for the Social Sciences“. Ihr Ausgangspunkt: „While the public frets over a future threat of killer robots or the dream of a driverless car, computer scientists and social scientists can engage in novel solutions to vexing social problems today.“ (Website AISOC) Eric Rise ist Mitbegründer des USC Center for Artificial Intelligence in Society. Er stellte zuerst sein eigenes Forschungsfeld dar, die Sozialarbeit, und ging dann auf das Phänomen der Obdachlosen in den USA ein. Künstliche Intelligenz kann auch in diesem Feld angewandt werden, etwa indem man Netzwerke und ihre Mitglieder sichtbar macht und dann Personen dazu ermuntert, bestimmte Funktionen – etwa eines Anführers oder Vorbilds – zu übernehmen. Der Vortrag von Sharad Goel trug den Titel „Algorithms to assist judicial decision-making“. Der Assistenzprofessor am Department of Management Science & Engineering der Stanford University betonte, dass in diesem Bereich einfache, interpretierbare Regeln wichtig sind; die Urteile müssen nach seiner Meinung „fast, frugal and clear“ sein. Der Wissenschaftler gab ein Ende ein Versprechen „of greater efficiency, equity, and transparency“.
Wie Heise und andere Medien melden, fördern die Gründer von eBay und LinkedIn die Forschung zur Künstlichen Intelligenz in der Moral. Dabei werden fast zwangsläufig auch Maschinenethik und Roboterethik profitieren. „Mit 27 Millionen US-Dollar Vermögen soll ein neuer Stiftungsfonds die Forschung über KI und Ethik voranbringen.“ (Heise, 11. Januar 2017) Verwaltet werden soll der sogenannte Ethics and Governance of Artificial Intelligence Fund vom MIT Media Lab, vom Berkman Klein Centre an der Harvard University sowie von den Hauptspendern. Man wolle, so Heise, Debatten etwa darüber voranbringen, wie sich Sozialwissenschaften und Informatik für „Künstliche Intelligenzen“ verbinden lassen, die – damit wird Media-Lab-Leiter Joi Ito zitiert – „nicht nur smart, sondern auch sozial verantwortungsbewusst“ sind (Heise, 11. Januar 2017). KI und Ethik sind auch das Thema bei der AAAI-Konferenz in Stanford mit dem Titel „AI for the Social Good“ im März 2017. Weitere Informationen über www.heise.de/newsticker/meldung/Initiative-fuer-ethische-KI-Gruender-von-eBay-und-Linkedin-spenden-Millionen-3593842.html.
In der Februarausgabe von P.M. Magazin ist ein langes Interview mit Oliver Bendel abgedruckt. Am 9. September trafen sich der Redakteur Rüdiger Barth und der Wissenschaftler auf dem Campus Brugg-Windisch der FHNW und sprachen über Maschinenethik, Künstliche Intelligenz und Robotik. P.M. ist eine populärwissenschaftliche Zeitschrift und hat eine Auflage von ca. 163.000 Exemplaren. Der Titel des sechsseitigen Beitrags – neben dem Interview finden sich noch Informationen zu Oliver Bendel und zu den Robotikgesetzen von Isaac Asimov – lautet „Ich würde das Auto ein bisschen dumm lassen“. Der Informationsethiker und Maschinenethiker kann sich vorstellen, dass Autos klug genug sind, für bestimmte Tiere zu bremsen, wenn die Luft rein ist, sie aber zu dumm dafür sind, Menschen zu qualifizieren, auf ihre Eigenschaften zu schauen, um sie dann bei einem Unfall zu verschonen oder nicht zu verschonen, was man wiederum als klug bezeichnen könnte, da es keine befriedigenden Lösungen für solche Entscheidungen gibt. Auch das Quantifizieren ist, zumindest bei kleinen Zahlen, nicht angemessen. Warum sollte jemand getötet werden, nur weil zwei Passanten in der Nähe stehen? Kaum jemand würde das akzeptieren, der Betroffene nicht, die Familie nicht, die Freunde nicht. Die zwei Passanten wären natürlich aufgeschlossener für solche Abwägungen, aber auch nur, wenn sie zusammen unterwegs sind und nicht alleine, was wiederum die Ungerechtigkeit zeigt. Solche Gedankenspiele dürfen nicht mit der Wirklichkeit verwechselt werden. Sie sind aber ein klassisches Mittel, um Grundannahmen und Widersprüche zu erkennen und am Ende die Wirklichkeit auch gestalten zu können.
Abb.: Wie entscheidet das Auto, wenn man es lässt?
Vom 27. bis 29. März 2017 finden die AAAI 2017 Spring Symposia statt. Veranstaltet werden sie von der Association for the Advancement of Artificial Intelligence, in Kooperation mit dem Department of Computer Science der Stanford University. Das Symposium „AI for the Social Good“ an der Stanford University widmet sich auch Themen der Roboter- und der Maschinenethik. Auf der Website heißt es: „A rise in real-world applications of AI has stimulated significant interest from the public, media, and policy makers, including the White House Office of Science and Technology Policy (OSTP). Along with this increasing attention has come media-fueled concerns about purported negative consequences of AI, which often overlooks the societal benefits that AI is delivering and can deliver in the near future. This symposium will focus on the promise of AI across multiple sectors of society.“ (Website AISOC) In einer Talk Session spricht Oliver Bendel über „LADYBIRD: the Animal-Friendly Robot Vacuum Cleaner“. In der Lightning Talks Session ist er nochmals vertreten, mit dem Vortrag „Towards Kant Machines“. In der gleichen Session referiert Mahendra Prasad über „A Framework for Modelling Altruistic Intelligence Explosions“ (vorangestellt ist der Titel „Back to the Future“), und Thomas Doherty geht der Frage „Can Artificial Intelligence have Ecological Intelligence?“ nach. Das ganze Programm kann über scf.usc.edu/~amulyaya/AISOC17/papers.html aufgerufen werden.
Die Oesterreichische Kontrollbank Aktiengesellschaft widmet die aktuelle Ausgabe von RELEVANT (4/2016) der Künstlichen Intelligenz. „Wenn Maschinen denken“ heißt der Schwerpunkt. Im Inhaltsverzeichnis wird Appetit auf das Thema gemacht: „Erst lernten Computer das Rechnen, nun lernen sie Autos zu fahren, Forschungshypothesen aufzustellen und Steuersünder zu finden – besser als wir Menschen. Sind dadurch unsere Arbeitsplätze in Gefahr?“ (RELEVANT, 4/2016) Im Magazin finden sich u.a. Interviews mit dem Informatiker Stefan Woltran (TU Wien und Universität Leipzig) und dem Maschinenethiker Oliver Bendel (Hochschule für Wirtschaft FHNW). „Die Oesterreichische Kontrollbank Aktiengesellschaft (OeKB) ist Österreichs zentraler Finanz- und Informationsdienstleister für Exportwirtschaft und Kapitalmarkt. Ihre speziellen Services stärken den Standort Österreich und unterstützen die Wirtschaft im globalen Wettbewerb. Die vielfältigen Dienstleistungen stehen Unternehmen und Finanzinstitutionen sowie Einrichtungen der Republik Österreich zur Verfügung.“ (Website OeKB) Das gesamte Heft kann hier heruntergeladen werden.
Ein langes Interview mit dem Informations- und Maschinenethiker Oliver Bendel hat Jennifer Appel von der internationalen Agentur Maisberger geführt. Die erste Frage lautet: „Roboter werden immer intelligenter. Wie sehen Sie diese Entwicklung? Wird unser Leben leichter oder müssen wir am Ende doch befürchten, dass uns das Ruder aus der Hand genommen wird?“ Die Antwort: „Roboter können uns unterstützen, etwa bei schweren körperlichen Tätigkeiten, und damit unserer Gesundheit zuträglich sein. Beispielsweise drücken sie bereits heute als Leichtbauroboter in einem Autowerk in Spartanburg die Türdichtung in eine Autotür, übrigens direkt neben dem Arbeiter, der leichteren Aufgaben nachgehen darf und dessen Handgelenk geschont wird, oder helfen dem Pfleger, einen Patienten umzubetten. Roboter können uns auch ersetzen. Die Industrie 4.0 baut geradezu auf die möglichst vollständige Substitution von Menschen in der Produktion. Das Ruder in der Hand behält der Manager. Aus der Hand nehmen es uns manche Softwareroboter und KI-basierte Programme, die uns als Verdächtige einstufen oder unsere Kreditwürdigkeit beurteilen. Dass Roboter die Weltherrschaft übernehmen, wie manche glauben, dürfte unwahrscheinlich sein.“ Auch um den Kampfroboter geht es; bereits in der Überschrift heißt es über ihn: „… am Vergewaltigen hat er zumindest kein emotionales Interesse“. Dennoch lehnt Oliver Bendel seinen Einsatz ab. Das ganze Interview kann seit Dezember 2016 über http://www.maisberger.de nachgelesen werden.