Maschinen in Entscheidungsnot

Der Beitrag „Wer ist verantwortlich, wenn die künstliche Intelligenz versagt?“ wird am 17. Mai 2016 auf Deutschlandradio Kultur wiederholt. Heiner Kiesel widmet sich erneut – wie am 12. Januar 2016 – „Maschinen in Entscheidungsnot“. Im Ankündigungstext auf der Website heißt es: „In den 30er-Jahren des letzten Jahrhunderts hat der Biochemiker und Science-Fiction-Autor Isaac Asimov drei einfache Gesetze für Roboter aufgestellt. Damit sollte die Gefährdung von Menschen durch autonome Systeme ausgeschlossen werden. In der Gegenwart nimmt die Selbstständigkeit von Robotern konkrete Züge an. Selbststeuernde Autos nehmen am Straßenverkehr teil, Pflegeroboter werden für den Einsatz in Pflegestationen getestet und das Militär forscht mit Hochdruck an Kampfrobotern, die ihre Aufträge effizient und autonom abarbeiten. Wir sind dabei, viele Entscheidungen an die dienstfertigen Maschinen zu übergeben. Es wird unser Leben verändern. Aber während die technische Entwicklung rasant voranschreitet, gibt es kaum eine Perspektive darauf, wie die Gesetze heute aussehen müssen, die die rechtlichen und gesellschaftlichen Folgen unter Kontrolle bringen.“ (Website Deutschlandradio Kultur) Der Beitrag mit Statements von Oliver Bendel und Eric Hilgendorf beginnt kurz nach 19:00 Uhr. Weitere Informationen über www.deutschlandradiokultur.de/.

calculator

Abb.: Was ist, wenn der Roboter sich verrechnet?

Interview zu Roboterautos

Deutschlandradio Kultur ist am Dienstag, 12. April 2016, im Gespräch mit Oliver Bendel. Der Wirtschaftsinformatiker und Maschinenethiker lebt in Zürich und forscht und publiziert seit Jahren über moralische Maschinen, seien es selbstständig fahrende Autos, Pflege- und Therapieroboter, zivile Drohnen oder Chatbots. Nana Brink ist als Autorin und Moderatorin unterwegs, für taz, SPIEGEL, Focus und Deutschlandradio. Ab 7.40 Uhr wird sie Fragen stellen zu autonomen Autos und deren Möglichkeiten, vor und während der Fahrt etwas zu lernen. Oliver Bendel ist skeptisch gegenüber komplexen moralischen Maschinen, die in offenen Welten verkehren und über Tod und Leben von Menschen entscheiden. Sein Interesse gilt einfachen moralischen Maschinen, ob im Haushalt oder in der Fabrikhalle. Dort sollen Geräte und Roboter besser sein als vorher, auch im moralischen Sinne. Beispiele sind Saugroboter, die Marienkäfer verschonen, und 3D-Drucker, die keine Waffen produzieren. Das Interview wird live geführt. Weitere Informationen gibt es über www.deutschlandradiokultur.de – dort ist zum gegebenen Zeitpunkt auch der Podcast zu finden.

printer

Abb.: Der 3D-Drucker kann sich weigern, eine Waffe auszudrucken

KI im Deutschlandradio

„Wer ist verantwortlich, wenn künstliche Intelligenz versagt?“ Die Sendung bei Deutschlandradio Kultur vom 12. Januar 2016 mit diesem Titel widmete sich aktuellen Entwicklungen in der Robotik und in Roboter- und Maschinenethik. Zu Wort kommen u.a. Eric Hilgendorf, Experte für Roboterrecht an der Universität Würzburg, Ken Goldberg, Robotiker an der University of California, und Oliver Bendel, Informationsethiker und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Zu Ken Goldberg wird auf der Website gesagt: „Ken Goldberg von der University of California in Berkley Kalifornien ist einer der renommiertesten Robotik-Wissenschaftler weltweit. Er spricht von der Revolution, die auf seinem Arbeitsgebiet gegenwärtig stattfindet. Die Vernetzung von fast allem mit allem – Web 4.0 befreit auch die Roboter aus ihrer Isolation. Sie können nun direkt voneinander und von den Menschen lernen und auf unerhörte Rechnerkapazitäten zugreifen. Cloud Robotics nennt Goldberg das Konzept.“ (Website DRadio Kultur, 12. Januar 2016) Oliver Bendel wird mit diesen Worten vorgestellt: Er „ist Philosoph und Professor für Wirtschaftsinformatik an der Fachhochschule der Nordwestschweiz“. „Bei ihm spürt man die Neugier darauf, was da zwischen Menschen und Maschinen entsteht. Es ist schon mehr ein Miteinander. Am Arbeitsplatz müssen die Roboter aufpassen und ausweichen, um niemanden anzufahren oder mit den Greifern zu verletzen. Und wir Menschen tun gut daran, die Umgebung übersichtlich zu strukturieren, damit sich die Maschinen zurechtfinden.“ (Website DRadio Kultur, 12. Januar 2016) Der Beitrag kann über ondemand-mp3.dradio.de angehört werden.

AI_small

Abb.: Die KI greift nach den Sternen

Kann man Robotern Moral beibringen?

„Kann man Robotern Moral beibringen?“ Zu dieser Frage ist Liane von Billerbeck vom Deutschlandradio Kultur im Gespräch mit Janina Sombetzki, Philosophin an der Christian-Albrechts-Universität Kiel. Anlass ist deren Vortrag beim Internationalen Festival der Philosophie phil.COLOGNE im Mai 2015. Im Gespräch geht es u.a. um Serviceroboter und spezieller um Pflegeroboter. Von Billerbeck führt an einer Stelle aus: „Da ist ein Roboter im Haushalt eines pflegebedürftigen Menschen, um ihr oder ihm Hilfe zu leisten, das Leben zu erleichtern. Er ist auf bestimmte Arbeiten programmiert, jemanden füttern beispielsweise. Was aber, wenn der Betreute nicht mehr essen will und der Roboter aber sein Programm durchzieht?“ (Deutschlandradio, 27. Mai 2015) Auch Grundsätzliches wird erörtert, etwa die Frage der Autonomie. Die Philosophin plädiert für einen Begriff „im starken Sinne“: „Autonomie ist überall dort, wo wir unserem Handeln Gründe setzen. Bei Menschen ist das relativ einfach, da sagt man: wie kommen wir zu unseren guten Gründen? Durch Erziehung beispielsweise, durch Bildung, durch Kommunikation. Und bei Maschinen müssten wir dann sagen: Die guten Gründe stellen sozusagen die Programmierung dar.“ (Deutschlandradio, 27. Mai 2015) Das ganze Interview ist nachzuhören und nachzulesen über www.deutschlandradiokultur.de.