Tweets auch zur Maschinenethik

Einer der aktivsten Twitter-Accounts zur Ethik ist „Informationsethik“ mit dem Benutzernamen @Infoethik. In der Kurzbeschreibung heißt es: „Infos zur Informationsethik (Computer-, Netz- und Neue-Medien-Ethik) sowie zu Maschinen-, Technik-, Wirtschafts-, Politik-, Medizin- und Tierethik.“ Es handelt sich um einen klassischen Kurznachrichtendienst, der auf Artikel, Studien und Veranstaltungen hinweist. Die Tweets haben einen strengen Aufbau: Auf den zitierten Titel folgt der Link zum Beitrag, darauf eine Zusammenfassung, die häufig ein weiteres Zitat enthält. In seltenen Fällen steht anstelle der Zusammenfassung ein Kommentar. Jeder Tweet wird verschlagwortet, i.d.R. mit Hashtags zu den Bereichsethiken wie #Informationsethik und #Maschinenethik (als Teilbereichsethik bzw. Pendant zur Menschenethik). „Informationsethik“ ist wie die Plattformen informationsethik.info, informationsethik.net und maschinenethik.net der philosophischen, wissenschaftlichen Ethik verpflichtet.

MOOC zur Technikethik

Der Coursera-Kurs „Technology and Ethics“ von Robert Bailey (The Ohio State University) findet ab 21. April 2014 statt und dauert sieben Wochen. Das Arbeitspensum beträgt laut Anbieter 3 bis 5 Stunden pro Woche, die Sprache ist Englisch. Der Kursinhalt wird wie folgt beschrieben: „Example technologies at play today include nuclear energy; biological manipulations for warfare; robots for taking care of the elderly, and enhancing human capability; the use of technology for surveillance; the cultural changing power of the media which can create unlimited arrays of images real and virtual to support a point of view; and the internet with its world wide connectivity.“ (Website des Anbieters) Ob im Falle der Pflege- und Haushaltsroboter auch die Maschinenethik einbezogen wird, ist nicht bekannt. Die Medizinethik wird sicherlich berücksichtigt. Weitere Informationen über https://www.coursera.org/course/techethics.

Ich bremse auch für Tiere

Der Artikel „Ich bremse auch für Tiere: Überlegungen zu einfachen moralischen Maschinen“ von Oliver Bendel ist am 4. Dezember 2013 in inside-it.ch erschienen (direkt über www.inside-it.ch/post/ich-bremse-auch-fuer-tiere-20131204). Er hebt an mit den Worten: „Wie kann man gute Autos noch besser machen? Oder gute Drucker? Oder gute Sauger? Indem man ihnen Manieren und Moral beibringt. Für das eine ist der Knigge zuständig, für das andere die Philosophie – seit nunmehr 2500 Jahren.“ Es wird kurz erläutert, was Maschinenethik ist und was „Moralisieren“ im vorliegenden Kontext bedeutet – dann werden verschiedene Beispiele genannt, die teilweise auch für IT-Unternehmen relevant sind und mehrheitlich mit dem Leben oder dem Tod von Menschen und Tieren zu tun haben. Konkret werden Chatbots, Haushalts- und Gartenroboter, private Drohnen, selbstständig fahrende Autos, Windkraftanlagen und 3D-Drucker aus Sicht der Maschinenethik skizziert. Damit denkt der Autor das Konzept der einfachen moralischen Maschinen weiter, das er auf der Plattform KMU Business World entwickelt hatte. Der Beitrag endet mit dem Satz: „Jedes (teil-)autonome System steht eines Tages vor der gleichen Herausforderung. Es kann gut sein und bleiben – oder es kann besser werden, als Teil einer technischen und moralischen Evolution.“

Abb.: Ich bremse auch für Tiere

Buridans Robot

Buridans Esel ist in der ursprünglichen Version von Aristoteles ein Mann, der zwischen Speis und Trank verenden muss, weil er genauso hungrig wie durstig ist. Schon dieser Mann ist offensichtlich ein Esel, weil er sich nicht zwischen verschiedenen Dingen mit gleichen Reizen entscheiden kann. Buridan selbst, der zu Unrecht als Urheber des Gleichnisses gilt, spricht von einem Wanderer und einem Segler, in einem Kommentar zu einem Text des alten Griechen auch von einem Hund, der zwei Lebensmittel – um es frei zu übertragen – ratlos beäugt und beschnuppert. Das Grautier haben vermutlich die Gegner des Philosophen und Physikers aus dem 14. Jahrhundert erfunden, um die vermeintliche Eselei zu veranschaulichen. Es handelt sich aber keineswegs um eine solche, sondern um ein Gedankenexperiment, das bis heute von Interesse und Bedeutung ist. Dieses Experiment wird im Artikel „Buridans Robot“ von Oliver Bendel in der modernen Welt durchgeführt. Es geht um maschinelle Dilemmata und mögliche Lösungsstrategien. Der Artikel ist am 20. November 2013 bei Telepolis erschienen.

Abb.: Ist das Buridans Esel?

Ethik für Roboter

Prof. Dr. Robert Trappl hält am 12. November 2013 am Austrian Research Institute for Artificial Intelligence (OFAI) einen Vortrag mit dem Titel „Ethik für Roboter – ein brisantes Forschungsgebiet“. In der Pressemitteilung heißt es: „Wenn Roboter Partner am Arbeitsplatz werden oder wenn sie für längere Zeit mit älteren Menschen oder Menschen mit speziellen Bedürfnissen zusammenleben werden, um ihnen ein selbstbestimmtes Leben in ihren eigenen Räumen zu ermöglichen, werden durch diese komplexen sozialen Situationen immer häufiger ethische Fragen und deren Beantwortung eine Rolle spielen.“ Im September 2013 waren auf Einladung des OFAI Wissenschaftlerinnen und Wissenschaftler „aus Frankreich, den Niederlanden, Österreich, Portugal, Ungarn und den USA in Wien zusammengekommen, um Voraussetzungen, Methoden, Implementierungen und Tests für ein Entwicklungshandbuch für ethische Systeme für Roboter zu diskutieren“ (Zitat aus der Pressemitteilung). In dem Vortrag wird eine Einführung in das Forschungsgebiet gegeben, und es werden erste Ergebnisse präsentiert. Er findet ab 18.30 Uhr am Institut (Freyung 6, Stiege 6, 1010 Wien, Österreich) statt.

Machine Ethics in the Context of Medical and Care Agents

Steve Torrance, Mark Coeckelbergh, Johnny Soraker, Blay Whitby und Aimee van Wynsberghe haben als Organisationskomitee einen Call for Abstracts mit dem Titel „Machine Ethics in the Context of Medical and Care Agents“ veröffentlicht. Sie schreiben auf der Website der International Society for Presence Research: „We are pleased to announce a Symposium on Machine Ethics in the Context of Medical and Care Agents, as part of the AISB-50 Annual Convention 2014 to be held at Goldsmiths, University of London, between April 1st and 4th, 2014 … The Convention is organised by the Society for the Study of Artificial Intelligence and Simulation of Behaviour (AISB) (http://www.aisb.org.uk).“ Im Programmkomitee sind Michael Anderson, Patrick Lin, Wendell Wallach und andere Pioniere der Maschinenethik. Schwerpunkte sind u.a. „Theoretical issues in Machine Ethics/Ethics of Robotics, concerning MCAs“, „Practical issues in Machine Ethics/Ethics of Robotics, with respect to the health and social care fields“ und „The nature, scope and limitations of MCAs: immediate, medium and long-term issues“. Beiträge können bis zum 3. Januar 2014 eingereicht werden. Weitere Informationen über http://ispr.info.

Drohnen schonen Vögel

Die Website trendexplorer.com hat im Oktober 2013 über eine kommerziell genutzte Drohne mit interessanten Fähigkeiten berichtet. „Der australische Buchverleih Zookal hat in Sydney damit begonnen, Fachbücher mittels selbst navigierender Drohnen an die Kunden auszuliefern.“ (Website trendexplorer.com) Die Unmanned Air Vehicles (UAV) seien von der University of Sydney entwickelt worden. Sie „verfügen über eine GPS-Navigation und ein Antikollisionssystem“ (Website trendexplorer.com). Damit können sie beliebigen Hindernissen ausweichen, etwa – so die Autoren – „Vögeln, Bäumen und Hauswänden“. Es wird also keine eigentliche moralische Entscheidung getroffen, aber die Entscheidung hat moralische Konsequenzen: Die Drohne verschont tierisches Leben (und verlängert damit ihre eigene Existenz). Die Zustellung der Bücher erfolgt nach Angaben von trendexplorer.com binnen weniger Stunden und „ist um ein Drittel günstiger als andere Arten von Same-Day-Lieferservices“ (Website trendexplorer.com). Im deutschsprachigen Raum werden einige tausend private und kommerzielle Drohnen betrieben. Sollten sich diese weiterhin stark vermehren, müssten sie teilweise als eigentliche moralische Maschinen umgesetzt werden.

Abb.: Eingesetzt werden Quadrokopter

Dr. Robot entdeckt die Moral

Operations-, Pflege-, Therapie- und Sexroboter verbreiten sich rasant. Sie operieren, behandeln, betreuen, kuscheln und plaudern. Maschinen- und Roboterethik fragen danach, wie man diese Roboter in moralischer Hinsicht verbessern kann. Und verschiedene Bereichsethiken danach, ob es moralisch vertretbar ist, dass wir solche Maschinen einsetzen. Der Artikel „Dr. Robot entdeckt die Moral“ von Oliver Bendel ist im Herbst 2013 in der Schweizer Zeitschrift IT for Health erschienen und steht auf maschinenethik.net mit freundlicher Genehmigung des Verlags kostenlos zum Download bereit (Quelle: © Netzmedien AG, 2013; eine weitere Zeitschrift aus dem Haus ist die Netzwoche, www.netzwoche.ch).

Maschinenmedizinethik

Abb.: Infobox aus dem Artikel

Der Lügenbot und andere Münchhausen-Maschinen

In seinem Artikel „Der Lügenbot und andere Münchhausen-Maschinen“ geht Oliver Bendel der Frage nach, ob Chatbots, Roboter und andere Maschinen lügen können. Dabei betont er die Sprachlichkeit des Lügens. Wer etwas sagen kann, so der Autor, der kann auch die Unwahrheit sagen. Den meisten Maschinen unterstellen wir, dass sie die Wahrheit sagen. Wir vertrauen den Aussagen einer Anna von Ikea, einer Siri von Apple und von Wolfram Alpha. Aber alle drei könnten ganz anders, wenn sie – oder ihre Entwickler – wollten. Man könnte Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich irritiert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Artikel ist am 11. September 2013 auf der Plattform CyberPress erschienen und direkt über www.mittelstandswiki.de/wissen/Gastbeitrag:Maschinenethik aufrufbar.

Abb.: Der Baron von Münchhausen

Asimovs Automatobile

In seiner Kurzgeschichte „Sally“ aus dem Jahre 1953 beschreibt Isaac Asimov in visionärer Weise die Funktionen sowie die Chancen und Risiken selbstständig fahrender Autos. Heute nehmen Assistenzsysteme von Bosch und Continental dem Lenker immer mehr Aktionen ab. Das selbstständig fahrende Auto ist morgen nicht mehr Prototyp, sondern Alltag. Es wird in Situationen geraten, in denen moralische Fähigkeiten von Vorteil sind. Man wird bei Asimov bereits mit Problemen konfrontiert, die in der Maschinenethik diskutiert werden. Oliver Bendel wirft in seinem Beitrag „Asimovs Automatobile“ – erschienen am 27. August 2013 im Online-Magazin Telepolis – einen Blick in die Vergangenheit der Fiktion und die Zukunft der Wirklichkeit. Und fragt sich: „Wer bleibt am Ende des Tages auf der Strecke?“

Abb.: Ein Cabrio wie Sally

Wenn Autos töten

Filmstudenten der Filmakademie in Ludwigsburg haben eine Abschlussarbeit vorgelegt, mit der Daimler „nicht ganz einverstanden“ (Artikel auf Spiegel Online, 23. August 2013) ist. Das Unternehmen sieht sich plötzlich in einer Diskussion innerhalb der Maschinenethik. Bereits ein Artikel in der Süddeutschen vom 3. Juli 2013 hatte Fragen aufgeworfen. Darin hieß es: „So erkennt die neue S-Klasse beispielsweise durch ein Nachtsichtgerät Tiere bei Dunkelheit, kann sie von Fußgängern unterscheiden und leitet für Menschen gegebenenfalls selbständig ein [!] Vollbremsung ein.“ Daimler (Abteilung Research & Development, Center Vehicle Concepts and Future Trends, Society and Technology Research Group) hat im August 2013 dem Betreiber dieses Blogs auf Anfrage mitgeteilt, dass das Nachtsichtsystem ein rein informierendes System sei. Bremsungen „auf detektierte Objekte“ würden nicht eingeleitet. Wenn dies doch der Fall ist, handelt es sich um eine Entscheidung mit moralischen Implikationen. In dem Video der Studenten erkennt der Mercedes, dass ein kleiner Junge eines Tages viel Unheil anrichten wird – und tötet ihn. Das ist natürlich Science-Fiction, aber man wird auf unterhaltsame Weise ins Zentrum der Maschinenethik geführt. Und wird nicht nur mit eindrücklichen Bildern, sondern auch mit dieser prägnanten Aussage konfrontiert: „Erkennt Gefahren, bevor sie entstehen.“ Der Spiegel schreibt: „Zum Schluss bleiben drei Fragen: Wie sähe die Welt wohl aus, wenn Maschinen eine Seele hätten? Wohin könnte es führen, wenn die Technik Entscheidungen über Leben und Tod trifft? Darf ein entschlusskräftiger Sechszylinder sich über Grundlagen menschlichen Zusammenlebens hinwegsetzen, um die Weltgeschichte zu ändern?“ (Spiegel Online, 23. August 2013)

Konferenz Living Machines 2013

Vom 29. Juli bis zum 2. August 2013 fand im Natural History Museum von London zum zweiten Mal die Konferenz Living Machines statt. Die Macher schreiben auf ihrer Website: „This international conference is a Convergent Science Network event and is targeted at the intersection of research on novel life-like technologies inspired by the scientific investigation of biological systems – biomimetics, and research that seeks to interface biological and artificial systems to create biohybrid systems.“ Vorgestellt wurde unter anderem ein Plantoid, ein Pflanzenroboter, der Wurzeln bildet, entwickelt von Barbara Mazzolai vom Italian Institute of Technology (IIT) in Genua. Ein möglicher Einsatzbereich ist die Überwachung der Umwelt, etwa der Bodenzusammensetzung. Ebenfalls vorgestellt wurde der Vierbeiner HyQ, der rasch auf Hindernisse reagieren und recht elegant über sie hinwegsteigen kann. Aus Sicht der Maschinenethik stellt sich die Frage, ob man Robotern, die Pflanzen und Tieren nachempfunden sind, moralische Fähigkeiten verleihen sollte. Grundsätzlich spricht nichts dagegen, zumal moralische Fähigkeiten auch in Bezug auf selbstständig fahrende Autos und Algo-Trading-Systeme diskutiert werden. Die Moral der genannten Roboter könnte sich auf die Tiere beziehen, mit denen sie interagieren. Damit wäre auch die Tierethik mit im Boot.

Plantoid

Abb.: Grafik vom Plakat des Projekts (Quelle: www.plantoidproject.eu)

Über die Algorithmenethik

In einem Interview mit der TAZ vom 10. August 2013 spricht Yvonne Hofstetter auch über die Moral von Algorithmen. Die Geschäftsführerin der Teramark Technologies GmbH wird gefragt: „Algorithmen sind im Grunde Roboter. Gibt es für sie eine Ethik?“ Sie antwortet: „Die Technologen beschäftigen sich mit diesen Fragen. Welche Ethik, welche Moralvorstellungen brauchen wir? Was kann man in die Maschinen hinein programmieren? Aus der philosophischen Ecke, also von denen, die sich mit gesellschaftlichen Entwicklungen beschäftigen, kommt hingegen nichts oder wenig. Die Philosophie sieht offenbar noch nicht, dass eine Sturzwelle an intelligenten Technologien auf uns zurollt.“ Nun ist die Maschinenethik in den USA, in Kanada, Australien, Japan und Holland eine weit entwickelte Disziplin, zu der KI-Experten genauso beitragen wie Philosophen. Die Informationsethik, die sich auf die moralischen Implikationen des Einsatzes von Informations- und Kommunikationstechnologien bezieht, ist gar eine traditionsreiche Disziplin, auch in Bezug auf Algorithmen und Maschinen. Es ist aber in der Tat so, dass im deutschsprachigen Raum erheblicher Nachholbedarf besteht, dass die Ethik von Lobbyorganisationen bekämpft und von Kirchen missbraucht wird. Grundsätzlich muss man unterscheiden zwischen der Maschinenethik (begriffen als Pendant zur Menschenethik) und der Informationsethik, die Computer-, Netz- und Neue-Medien-Ethik umfasst. Beide sind wichtig, wobei die eine eher technologiegestaltend, die andere eher problemanalysierend und lebensgestaltend unterwegs ist und in gewisser Weise gilt: Die Informationsethik löst die Probleme, die die Maschinenethik verursacht.

Einfache moralische Maschinen

Eine Vorabveröffentlichung des Artikels „Einfache moralische Maschinen“ von Oliver Bendel bringt der Blog des Instituts für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW. Moralische Maschinen sind nach der Meinung des Philosophen und Wirtschaftsinformatikers bereits heute möglich. Man dürfe sie nur nicht zu kompliziert denken und zu komplex gestalten. Wenn es sich um spezialisierte autonome oder teilautonome Systeme handele, könne man bei ihren Kernfunktionen ansetzen und sie mit geringfügigen Änderungen, mit wenigen zusätzlichen Komponenten in einfache moralische Maschinen verwandeln. Wie das geschehen kann, wird an vier Beispielen gezeigt, an Servicerobotern, privaten Drohnen, Chatbots und selbstständig fahrenden Autos. Der Artikel erscheint im August 2013 auf der Plattform KMU Business World.

Abb.: Daraus kann man keine moralische Maschine machen

Wie viel Moral braucht eine Maschine?

In ihrem Artikel „Wie viel Moral braucht eine Maschine?“ in der Liechtensteiner Sonntagszeitung namens Liewo gibt Stephanie Büchel einen Überblick über den Stand der Diskussion in der Maschinenethik. Im Fokus sind selbstständig fahrende Autos. Aber auch Kampf-, Operations- und Pflegeroboter sind ein Thema: „Wie bringt man einem Roboter den Unterschied zwischen Gut und Böse bei? Wer ist Schuld, wenn ein Operationsroboter einen Kunstfehler begeht?“ Nicht fehlen darf Isaac Asimov mit seinen Robotergesetzen, die zu den beliebtesten Diskussionsgegenständen in der Maschinenethik gehören. Und die Frage nach den Rechten der Roboter, die nebenbei in der Roboterethik verhandelt werden und noch lange in den Bereich der Science Fiction gehören dürften. Die zentralen Konzepte der Maschinenethik haben dagegen, das zeigt auch die Verfasserin, eine hohe Alltagsrelevanz. Ihr Artikel ist am 2. Juni 2013 erschienen. Sie hat maschinenethik.net freundlicherweise ein PDF zur Verfügung gestellt.

Ein wirklich intelligentes Haus

In den VμE-Nachrichten, die vom Fraunhofer-Verbund Mikroelektronik herausgegeben werden, erschien im Juli 2013 ein Interview zu Informations- und Maschinenethik. Oliver Bendel erklärte, was man sich unter diesen Disziplinen vorstellen kann, ging auf die Einflussmöglichkeiten von Forschern ein und wünschte sich die Stärkung der philosophischen Ethik gegenüber der theologischen bzw. theonomen. Zwei Fragen von Tina Möbius betrafen die Sicht der Informationsethik auf aktuelle Forschungsfelder von Fraunhofer-Instituten, etwa auf Telemedizin und Smart Living. Bendel sprach sich für die informationelle Autonomie von Patienten aus und warnte vor unerwünschten Datentransfers aus den eigenen vier Wänden heraus: „Ein wirklich intelligentes Haus ist eines, das mich nicht in unangenehme Situationen bringt.“ Mit dieser Aussage war man am Ende bei der Maschinenethik angelangt. Die englischsprachige Zeitschrift ist als PDF verfügbar.

Abb.: Kein wirklich intelligentes Haus