Schlagworte: Militärethik

Kriegsroboter und Maschinenethik

Im „Handbuch Maschinenethik“, seit 2016 von Prof. Dr. Oliver Bendel herausgegeben, ist der 17. Beitrag erschienen, mit dem Titel „Autonome Waffensysteme/Kriegsroboter“. Autorin ist Prof. Dr. Catrin Misselhorn. Aus dem Abstract: „Kriegsroboter sind der kontroverseste Anwendungsbereich der Maschinenethik. Viele namhafte Vertreter der KI-Forschung und prominente Wissenschaftler fordern sogar ein Verbot letaler autonomer Waffensysteme. Dieser Beitrag setzt sich mit dem Versuch auseinander, autonome Waffensysteme im Rahmen der Maschinenethik mit einem Ethikmodul auszustatten. Die moralischen Grundprinzipien leiten sich aus dem Völkerrecht ab, welches auf der traditionellen Theorie des gerechten Kriegs beruht. Argumente zugunsten von Kriegsrobotern mit einem Ethikmodul werden ebenso behandelt wie die Kritik daran. Die drei wichtigsten Gegenargumente betreffen das Entstehen einer Verantwortungslücke, den Wert der Möglichkeit, anders zu handeln, sowie die Annahme einer Pflicht zu töten, welche der Einsatz autonomer Waffensysteme voraussetzt. Zum Schluss wird kurz auf mögliche Parallelen zum autonomen Fahren eingegangen.“ Die nächsten fünf Beiträge, u.a. von Prof. Dr. Julian Nida-Rümelin, Prof. Dr. Dr. Eric Hilgendorf und Prof. Dr. Armin Grunwald, erscheinen in den nächsten Wochen. Dann kommt die gedruckte Ausgabe auf den Markt. Alle bisherigen Beiträge sind über link.springer.com/referencework/10.1007/978-3-658-17484-2 verfügbar.

Abb.: Eine fremdartige Waffe

Für ein Verbot von Kampfrobotern

KI-Forscher und Robotiker sowie weitere Wissenschaftler aus aller Welt haben das Verbot von autonomen Waffensystemen, etwa Kampfrobotern, gefordert. Zu den Unterzeichnern des offenen Briefs gehören der Physiker und Astrophysiker Stephen Hawking, der Apple-Co-Founder Steve Wozniak und der Sprachwissenschaftler und Linksintellektuelle Noam Chomsky. Manche Experten lehnen Kampfroboter ab, weil diese falsche Entscheidungen treffen und die Bevölkerung verunsichern können, andere weisen darauf hin, dass Maschinen anders als Menschen nicht zu Plünderungen, Brandschatzungen und Vergewaltigungen neigen und somit die Nebenschauplätze von Kriegen menschlicher gestaltet werden können. Zudem könne man das Leben derjenigen Soldaten schützen, die von den Robotern unterstützt oder ersetzt werden. Der offene Brief wurde bei der Eröffnung der IJCAI 2015 Conference am 28. Juli 2015 präsentiert. Unterschrieben hat ihn auch der Maschinenethiker Oliver Bendel, der in seinen Fachartikeln nicht zuletzt Kampfdrohnen thematisiert hat und der Robotern, die komplexe Entscheidungen mit moralischen Implikationen zu treffen haben, ausgesprochen kritisch gegenübersteht. Er spricht sich für sogenannte einfache moralische Maschinen aus.

star_wars

Abb.: Damals war alles noch Science-Fiction

Kampfroboter mit Moralempfinden

Wie verschiedene Medien melden, will das US-Militär „Roboter mit Moralempfinden entwickeln“. Das will es schon lange, aber nun wird die Öffentlichkeit informiert. Auf GIZMODO heißt es: „Über die nächsten fünf Jahre stellt eine Abteilung des US-Verteidigungsministeriums, das Office of Naval Research, 7,5 Mio. US-Dollar (etwa 5,5 Mio. Euro) für Universitätsforschung zur Verfügung, um Roboter zu entwickeln, die richtig und falsch unterscheiden können. So könnten autonome Kampfsysteme effektiver und selbstständiger operieren. Manch ein Wissenschaftler glaubt sogar, dass solche Maschinen bessere Entscheidungen als Menschen treffen könnten, da sie einfach klaren Regeln folgen, um die Chancen und Risiken von Operationen zu bewerten.“ Es ist wichtig, die Maschinenethik möglichst unabhängig von militärischer Forschung zu halten und die zivile, kommerzielle Nutzung voranzutreiben. Dass dies nicht einfach sein wird, liegt auf der Hand.

Soldier_Robot

Abb.: Soldier Robot