Auch Maschinen brauchen Moral

Im Beitrag „Auch Maschinen brauchen Moral“ von Marlene Nowotny wird auf die Forschung von Matthias Scheutz, Professor für Cognitive and Computer Science und Direktor des Human-Robot Interaction Laboratory an der Tufts University in Massachusetts, eingegangen. „Je selbstständiger diese Maschinen in sozialen Kontexten agieren, desto besser müssen sie mit Konfliktsituationen umgehen können.“ (Website ORF, 1. September 2015) Scheutz arbeite „daran, Robotern genau diese Fähigkeit zu geben“. „Eine solche ethische Kontrollarchitektur für Roboter könnte auch bei selbstfahrenden Autos zum Einsatz kommen. Die entsprechende Robotertechnologie ist hier bereits vorhanden – die Fahrzeuge können u.a. einschätzen, ob der Fahrer vor ihnen risikoaffin ist oder nicht -[,] aber die selbstfahrenden Autos sind nicht in der Lage, in Krisensituationen Entscheidungen zu treffen.“ (Website ORF, 1. September 2015) Im Gegensatz zu Autos mit Notbremsassistenten – die Technik ist also teilweise verfügbar, an der Moral wird noch gefeilt. Interessant ist der Hinweis auf aktuelle Forschungsergebnisse von Scheutz: „In solchen Situationen ein Urteil zu bilden, ist kompliziert genug. Doch es kommt erschwerend hinzu, dass Menschen an Roboter höhere ethische Erwartungen haben als an ihre Mitmenschen.“ Der Beitrag ist am 1. September 2015 erschienen und kann über science.orf.at/stories/1762399/ abgerufen werden.