Schlagworte: Stanford University

AAAI-Workshop zur Maschinenethik II

Beim Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University war bereits am Vormittag des 21. März motiviert referiert und diskutiert worden. Am Nachmittag begann Tom Lenaerts mit „Conditions for the evolution of apology and forgiveness in populations of autonomous agents“. Das Paper stammt von ihm, Luis Martinez-Vaquero, The Anh Han und Luis Moniz Pereira. Es ging u.a. um digitale Alter Egos und wie wir ihnen vertrauen können. „Emergence of Cooperation in Group Interactions: Avoidance vs. Restriction“ von The Anh Han, Luis Moniz Pereira und Tom Lenaerts führte die Thematik fort. The Anh Han fokussierte auf Gruppeninteraktionen. Konkret benutzte er das Public Goods Game, einen Ansatz aus der Spieltheorie. „Guilt for Non-Humans“ von Luís Moniz Pereira, The Anh Han, Luis Martinez-Vaquero und Tom Lenaerts schloss den Teil vor der Kaffeepause ab. Luís Moniz Pereira versuchte das Gefühl der Schuld mit der „evolutionary game theory“ zu verbinden. Später ging es weiter mit „Simulation as a Method of Ethics: simulating agents by programming, to elucidate autonomy, agency and ethical virtues“ von Fernando Da Costa Cardoso und Luís Moniz Pereira. Der Professor aus Lissabon präsentierte eine Simulation, in der ein Roboter eine Prinzessin retten muss. Durch das Hinzufügen von (moralischen) Regeln kann man das Verhalten des Roboters beeinflussen.

castle

Abb.: Der Roboter muss die Prinzessin retten

Moralische Roboter

Die Stanford University widmet sich im Frühjahr 2016 der Maschinenethik. Vom 21. bis 23. März findet der Workshop „Ethical and Moral Considerations in Non-Human Agents“ im Rahmen der AAAI Spring Symposia statt. Keynote-Speaker sind Ron Arkin (Georgia Institute of Technology), Maja Matarić (University of Southern California) und Luis Moriz Pereira (Universidade Nova de Lisboa). Organisiert wird der Workshop von Bipin Indurkhya (Jagiellonian University, Krakau) und Georgi Stojanov (The American University of Paris). Im Call for Papers heißt es: „Our machines are tasked with ever more autonomous decisions that directly impact on the well-being of other humans. There is a very real need to imbue our AI creations with a robust moral sense that real people would recognize as a functional model of human morality.“ Themen sind „Modeling evolution and emergence of moral norms“, „Designing moral regulations for autonomous systems“, „Role of analogies and metaphors in moral reasoning and argumentation“ und „Ontologies for moral and ethical reasoning“. Papers müssen bis 5. Oktober 2015 eingereicht werden. Weitere Informationen über sites.google.com/site/ethicalnonhumanagents/.

Robot_Woman

Abb.: Hat dieser Roboter so etwas wie Moral?