Schlagworte: Stanford

Technical Reports von „AI for Social Good“

Die Technical Reports des Symposiums „AI for Social Good“ sind erschienen. Dieses fand innerhalb der AAAI Spring Symposia (27. bis 29. März 2017) an der Stanford University statt. Organisiert wurde es von Amulya Yadav (University of Southern California, CA, USA) und Fei Fang (Harvard University). Die veröffentlichten Papers zeigen das enorme Spektrum der Veranstaltung auf. Oliver Bendel ist mit „LADYBIRD: The Animal-Friendly Robot Vacuum Cleaner“ sowie „Towards Kant Machines“ (zusammen mit Kevin Schwegler und Bradley Richards) vertreten, Malay Bhattacharyya mit „In Search of Health Doubles“, Sujoy Chatterjee (mit Anirban Mukhopadhyay und Malay Bhattacharyya) mit „Smart City Planning with Constrained Crowd Judgment Analysis“, Arnaud Delaunay (zusammen mit Jean Guérin) mit „Wandering Detection Within an Embedded System for Alzheimer Suffering Patients“ und Virginia Dignum (zusammen mit Frank Dignum) mit „Societal Challenges Need Social Agents“. Virginia Dignum konnte während des Symposiums die frohe Botschaft überbringen, dass die andere große Wissenschaftsvereinigung auf technischem Gebiet, das Institute of Electrical and Electronics Engineers (IEEE), sich in seinen Leitlinien „Ethically Aligned Design“ zu Robotik und KI zukünftig nicht nur den Menschen, sondern auch den Tieren widmen wird. Dies hatte Oliver Bendel in einer Stellungnahme gegenüber den Verantwortlichen vorgeschlagen. Die Technical Reports des Symposiums sind über www.aaai.org/Library/Symposia/Spring/ss17-01.php verfügbar.

AI for Social Good V

Am 28. März 2017 begann um 9.00 Uhr der zweite Tag des AAAI Spring Symposium „AI for Social Good“. Den Session Chair für die Talk Session 3 („Urban Planning“) hatte Virginia Dignum (Delft University of Technology) inne. Sie führte in das Thema ein und postulierte: „Artefacts have politics“. Sie erwähnte Anliegen der Maschinenethik und unterschiedliche Modelle der normativen Ethik, die man auf autonome Systeme anwenden kann. „Smart-City Planning with Constrained Crowd Judgment Analysis“ war der Titel des ersten Vortrags von Sujoy Chatterjee (Paper mit Anirban Mukhopadhyay und Malay Bhattacharyya). Syed Ali Asad Rizvi (Paper mit Elmarie van Heerden, Arnold Salas u.a.) trug zu „Identifying Sources of Discrimination Risk in the Life Cycle of Machine Intelligence Applications under New European Union Regulations“ vor. Er erwähnte einen „discrimination bias“ und fragte danach, wie man diesem begegnen kann. Daniela Rosu präsentierte das Paper „Knowledge-based Provisioning of Goods and Services: Towards a Virtual Social Needs Marketplace“, das zusammen mit Dionne M. Aleman, Christopher Beck u.a. erstellt wurde. Ausgangspunkt war, dass immer mehr Menschen Produkte und Dienstleistungen benötigen, die sie sich nicht leisten können. Es geht nun darum, diese in effizienter Weise von der Anbieter- zur Nachfragerseite zu bringen. Amin Ghafouri (Paper mit Aron Laszka, Abhishek Dubey und Xenofon Koutsoukos) referierte zu „Optimal Detection of Faulty Traffic Sensors Used in Route Planning“, Karen Judd Smith – den Fokus wieder stark erweiternd – zu „The AI Community and the United Nations: A Missing Global Conversation“.

AI for Social Good IV

Das AAAI Spring Symposium „AI for Social Good“ wurde am 27. März 2017 um 16.00 Uhr mit der Talk Session 2 („Social Welfare“) fortgeführt. Den Session Chair hatte Eric Rice inne. In seiner Einführung ging er wiederum auf die Sozialarbeit ein. Seine Arbeitsgruppe hatte zwei Papers erfolgreich eingereicht, nämlich „Uncharted but not un-influenced: Influence Maximization with an Uncertain Network“ und „Influence Maximization in the Field: The Arduous Journey from Emerging to Deployed Application“. Diese wurden anschließend präsentiert. Bryan Wilder (Beitrag von ihm, Amulya Yadav, Nicole Immorlica, Eric Rice und Milind Tambe) begann seinen Vortrag mit dem Zusammenhang von HIV und Obdachlosigkeit. Er erwähnte den HEALER- und den DOSIM-Algorithmus. Amulya Yadav begann seinen Vortrag (Paper von ihm, Bryan Wilder, Robin Petering, Eric Rice und Milind Tambe) ebenfalls mit der erwähnten Thematik. Es ging ihm darum, mit Hilfe der Algorithmen Peer Leaders zu identifizieren, zu informieren und zu trainieren, um HIV bei Obdachlosen zu reduzieren. Der Nachmittag schloss mit der Präsentation der Beiträge „Cloudy with a Chance of Poaching: Adversary Behavior Modeling and Forecasting with Real-World Poaching Data“ (Debarun Kar, Benjamin Ford, Shahrzad Gholami u.a.) – Benjamin Ford nahm Bezug auf Tiere -, „Optimal Allocation of Police Patrol Resources Using a Continuous-Time Crime Model“ (Ayan Mukhopadhyay, Chao Zhang, Yevgeniy Vorobeychik u.a.) – Ayan Mukhopadhyay stellte einen KI-basierten Ansatz zur Verbrechensbekämpfung vor – und „Societal Challenges need Social Agents“ (Virginia Dignum und Frank Dignum). Frank Dignum verwendete seine Zeit auf eine ganze Palette von Projekten.

Über Sicherheits- und Überwachungsroboter

Sicherheits- und Überwachungsroboter verbreiten sich auf den Firmengeländen und in den Shopping Malls, als rollende und fliegende Maschinen. Sie sollen für die Sicherheit der Unternehmen und Kunden sorgen. Dabei entsteht allerdings auch Unsicherheit. Der Beitrag von Oliver Bendel, der in der Zeitschrift SicherheitsForum 6/2016 erschienen ist, widmet sich der komplexen Thematik aus der Perspektive der Robotik und der Ethik. Dabei bezieht er weitere Serviceroboter wie Paketroboter ein. SicherheitsForum ist nach eigenen Angaben „seit über 20 Jahren die führende Schweizer Fachzeitschrift für Sicherheit, welche speziell auf die Bedürfnisse der Sicherheitsverantwortlichen aus der Privatwirtschaft wie auch aus dem öffentlichen Sektor zugeschnitten ist“ (Website SicherheitsForum). „Die Leser aus der Schweiz und dem grenznahen Ausland erhalten wichtige Informationen zu organisatorischen und technischen Sicherheitsthemen: Sicherheitsmanagement, Riskmanagement, Videoüberwachung, Brandschutz, Einbruchschutz, Diebstahlschutz, Zutrittskontrolle, Biometrie, Business Continuity, Notfall­ und Krisenmanagement, Informationssicherheit und viele weitere.“ (Website SicherheitsForum) Das PDF kann mit freundlicher Genehmigung des Verlags hier heruntergeladen werden.

security_robot

Abb.: Ein Sicherheitsroboter in Aktion

A Robot in the Robot

NeXus, the magazine of the student projects connectUS, Focus India, Insight China and exploreASEAN (University of Applied Sciences and Arts Northwestern Switzerland FHNW), interviewed the machine ethicist and business information systems engineer Prof. Dr. Oliver Bendel. The first question Stephen Randes asked was: „Cars are an integral part of US culture and identity. How will self-driving cars be accepted in that market?“ The answer: „Some Americans will surely miss the fun of driving. However, there is a new kind of driving enjoyment. As everyone knows who has ever tried out the autopilot of the Tesla model S. Whether the social approval will be given remains to be seen. There are certainly reasons to reject autonomous cars in particular areas.“ The next question: „What about safety concerns? What happens if an accident cannot be avoided?“ The scientist’s answer: „This is a subject that we explore in machine ethics: whom shall the autonomous car kill if it cannot brake in time? You can teach it rules or feed it with cases, and make it a complex moral machine that decides on people’s life and death. I, personally, argue in favor of simple moral machines. I am not against robot cars – I advise not to let them drive at any place and at any time. It is a question of avoiding accidents if possible.“ The last question related again to the market and the development of mobility: „Market analysts expect 10 million self-driving cars on the roads by 2020. How do you think this will change mobility (individual transport, public transport, workplace commutes)?“ Oliver Bendel declared: „I see opportunities for public transport. In the Valais, PostAuto is testing autonomous shuttles. Their speed is very low, so that there can be hardly any damage. Private autonomous cars are well suited for the traffic between cities. New forms of car sharing are possible as well. Maybe one day self-driving cars might even be sent to fetch a pizza, which, however, implies that there is a robot in the robot – except the pizza is simply thrown into the car.“ A part of the interview was published in the April issue, including further information on the person and the motivation.

Mobile_Robot

Fig.: This robot could take the pizza

2016 AAAI Spring Symposium Series

Im März 2016 ist der Proceedingsband „The 2016 AAAI Spring Symposium Series: Technical Reports“ erschienen, in der AAAI Press (Palo Alto 2016). Die KI-Konferenz fand an der Stanford University statt. Zur Maschinenethik (Symposium „Ethical and Moral Considerations in Non-Human Agents“) referierten u.a. Ron Arkin (Georgia Institute of Technology), Luís Moniz Pereira (Universidade Nova de Lisboa), Peter Asaro (New School for Public Engagement, New York) und Oliver Bendel (Hochschule für Wirtschaft FHNW). Auf den Seiten 195 bis 201 findet sich der Beitrag „Annotated Decision Trees for Simple Moral Machines“ von Oliver Bendel. Im Abstract heißt es: „Autonomization often follows after the automization on which it is based. More and more machines have to make decisions with moral implications. Machine ethics, which can be seen as an equivalent of human ethics, analyses the chances and limits of moral machines. So far, decision trees have not been commonly used for modelling moral machines. This article proposes an approach for creating annotated decision trees, and specifies their central components. The focus is on simple moral machines. The chances of such models are illustrated with the example of a self-driving car that is friendly to humans and animals. Finally the advantages and disadvantages are discussed and conclusions are drawn.“ Der Tagungsband kann über www.aaai.org bestellt werden.

AAAI-Workshop zur Maschinenethik V

Am 23. März 2016 wurde der Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University innerhalb der AAAI Spring Symposium Series fortgeführt. Die Keynote „Programming Machine Ethics“ hielt Kumar Pandey von Aldebaran Robotics (SoftBank Group). Er war aus Krankheitsgründen über Skype zugeschaltet. Er stellte kommerzielle Produkte vor und zeigte Videos zu Pepper. Nicht nur Pepper stammt von dem französischen Unternehmen, sondern auch Nao. Beide sind darauf ausgelegt, mit Menschen zusammenzuleben. Das Feedback der Benutzer war ambivalent. Er sollte nicht oder nicht immer für mich entscheiden, lautete eine Meinung. Eine andere war: Er soll nicht das tun, was ich tun kann, damit ich nicht faul werde. Auch die Meinung der Teilnehmer war ambivalent, in Bezug auf die Visionen und die Videos. Der Referent selbst räumte ein, man spiele mit den Emotionen der Benutzer. Am Ende fragte er nach der Haftung und nach der Zertifizierung in moralischer Hinsicht und stellte die Behauptung auf, der Roboter sollte wissen, was er nicht tun darf, nicht lernen. Und er fragte, was sein wird, wenn der Roboter eines Tages einen Befehl verweigert. In der Panel Discussion arbeitete man die Erkenntnisse der letzten Tage auf, analysierte die Principles of Robotics der EPSRC aus dem Jahre 2011 und diskutierte Möglichkeiten für den weiteren Austausch.Salz_PfefferAbb.: Salt and Pepper

AAAI-Workshop zur Maschinenethik III

Am 22. März 2016 wurde der Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University innerhalb der AAAI Spring Symposium Series fortgeführt. Die Keynote „Programming Machine Ethics“ wurde von Luís Moniz Pereira von der Universidade Nova de Lisboa gehalten. Er stellte sein Buch mit dem gleichen Titel und, damit einhergehend, ein Modell für einen moralischen Agenten vor. Bipin Indurkhya schlug in seinem Vortrag „Incorporating human dimension in autonomous decision-making on moral and ethical issues“ (das Paper entstand zusammen mit Joanna Misztal-Radecka) ein Expertensystem vor, das moralische Argumente aus unterschiedlichen Perspektiven liefert. Nach dem Coffee Break war Tony Veale über Skype zugeschaltet, mit „A Rap on the Knuckles and a Twist in the Tale: From Tweeting Affective Metaphors to Generating Stories with a Moral“. Er ließ sich von Tweets mit moralischen Aussagen inspirieren, die von Twitter-Bots stammen, und entwickelte eine Methode zum automatisierten Erzählen von moralischen Geschichten. In „Attachment Theor(ies) & Empathy: The Ethics of the Human in Sex and Love with Robots“ äußerte Kathleen Richardson, ebenfalls per Videokonferenz, ihre moralischen Bedenken gegenüber Sexrobotern, ohne eine wissenschaftliche, ethische Perspektive einzunehmen, wie die Diskutanten bemerkten. Andree Thieltges und Simon Hegelich (das Paper entstand in Zusammenarbeit mit Florian Schmidt) referierten vor Ort über „The Devil’s Triangle: Ethical considerations on developing bot detection methods“. Sie widmeten sich den Gefahren, die von Social Bots ausgehen mögen, und gingen der Frage nach, wie diese identifiziert werden können. Danach ging man in die Mittagspause.

AAAI-Workshop zur Maschinenethik II

Beim Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University war bereits am Vormittag des 21. März motiviert referiert und diskutiert worden. Am Nachmittag begann Tom Lenaerts mit „Conditions for the evolution of apology and forgiveness in populations of autonomous agents“. Das Paper stammt von ihm, Luis Martinez-Vaquero, The Anh Han und Luis Moniz Pereira. Es ging u.a. um digitale Alter Egos und wie wir ihnen vertrauen können. „Emergence of Cooperation in Group Interactions: Avoidance vs. Restriction“ von The Anh Han, Luis Moniz Pereira und Tom Lenaerts führte die Thematik fort. The Anh Han fokussierte auf Gruppeninteraktionen. Konkret benutzte er das Public Goods Game, einen Ansatz aus der Spieltheorie. „Guilt for Non-Humans“ von Luís Moniz Pereira, The Anh Han, Luis Martinez-Vaquero und Tom Lenaerts schloss den Teil vor der Kaffeepause ab. Luís Moniz Pereira versuchte das Gefühl der Schuld mit der „evolutionary game theory“ zu verbinden. Später ging es weiter mit „Simulation as a Method of Ethics: simulating agents by programming, to elucidate autonomy, agency and ethical virtues“ von Fernando Da Costa Cardoso und Luís Moniz Pereira. Der Professor aus Lissabon präsentierte eine Simulation, in der ein Roboter eine Prinzessin retten muss. Durch das Hinzufügen von (moralischen) Regeln kann man das Verhalten des Roboters beeinflussen.

castle

Abb.: Der Roboter muss die Prinzessin retten

Verwundbare Maschinen

Ein Workshop zur Maschinenethik findet vom 21. bis 23. März 2016 an der Stanford University statt, mit dem Titel „Ethical and Moral Considerations in Non-Human Agents“, im Rahmen einer AAAI-Konferenz. Die erste Keynote hält Ron Craig Arkin, Georgia Institute of Technology. Im Anschluss daran sprechen Elizabeth Kinne and Georgi Stojanov über „Vulnerable Humans, Vulnerable Machines“. Nach dem ersten Break folgt der Vortrag „Metaethics in context of engineering ethical and moral systems“ von Michal Klincewicz und Lily Frank, danach „Annotated Decision Trees for Simple Moral Machines“ von Oliver Bendel, wobei auf ein selbstständig fahrendes Auto eingegangen wird, das für bestimmte Tiere bremst. „The artificial autonomous moral agents (AAMA): a minimalist model“ von Ioan Muntean und Don Howard schließt die Session am Morgen ab. Weitere Referenten sind u.a. Luis Moniz Pereira von der Universidade Nova de Lisboa, Portugal (der auch die zweite Keynote hält), Mark Coeckelbergh und Peter Asaro. Die abschließende Keynote am Mittwoch hält Amit Kumar Pandey, Aldebaran Robotics, Paris. Weitere Informationen zum Programm über sites.google.com/site/ethicalnonhumanagents/papers.

Robo

Abb.: Auch ein Roboter ist nur ein Mensch