Schlagworte: Stanford University

Technical Reports von „AI for Social Good“

Die Technical Reports des Symposiums „AI for Social Good“ sind erschienen. Dieses fand innerhalb der AAAI Spring Symposia (27. bis 29. März 2017) an der Stanford University statt. Organisiert wurde es von Amulya Yadav (University of Southern California, CA, USA) und Fei Fang (Harvard University). Die veröffentlichten Papers zeigen das enorme Spektrum der Veranstaltung auf. Oliver Bendel ist mit „LADYBIRD: The Animal-Friendly Robot Vacuum Cleaner“ sowie „Towards Kant Machines“ (zusammen mit Kevin Schwegler und Bradley Richards) vertreten, Malay Bhattacharyya mit „In Search of Health Doubles“, Sujoy Chatterjee (mit Anirban Mukhopadhyay und Malay Bhattacharyya) mit „Smart City Planning with Constrained Crowd Judgment Analysis“, Arnaud Delaunay (zusammen mit Jean Guérin) mit „Wandering Detection Within an Embedded System for Alzheimer Suffering Patients“ und Virginia Dignum (zusammen mit Frank Dignum) mit „Societal Challenges Need Social Agents“. Virginia Dignum konnte während des Symposiums die frohe Botschaft überbringen, dass die andere große Wissenschaftsvereinigung auf technischem Gebiet, das Institute of Electrical and Electronics Engineers (IEEE), sich in seinen Leitlinien „Ethically Aligned Design“ zu Robotik und KI zukünftig nicht nur den Menschen, sondern auch den Tieren widmen wird. Dies hatte Oliver Bendel in einer Stellungnahme gegenüber den Verantwortlichen vorgeschlagen. Die Technical Reports des Symposiums sind über www.aaai.org/Library/Symposia/Spring/ss17-01.php verfügbar.

AI for Social Good VII

Den Session Chair für die Talk Session 5 („Miscellaneous“) beim AAAI Spring Symposium „AI for Social Good“ hatte Amulya Yadav inne. Er ging auf die Methoden und Strategien im Bereich „AI for Social Good“ ein, erwähnte den Belmont-Report und wertete ihn für den gegebenen Kontext aus. „Optimal Thresholds for Intrusion Detection Systems“ wurde von Yevgeniy Vorobeychik vorgetragen (Paper zusammen mit Aron Laszka, Waseem Abbas u.a.). Die Methoden wurden auf „Water Distribution Networks“ angewandt. Das Referat von Evan Patterson trug den Titel „Machine representation of Data Analyses“ (Paper mit Ioana Baldini, Aleksandra Mojsilovic und Kush Varshney). Er ging aus von einer Case Study namens „Accelerated Cure Project“ und fragte nach neuen Arten von „data science platforms“. Oliver Bendel ging in „Towards Kant Machines“ (Paper zusammen mit Kevin Schwegler und Bradley Richards) auf das abgeschlossene LÜGENBOT-Projekt ein. Der LIEBOT ist in der Lage, systematisch zu lügen. Die Ergebnisse können dazu verwendet werden, solche natürlichsprachlichen Systeme zu entwickeln, die niemals oder selten lügen. Danach präsentierte er sein Paper „LADYBIRD: the Animal-Friendly Robot Vacuum Cleaner“. LADYBIRD erkennt Marienkäfer und stellt, wenn ihm diese zu nahe kommen, seine Arbeit ein. Der Prototyp wird zurzeit an der Hochschule für Wirtschaft FHNW entwickelt. Erisa Karafili offerierte eine „Argumentation-based Security for Social Good“ (Co-Autoren sind Antonis C. Kakas, Nikolaos I. Spanoudakis und Emil C. Lupu), Mahendra Prasad reiste „Back to the Future“, mit „A Framework for Modelling Altruistic Intelligence Explosions“ im Gepäck. Um 17.30 Uhr – nach einer angeregten Plenumsdiskussion – war das Symposium vorbei. Für den Abend und den Morgen des darauffolgenden Tages waren weitere allgemeine Veranstaltungen innerhalb der AAAI 2017 Spring Symposia geplant.

AI for Social Good III

Weiter ging es mit dem AAAI Spring Symposium „AI for Social Good“ am 27. März 2017 um 14.00 Uhr mit der Talk Session 1 („Healtcare“). Den Session Chair hatte Eric Horvitz (Technical Fellow & Managing Director, Microsoft Research) inne. Er führte aus technisch-mathematischer Perspektive in die Thematik ein. Lanbo She (Michigan State University) begann mit „Teaching and Checking of Constraints for Surgical Tray Layout“. Er schlug einen Agenten vor, der beim korrekten Zusammenstellen der Operationsinstrumente für unterschiedliche Situationen hilft. Co-Autor des Papers war Jonathan Connell (IBM T. J. Watson Research). Sujoy Chatterjee referierte anstelle von Malay Bhattacharya (Indian Statistical Institute, Kolkata) über „In Search of Health Doubles“. Nach ihrem Ansatz sollte man weltweit Personen identifizieren können, die in ihren biologischen Eigenschaften zu anderen Personen passen, denen damit geholfen werden kann. Arnaud Delaunay (LinkValue) ging in „Wandering Detection Within an Embedded System for Alzheimer Suffering Patients“ auf einen innovativen Ansatz für Alzheimer-Patienten ein, die mit einer Smartwatch ausgestattet und überwacht werden. Co-Autor des Papers war Jean Guerin. Der Vortrag von Yevgeniy Vorobeychik (Vanderbilt University) – das Paper wurde zusammen mit Bo Li, Muqun Li und Bradley Malin geschrieben – trug den Titel „Sanitizing Large-Scale Medical Records Before Publishing“ und stellte eine iterative Methode für „sanitizing data at scale“ vor.

AI for Social Good II

Das AAAI Spring Symposium „AI for Social Good“ wurde am 27. März 2017 nach der Kaffeepause um 11.00 Uhr fortgeführt. Eric Rice (USC School of Social Work) und Sharad Goel (Stanford University) referierten in ihren Keynotes zum Thema „AI for the Social Sciences“. Ihr Ausgangspunkt: „While the public frets over a future threat of killer robots or the dream of a driverless car, computer scientists and social scientists can engage in novel solutions to vexing social problems today.“ (Website AISOC) Eric Rise ist Mitbegründer des USC Center for Artificial Intelligence in Society. Er stellte zuerst sein eigenes Forschungsfeld dar, die Sozialarbeit, und ging dann auf das Phänomen der Obdachlosen in den USA ein. Künstliche Intelligenz kann auch in diesem Feld angewandt werden, etwa indem man Netzwerke und ihre Mitglieder sichtbar macht und dann Personen dazu ermuntert, bestimmte Funktionen – etwa eines Anführers oder Vorbilds – zu übernehmen. Der Vortrag von Sharad Goel trug den Titel „Algorithms to assist judicial decision-making“. Der Assistenzprofessor am Department of Management Science & Engineering der Stanford University betonte, dass in diesem Bereich einfache, interpretierbare Regeln wichtig sind; die Urteile müssen nach seiner Meinung „fast, frugal and clear“ sein. Der Wissenschaftler gab ein Ende ein Versprechen „of greater efficiency, equity, and transparency“.

AAAI-Workshop zur Maschinenethik V

Am 23. März 2016 wurde der Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University innerhalb der AAAI Spring Symposium Series fortgeführt. Die Keynote „Programming Machine Ethics“ hielt Kumar Pandey von Aldebaran Robotics (SoftBank Group). Er war aus Krankheitsgründen über Skype zugeschaltet. Er stellte kommerzielle Produkte vor und zeigte Videos zu Pepper. Nicht nur Pepper stammt von dem französischen Unternehmen, sondern auch Nao. Beide sind darauf ausgelegt, mit Menschen zusammenzuleben. Das Feedback der Benutzer war ambivalent. Er sollte nicht oder nicht immer für mich entscheiden, lautete eine Meinung. Eine andere war: Er soll nicht das tun, was ich tun kann, damit ich nicht faul werde. Auch die Meinung der Teilnehmer war ambivalent, in Bezug auf die Visionen und die Videos. Der Referent selbst räumte ein, man spiele mit den Emotionen der Benutzer. Am Ende fragte er nach der Haftung und nach der Zertifizierung in moralischer Hinsicht und stellte die Behauptung auf, der Roboter sollte wissen, was er nicht tun darf, nicht lernen. Und er fragte, was sein wird, wenn der Roboter eines Tages einen Befehl verweigert. In der Panel Discussion arbeitete man die Erkenntnisse der letzten Tage auf, analysierte die Principles of Robotics der EPSRC aus dem Jahre 2011 und diskutierte Möglichkeiten für den weiteren Austausch.Salz_PfefferAbb.: Salt and Pepper

AAAI-Workshop zur Maschinenethik IV

Beim Workshop „Ethical and Moral Considerations in Non-Human Agents“ war am Vormittag des 22. März eifrig vorgetragen und heftig diskutiert worden. Am Nachmittag begann Peter Asaro mit „The Liability Problem for Autonomous Artificial Agents“. Wenn der Hund, den man hält, einen Schaden anrichtet, haftet man teilweise, wenn der Tiger, der ausbricht, jemanden verletzt oder tötet, dagegen voll. Entsprechend könnte man bei Robotern einen Unterschied machen. „Patiency Is Not a Virtue: AI and the Design of Ethical Systems“ lautete der Titel des nächsten Talks. Joanna Bryson unterschied zwischen „moral agents“ und „moral patients“, erklärte den Begriff der Superintelligence und wandte ihn auf die Menschheit selbst an. Nach der Kaffeepause thematisierten Ron Artstein and Kenneth Silver eine „Ethics for a Combined Human-Machine Dialogue Agent“. Ausgangspunkt waren die in Museen arrangierten Gespräche mit Überlebenden des Holocausts. Deren Rolle soll von „dialogue agents“ übernommen werden, die mit vorher aufgezeichneten Aussagen auf die Fragen der Besucher antworten. Dabei können moralische Probleme auftreten, die mit Hilfe von ethischen Überlegungen angegangen werden können. Benjamin Kuipers wartete in „Morality and Ethics for Humans and Robots“ mit Ausschnitten aus Filmen wie „Terminator 2“ und „Robot & Frank“ auf und analysierte die Haltung der Roboter. Beim Terminator sei das Problem nicht Superintelligence, sondern Superpower. Zum Roboterauto-Problem bemerkte er, der Designer könne nicht jegliches Unheil verhindern. Das Auto müsse sich unser Vertrauen verdienen. Den Abschluss bildete „Robot Priest: Trust and Human Sciences“ von Cindy Mason. Neben ihr saß ein als Priester verkleideter WALL·E, und sie zeigte weitere Kostümierungen des Filmroboters, die jeweils unterschiedliche Erwartungen hervorrufen. Ihr ging es darum, inwieweit man Menschen und Maschinen vertrauen und wie das Aussehen damit zusammenhängen kann.

tiger

Abb.: Peter Asaro ließ den Tiger ausbrechen

AAAI-Workshop zur Maschinenethik III

Am 22. März 2016 wurde der Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University innerhalb der AAAI Spring Symposium Series fortgeführt. Die Keynote „Programming Machine Ethics“ wurde von Luís Moniz Pereira von der Universidade Nova de Lisboa gehalten. Er stellte sein Buch mit dem gleichen Titel und, damit einhergehend, ein Modell für einen moralischen Agenten vor. Bipin Indurkhya schlug in seinem Vortrag „Incorporating human dimension in autonomous decision-making on moral and ethical issues“ (das Paper entstand zusammen mit Joanna Misztal-Radecka) ein Expertensystem vor, das moralische Argumente aus unterschiedlichen Perspektiven liefert. Nach dem Coffee Break war Tony Veale über Skype zugeschaltet, mit „A Rap on the Knuckles and a Twist in the Tale: From Tweeting Affective Metaphors to Generating Stories with a Moral“. Er ließ sich von Tweets mit moralischen Aussagen inspirieren, die von Twitter-Bots stammen, und entwickelte eine Methode zum automatisierten Erzählen von moralischen Geschichten. In „Attachment Theor(ies) & Empathy: The Ethics of the Human in Sex and Love with Robots“ äußerte Kathleen Richardson, ebenfalls per Videokonferenz, ihre moralischen Bedenken gegenüber Sexrobotern, ohne eine wissenschaftliche, ethische Perspektive einzunehmen, wie die Diskutanten bemerkten. Andree Thieltges und Simon Hegelich (das Paper entstand in Zusammenarbeit mit Florian Schmidt) referierten vor Ort über „The Devil’s Triangle: Ethical considerations on developing bot detection methods“. Sie widmeten sich den Gefahren, die von Social Bots ausgehen mögen, und gingen der Frage nach, wie diese identifiziert werden können. Danach ging man in die Mittagspause.

AAAI-Workshop zur Maschinenethik II

Beim Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University war bereits am Vormittag des 21. März motiviert referiert und diskutiert worden. Am Nachmittag begann Tom Lenaerts mit „Conditions for the evolution of apology and forgiveness in populations of autonomous agents“. Das Paper stammt von ihm, Luis Martinez-Vaquero, The Anh Han und Luis Moniz Pereira. Es ging u.a. um digitale Alter Egos und wie wir ihnen vertrauen können. „Emergence of Cooperation in Group Interactions: Avoidance vs. Restriction“ von The Anh Han, Luis Moniz Pereira und Tom Lenaerts führte die Thematik fort. The Anh Han fokussierte auf Gruppeninteraktionen. Konkret benutzte er das Public Goods Game, einen Ansatz aus der Spieltheorie. „Guilt for Non-Humans“ von Luís Moniz Pereira, The Anh Han, Luis Martinez-Vaquero und Tom Lenaerts schloss den Teil vor der Kaffeepause ab. Luís Moniz Pereira versuchte das Gefühl der Schuld mit der „evolutionary game theory“ zu verbinden. Später ging es weiter mit „Simulation as a Method of Ethics: simulating agents by programming, to elucidate autonomy, agency and ethical virtues“ von Fernando Da Costa Cardoso und Luís Moniz Pereira. Der Professor aus Lissabon präsentierte eine Simulation, in der ein Roboter eine Prinzessin retten muss. Durch das Hinzufügen von (moralischen) Regeln kann man das Verhalten des Roboters beeinflussen.

castle

Abb.: Der Roboter muss die Prinzessin retten

Moralische Roboter

Die Stanford University widmet sich im Frühjahr 2016 der Maschinenethik. Vom 21. bis 23. März findet der Workshop „Ethical and Moral Considerations in Non-Human Agents“ im Rahmen der AAAI Spring Symposia statt. Keynote-Speaker sind Ron Arkin (Georgia Institute of Technology), Maja Matarić (University of Southern California) und Luis Moriz Pereira (Universidade Nova de Lisboa). Organisiert wird der Workshop von Bipin Indurkhya (Jagiellonian University, Krakau) und Georgi Stojanov (The American University of Paris). Im Call for Papers heißt es: „Our machines are tasked with ever more autonomous decisions that directly impact on the well-being of other humans. There is a very real need to imbue our AI creations with a robust moral sense that real people would recognize as a functional model of human morality.“ Themen sind „Modeling evolution and emergence of moral norms“, „Designing moral regulations for autonomous systems“, „Role of analogies and metaphors in moral reasoning and argumentation“ und „Ontologies for moral and ethical reasoning“. Papers müssen bis 5. Oktober 2015 eingereicht werden. Weitere Informationen über sites.google.com/site/ethicalnonhumanagents/.

Robot_Woman

Abb.: Hat dieser Roboter so etwas wie Moral?