Call for Proposals for the AAAI Spring Symposium Series

In late August 2023, AAAI announced the continuation of the AAAI Spring Symposium Series, to be held at Stanford University from 25-27 March 2024. Due to staff shortages, the prestigious conference had to be held at the Hyatt Regency SFO Airport in San Francisco in March 2023 – and will now return to its traditional venue. The call for proposals is available on the AAAI Spring Symposium Series page. Proposals are due by 6 October 2023. They should be submitted to the symposium co-chairs, Christopher Geib (SIFT, USA) and Ron Petrick (Heriot-Watt University, UK), via the online submission page. Over the past ten years, the AAAI Spring Symposia have been relevant not only to classical AI, but also to roboethics and machine ethics. Groundbreaking symposia were, for example, „Ethical and Moral Considerations in Non-Human Agents“ in 2016, „AI for Social Good“ in 2017, or „AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ in 2018. More information is available at aaai.org/conference/spring-symposia/sss24/.

Fig.: Hoover Tower on the campus of Stanford University

Proceedings von „How Fair is Fair?“ erschienen

Am 17. November 2022 sind die Proceedings von „How Fair is Fair? Achieving Wellbeing AI“ (Organisatoren: Takashi Kido und Keiki Takadama) auf CEUR-WS erschienen. Das AAAI 2022 Spring Symposium fand vom 21. bis 23. März 2022 an der Stanford University statt. Im elektronischen Band finden sich sieben Full Papers mit 6 – 8 Seiten: „Should Social Robots in Retail Manipulate Customers?“ von Oliver Bendel und Liliana Margarida Dos Santos Alves (3. Platz der Best Presentation Awards), „The SPACE THEA Project“ von Martin Spathelf und Oliver Bendel (2. Platz der Best Presentation Awards), „Monitoring and Maintaining Student Online Classroom Participation Using Cobots, Edge Intelligence, Virtual Reality, and Artificial Ethnographies“ von Ana Djuric, Meina Zhu, Weisong Shi, Thomas Palazzolo und Robert G. Reynolds, „AI Agents for Facilitating Social Interactions and Wellbeing“ von Hiro Taiyo Hamada und Ryota Kanai (1. Platz der Best Presentation Awards) , „Sense and Sensitivity: Knowledge Graphs as Training Data for Processing Cognitive Bias, Context and Information Not Uttered in Spoken Interaction“ von Christina Alexandris, „Fairness-aware Naive Bayes Classifier for Data with Multiple Sensitive Features“ von Stelios Boulitsakis-Logothetis und „A Thermal Environment that Promotes Efficient Napping“ von Miki Nakai, Tomoyoshi Ashikaga, Takahiro Ohga und Keiki Takadama. Zudem gibt es mehrere Short Papers und Extended Abstracts. Die Proceedings können über ceur-ws.org/Vol-3276/ abgerufen werden.

Abb.: Der Stanford Bunny

Paper about Social Robots in Retail

On June 30, 2022, the paper „Should Social Robots in Retail Manipulate Customers?“ by Oliver Bendel and Liliana Margarida Dos Santos Alves was published on arxiv.org. It was presented at the AAAI 2022 Spring Symposium „How Fair is Fair? Achieving Wellbeing AI“ at Stanford University and came in third place in the Best Presentation Awards. From the abstract: „Against the backdrop of structural changes in the retail trade, social robots have found their way into retail stores and shopping malls in order to attract, welcome, and greet customers; to inform them, advise them, and persuade them to make a purchase. Salespeople often have a broad knowledge of their product and rely on offering competent and honest advice, whether it be on shoes, clothing, or kitchen appliances. However, some frequently use sales tricks to secure purchases. The question arises of how consulting and sales robots should “behave”. Should they behave like human advisors and salespeople, i.e., occasionally manipulate customers? Or should they be more honest and reliable than us? This article tries to answer these questions. After explaining the basics, it evaluates a study in this context and gives recommendations for companies that want to use consulting and sales robots. Ultimately, fair, honest, and trustworthy robots in retail are a win-win situation for all concerned.“ The paper will additionally be published in the proceedings volume of the symposium by the end of summer. It can be downloaded via arxiv.org/abs/2206.14571.

Fig.: Does this bag fit me?

AI and Society

The AAAI Spring Symposia at Stanford University are among the AI community’s most important get-togethers, especially for its experimental division. The years 2016, 2017, and 2018 were memorable highlights for machine ethics, robot ethics, ethics by design, and AI ethics, with the symposia „Ethical and Moral Considerations in Non-Human Agents“ (2016), „Artificial Intelligence for the Social Good“ (2017), and „AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ (2018) … As of 2019, the proceedings are no longer provided directly by the Association for the Advancement of Artificial Intelligence, but by the organizers of each symposium. Since summer 2021, the entire conference volume of 2018 is available free of charge. It includes contributions by Philip C. Jackson, Mark R. Waser, Barry M. Horowitz, John Licato, Stefania Costantini, Biplav Srivastava, and Oliver Bendel, among many others. It can be found via aaai.org/proceeding/01-spring-2018/.

Fig.: Animal-friendly robot cars were a topic in 2016

New Tasks for Cobots

After several postponements, the symposium „Applied AI in Healthcare: Safety, Community, and the Environment“ will be held within the AAAI Spring Symposia on March 22-23, 2021. One of the presentations is titled „Co-Robots as Care Robots“ (co-robots are also called cobots). The authors of the paper are Oliver Bendel, Alina Gasser, and Joel Siebenmann. From the abstract: „Cooperation and collaboration robots, co-robots or cobots for short, are an integral part of factories. For example, they work closely with the fitters in the automotive sector, and everyone does what they do best. However, the novel robots are not only relevant in production and logistics, but also in the service sector, especially where proximity between them and the users is desired or unavoidable. For decades, individual solutions of a very different kind have been developed in care. Now experts are increasingly relying on co-robots and teaching them the special tasks that are involved in care or therapy. This article presents the advantages, but also the disadvantages of co-robots in care and support, and provides information with regard to human-robot interaction and communication. The article is based on a model that has already been tested in various nursing and retirement homes, namely Lio from F&P Robotics, and uses results from accompanying studies. The authors can show that co-robots are ideal for care and support in many ways. Of course, it is also important to consider a few points in order to guarantee functionality and acceptance.“ More information about the AAAI Spring Symposia is available at aaai.org/Symposia/Spring/sss21.php.

Fig.: Lio’s arm

Zu Grundeinkommen und -eigentum

Die Studien zur Arbeitsmarktentwicklung ab 2020 gelangen zu unterschiedlichen Ergebnissen. Man kann aber auf jeden Fall sagen, dass bestimmte Arbeitsplätze wegfallen und viele Menschen ohne ihre vertraute Arbeit sein werden. Es ist auch anzunehmen, dass insgesamt weniger menschliche Arbeit im Auftrag (etwa für Arbeitgeber) verrichtet werden muss. Als Lösungen der wirtschaftlichen und sozialen Probleme werden oft bedingungsloses Grundeinkommen und Robotersteuer genannt. Der Beitrag „Are Robot Tax, Basic Income or Basic Property Solutions to the Social Problems of Automation?“ von Oliver Bendel diskutiert und kritisiert diese Ansätze im Kontext von Automatisierung und Digitalisierung. Zudem entwickelt er einen weitgehend unbekannten Vorschlag, das bedingungslose Grundeigentum, weiter und stellt dessen Potenziale ebenso dar wie dessen Risiken. Der Informations- und Maschinenethiker aus Zürich präsentiert seine Ergebnisse zwischen dem 25. und 27. März 2019 bei den AAAI Spring Symposia. Es ist sein sechster Vortrag an der Stanford University innerhalb von vier Jahren.

Abb.: Klein, aber mein

Technical Reports von „AI and Society“

Die Technical Reports des AAAI 2018 Spring Symposium „AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ sind Ende April 2018 erschienen. Enthalten sind u.a. „From GOODBOT to BESTBOT“ (Oliver Bendel), „The Uncanny Return of Physiognomy“ (Oliver Bendel), „The Heart of the Matter: Patient Autonomy as a Model for the Wellbeing of Technology Users“ (Emanuelle Burton et al.), „Trustworthiness and Safety for Intelligent Ethical Logical Agents via Interval Temporal Logic and Runtime Self-Checking“ (Stefania Costantin et al.), „Ethical Considerations for AI Researchers“ (Kyle Dent), „Interactive Agent that Understands the User“ (Piotr Gmytrasiewicz et al.), „Toward Beneficial Human-Level AI … and Beyond“ (Philip C. Jackson Jr.), „Towards Provably Moral AI Agents in Bottom-Up Learning Frameworks“ (Nolan P. Shaw et al.), „An Architecture for a Military AI System with Ethical Rules“ (Yetian Wang et al.) und „Architecting a Human-Like Emotion-Driven Conscious Moral Mind for Value Alignment and AGI Safety“ (Mark R. Waser et al.). Das Symposium fand vom 26. bis zum 28. März 2018 an der Stanford University statt. Für die Maschinenethik wie auch für Informationsethik und Roboterethik ist die Konferenzreihe seit Jahren eine der wichtigsten Plattformen weltweit.

Abb.: Was tun gegen bestimmte Formen der Gesichtserkennung?

AAAI Spring Symposium on AI and Society

The tentative schedule of AAAI 2018 Spring Symposium on AI and Society at Stanford University (26 – 28 March 2018) has been published. On Tuesday Emma Brunskill from Stanford University, Philip C. Jackson („Toward Beneficial Human-Level AI … and Beyond“) and Andrew Williams („The Potential Social Impact of the Artificial Intelligence Divide“) will give a lecture. Oliver Bendel will have two talks, one on „The Uncanny Return of Physiognomy“ and one on „From GOODBOT to BESTBOT“. From the description on the website: „Artificial Intelligence has become a major player in today’s society and that has inevitably generated a proliferation of thoughts and sentiments on several of the  related issues. Many, for example, have felt the need to voice, in different ways and through different channels, their concerns on: possible undesirable outcomes caused by artificial agents, the morality of their use in specific sectors, such as the military, and the impact they will have on the labor market. The goal of this symposium is to gather a diverse group of researchers from many disciplines and to ignite a scientific discussion on this topic.“

Fig.: The symposium is about AI and society

The BESTBOT at Stanford University

Machine ethics researches the morality of semiautonomous and autonomous machines. The School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW realized a project for implementation of a prototype called GOODBOT, a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. It was a stand-alone solution, not linked with other systems and not internet- or web-based. In the LIEBOT project, the mentioned meta rule was reversed. This web-based chatbot, implemented in 2016, could lie systematically. It was an example of a simple immoral machine. A follow-up project in 2018 is going to develop the BESTBOT, considering the restrictions of the GOODBOT and the opportunities of the LIEBOT. The aim is to develop a machine that can detect problems of users of all kinds and can react in an adequate way. It should have textual, auditory and visual capabilities. The paper “From GOODBOT to BESTBOT” describes the preconditions and findings of the GOODBOT project and the results of the LIEBOT project and outlines the subsequent BESTBOT project. A reflection from the perspective of information ethics is included. Oliver Bendel will present his paper in March 2018 at Stanford University (“AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents”, AAAI 2018 Spring Symposium Series).

Fig.: What will the BESTBOT look like?

Technical Reports von „AI for Social Good“

Die Technical Reports des Symposiums „AI for Social Good“ sind erschienen. Dieses fand innerhalb der AAAI Spring Symposia (27. bis 29. März 2017) an der Stanford University statt. Organisiert wurde es von Amulya Yadav (University of Southern California, CA, USA) und Fei Fang (Harvard University). Die veröffentlichten Papers zeigen das enorme Spektrum der Veranstaltung auf. Oliver Bendel ist mit „LADYBIRD: The Animal-Friendly Robot Vacuum Cleaner“ sowie „Towards Kant Machines“ (zusammen mit Kevin Schwegler und Bradley Richards) vertreten, Malay Bhattacharyya mit „In Search of Health Doubles“, Sujoy Chatterjee (mit Anirban Mukhopadhyay und Malay Bhattacharyya) mit „Smart City Planning with Constrained Crowd Judgment Analysis“, Arnaud Delaunay (zusammen mit Jean Guérin) mit „Wandering Detection Within an Embedded System for Alzheimer Suffering Patients“ und Virginia Dignum (zusammen mit Frank Dignum) mit „Societal Challenges Need Social Agents“. Virginia Dignum konnte während des Symposiums die frohe Botschaft überbringen, dass die andere große Wissenschaftsvereinigung auf technischem Gebiet, das Institute of Electrical and Electronics Engineers (IEEE), sich in seinen Leitlinien „Ethically Aligned Design“ zu Robotik und KI zukünftig nicht nur den Menschen, sondern auch den Tieren widmen wird. Dies hatte Oliver Bendel in einer Stellungnahme gegenüber den Verantwortlichen vorgeschlagen. Die Technical Reports des Symposiums sind über aaai.org/proceeding/01-spring-2017/ verfügbar.

AI for Social Good VII

Den Session Chair für die Talk Session 5 („Miscellaneous“) beim AAAI Spring Symposium „AI for Social Good“ hatte Amulya Yadav inne. Er ging auf die Methoden und Strategien im Bereich „AI for Social Good“ ein, erwähnte den Belmont-Report und wertete ihn für den gegebenen Kontext aus. „Optimal Thresholds for Intrusion Detection Systems“ wurde von Yevgeniy Vorobeychik vorgetragen (Paper zusammen mit Aron Laszka, Waseem Abbas u.a.). Die Methoden wurden auf „Water Distribution Networks“ angewandt. Das Referat von Evan Patterson trug den Titel „Machine representation of Data Analyses“ (Paper mit Ioana Baldini, Aleksandra Mojsilovic und Kush Varshney). Er ging aus von einer Case Study namens „Accelerated Cure Project“ und fragte nach neuen Arten von „data science platforms“. Oliver Bendel ging in „Towards Kant Machines“ (Paper zusammen mit Kevin Schwegler und Bradley Richards) auf das abgeschlossene LÜGENBOT-Projekt ein. Der LIEBOT ist in der Lage, systematisch zu lügen. Die Ergebnisse können dazu verwendet werden, solche natürlichsprachlichen Systeme zu entwickeln, die niemals oder selten lügen. Danach präsentierte er sein Paper „LADYBIRD: the Animal-Friendly Robot Vacuum Cleaner“. LADYBIRD erkennt Marienkäfer und stellt, wenn ihm diese zu nahe kommen, seine Arbeit ein. Der Prototyp wird zurzeit an der Hochschule für Wirtschaft FHNW entwickelt. Erisa Karafili offerierte eine „Argumentation-based Security for Social Good“ (Co-Autoren sind Antonis C. Kakas, Nikolaos I. Spanoudakis und Emil C. Lupu), Mahendra Prasad reiste „Back to the Future“, mit „A Framework for Modelling Altruistic Intelligence Explosions“ im Gepäck. Um 17.30 Uhr – nach einer angeregten Plenumsdiskussion – war das Symposium vorbei. Für den Abend und den Morgen des darauffolgenden Tages waren weitere allgemeine Veranstaltungen innerhalb der AAAI 2017 Spring Symposia geplant.

AI for Social Good III

Weiter ging es mit dem AAAI Spring Symposium „AI for Social Good“ am 27. März 2017 um 14.00 Uhr mit der Talk Session 1 („Healtcare“). Den Session Chair hatte Eric Horvitz (Technical Fellow & Managing Director, Microsoft Research) inne. Er führte aus technisch-mathematischer Perspektive in die Thematik ein. Lanbo She (Michigan State University) begann mit „Teaching and Checking of Constraints for Surgical Tray Layout“. Er schlug einen Agenten vor, der beim korrekten Zusammenstellen der Operationsinstrumente für unterschiedliche Situationen hilft. Co-Autor des Papers war Jonathan Connell (IBM T. J. Watson Research). Sujoy Chatterjee referierte anstelle von Malay Bhattacharya (Indian Statistical Institute, Kolkata) über „In Search of Health Doubles“. Nach ihrem Ansatz sollte man weltweit Personen identifizieren können, die in ihren biologischen Eigenschaften zu anderen Personen passen, denen damit geholfen werden kann. Arnaud Delaunay (LinkValue) ging in „Wandering Detection Within an Embedded System for Alzheimer Suffering Patients“ auf einen innovativen Ansatz für Alzheimer-Patienten ein, die mit einer Smartwatch ausgestattet und überwacht werden. Co-Autor des Papers war Jean Guerin. Der Vortrag von Yevgeniy Vorobeychik (Vanderbilt University) – das Paper wurde zusammen mit Bo Li, Muqun Li und Bradley Malin geschrieben – trug den Titel „Sanitizing Large-Scale Medical Records Before Publishing“ und stellte eine iterative Methode für „sanitizing data at scale“ vor.

AI for Social Good II

Das AAAI Spring Symposium „AI for Social Good“ wurde am 27. März 2017 nach der Kaffeepause um 11.00 Uhr fortgeführt. Eric Rice (USC School of Social Work) und Sharad Goel (Stanford University) referierten in ihren Keynotes zum Thema „AI for the Social Sciences“. Ihr Ausgangspunkt: „While the public frets over a future threat of killer robots or the dream of a driverless car, computer scientists and social scientists can engage in novel solutions to vexing social problems today.“ (Website AISOC) Eric Rise ist Mitbegründer des USC Center for Artificial Intelligence in Society. Er stellte zuerst sein eigenes Forschungsfeld dar, die Sozialarbeit, und ging dann auf das Phänomen der Obdachlosen in den USA ein. Künstliche Intelligenz kann auch in diesem Feld angewandt werden, etwa indem man Netzwerke und ihre Mitglieder sichtbar macht und dann Personen dazu ermuntert, bestimmte Funktionen – etwa eines Anführers oder Vorbilds – zu übernehmen. Der Vortrag von Sharad Goel trug den Titel „Algorithms to assist judicial decision-making“. Der Assistenzprofessor am Department of Management Science & Engineering der Stanford University betonte, dass in diesem Bereich einfache, interpretierbare Regeln wichtig sind; die Urteile müssen nach seiner Meinung „fast, frugal and clear“ sein. Der Wissenschaftler gab ein Ende ein Versprechen „of greater efficiency, equity, and transparency“.

AAAI-Workshop zur Maschinenethik V

Am 23. März 2016 wurde der Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University innerhalb der AAAI Spring Symposium Series fortgeführt. Die Keynote „Programming Machine Ethics“ hielt Kumar Pandey von Aldebaran Robotics (SoftBank Group). Er war aus Krankheitsgründen über Skype zugeschaltet. Er stellte kommerzielle Produkte vor und zeigte Videos zu Pepper. Nicht nur Pepper stammt von dem französischen Unternehmen, sondern auch Nao. Beide sind darauf ausgelegt, mit Menschen zusammenzuleben. Das Feedback der Benutzer war ambivalent. Er sollte nicht oder nicht immer für mich entscheiden, lautete eine Meinung. Eine andere war: Er soll nicht das tun, was ich tun kann, damit ich nicht faul werde. Auch die Meinung der Teilnehmer war ambivalent, in Bezug auf die Visionen und die Videos. Der Referent selbst räumte ein, man spiele mit den Emotionen der Benutzer. Am Ende fragte er nach der Haftung und nach der Zertifizierung in moralischer Hinsicht und stellte die Behauptung auf, der Roboter sollte wissen, was er nicht tun darf, nicht lernen. Und er fragte, was sein wird, wenn der Roboter eines Tages einen Befehl verweigert. In der Panel Discussion arbeitete man die Erkenntnisse der letzten Tage auf, analysierte die Principles of Robotics der EPSRC aus dem Jahre 2011 und diskutierte Möglichkeiten für den weiteren Austausch.

Abb.: Salt and Pepper

AAAI-Workshop zur Maschinenethik IV

Beim Workshop „Ethical and Moral Considerations in Non-Human Agents“ war am Vormittag des 22. März eifrig vorgetragen und heftig diskutiert worden. Am Nachmittag begann Peter Asaro mit „The Liability Problem for Autonomous Artificial Agents“. Wenn der Hund, den man hält, einen Schaden anrichtet, haftet man teilweise, wenn der Tiger, der ausbricht, jemanden verletzt oder tötet, dagegen voll. Entsprechend könnte man bei Robotern einen Unterschied machen. „Patiency Is Not a Virtue: AI and the Design of Ethical Systems“ lautete der Titel des nächsten Talks. Joanna Bryson unterschied zwischen „moral agents“ und „moral patients“, erklärte den Begriff der Superintelligence und wandte ihn auf die Menschheit selbst an. Nach der Kaffeepause thematisierten Ron Artstein and Kenneth Silver eine „Ethics for a Combined Human-Machine Dialogue Agent“. Ausgangspunkt waren die in Museen arrangierten Gespräche mit Überlebenden des Holocausts. Deren Rolle soll von „dialogue agents“ übernommen werden, die mit vorher aufgezeichneten Aussagen auf die Fragen der Besucher antworten. Dabei können moralische Probleme auftreten, die mit Hilfe von ethischen Überlegungen angegangen werden können. Benjamin Kuipers wartete in „Morality and Ethics for Humans and Robots“ mit Ausschnitten aus Filmen wie „Terminator 2“ und „Robot & Frank“ auf und analysierte die Haltung der Roboter. Beim Terminator sei das Problem nicht Superintelligence, sondern Superpower. Zum Roboterauto-Problem bemerkte er, der Designer könne nicht jegliches Unheil verhindern. Das Auto müsse sich unser Vertrauen verdienen. Den Abschluss bildete „Robot Priest: Trust and Human Sciences“ von Cindy Mason. Neben ihr saß ein als Priester verkleideter WALL·E, und sie zeigte weitere Kostümierungen des Filmroboters, die jeweils unterschiedliche Erwartungen hervorrufen. Ihr ging es darum, inwieweit man Menschen und Maschinen vertrauen und wie das Aussehen damit zusammenhängen kann.

tiger

Abb.: Peter Asaro ließ den Tiger ausbrechen

AAAI-Workshop zur Maschinenethik III

Am 22. März 2016 wurde der Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University innerhalb der AAAI Spring Symposium Series fortgeführt. Die Keynote „Programming Machine Ethics“ wurde von Luís Moniz Pereira von der Universidade Nova de Lisboa gehalten. Er stellte sein Buch mit dem gleichen Titel und, damit einhergehend, ein Modell für einen moralischen Agenten vor. Bipin Indurkhya schlug in seinem Vortrag „Incorporating human dimension in autonomous decision-making on moral and ethical issues“ (das Paper entstand zusammen mit Joanna Misztal-Radecka) ein Expertensystem vor, das moralische Argumente aus unterschiedlichen Perspektiven liefert. Nach dem Coffee Break war Tony Veale über Skype zugeschaltet, mit „A Rap on the Knuckles and a Twist in the Tale: From Tweeting Affective Metaphors to Generating Stories with a Moral“. Er ließ sich von Tweets mit moralischen Aussagen inspirieren, die von Twitter-Bots stammen, und entwickelte eine Methode zum automatisierten Erzählen von moralischen Geschichten. In „Attachment Theor(ies) & Empathy: The Ethics of the Human in Sex and Love with Robots“ äußerte Kathleen Richardson, ebenfalls per Videokonferenz, ihre moralischen Bedenken gegenüber Sexrobotern, ohne eine wissenschaftliche, ethische Perspektive einzunehmen, wie die Diskutanten bemerkten. Andree Thieltges und Simon Hegelich (das Paper entstand in Zusammenarbeit mit Florian Schmidt) referierten vor Ort über „The Devil’s Triangle: Ethical considerations on developing bot detection methods“. Sie widmeten sich den Gefahren, die von Social Bots ausgehen mögen, und gingen der Frage nach, wie diese identifiziert werden können. Danach ging man in die Mittagspause.