Schlagwörter: Künstliche Intelligenz

AI for Social Good VII

Den Session Chair für die Talk Session 5 („Miscellaneous“) beim AAAI Spring Symposium „AI for Social Good“ hatte Amulya Yadav inne. Er ging auf die Methoden und Strategien im Bereich „AI for Social Good“ ein, erwähnte den Belmont-Report und wertete ihn für den gegebenen Kontext aus. „Optimal Thresholds for Intrusion Detection Systems“ wurde von Yevgeniy Vorobeychik vorgetragen (Paper zusammen mit Aron Laszka, Waseem Abbas u.a.). Die Methoden wurden auf „Water Distribution Networks“ angewandt. Das Referat von Evan Patterson trug den Titel „Machine representation of Data Analyses“ (Paper mit Ioana Baldini, Aleksandra Mojsilovic und Kush Varshney). Er ging aus von einer Case Study namens „Accelerated Cure Project“ und fragte nach neuen Arten von „data science platforms“. Oliver Bendel ging in „Towards Kant Machines“ (Paper zusammen mit Kevin Schwegler und Bradley Richards) auf das abgeschlossene LÜGENBOT-Projekt ein. Der LIEBOT ist in der Lage, systematisch zu lügen. Die Ergebnisse können dazu verwendet werden, solche natürlichsprachlichen Systeme zu entwickeln, die niemals oder selten lügen. Danach präsentierte er sein Paper „LADYBIRD: the Animal-Friendly Robot Vacuum Cleaner“. LADYBIRD erkennt Marienkäfer und stellt, wenn ihm diese zu nahe kommen, seine Arbeit ein. Der Prototyp wird zurzeit an der Hochschule für Wirtschaft FHNW entwickelt. Erisa Karafili offerierte eine „Argumentation-based Security for Social Good“ (Co-Autoren sind Antonis C. Kakas, Nikolaos I. Spanoudakis und Emil C. Lupu), Mahendra Prasad reiste „Back to the Future“, mit „A Framework for Modelling Altruistic Intelligence Explosions“ im Gepäck. Um 17.30 Uhr – nach einer angeregten Plenumsdiskussion – war das Symposium vorbei. Für den Abend und den Morgen des darauffolgenden Tages waren weitere allgemeine Veranstaltungen innerhalb der AAAI 2017 Spring Symposia geplant.

AI for Social Good III

Weiter ging es mit dem AAAI Spring Symposium „AI for Social Good“ am 27. März 2017 um 14.00 Uhr mit der Talk Session 1 („Healtcare“). Den Session Chair hatte Eric Horvitz (Technical Fellow & Managing Director, Microsoft Research) inne. Er führte aus technisch-mathematischer Perspektive in die Thematik ein. Lanbo She (Michigan State University) begann mit „Teaching and Checking of Constraints for Surgical Tray Layout“. Er schlug einen Agenten vor, der beim korrekten Zusammenstellen der Operationsinstrumente für unterschiedliche Situationen hilft. Co-Autor des Papers war Jonathan Connell (IBM T. J. Watson Research). Sujoy Chatterjee referierte anstelle von Malay Bhattacharya (Indian Statistical Institute, Kolkata) über „In Search of Health Doubles“. Nach ihrem Ansatz sollte man weltweit Personen identifizieren können, die in ihren biologischen Eigenschaften zu anderen Personen passen, denen damit geholfen werden kann. Arnaud Delaunay (LinkValue) ging in „Wandering Detection Within an Embedded System for Alzheimer Suffering Patients“ auf einen innovativen Ansatz für Alzheimer-Patienten ein, die mit einer Smartwatch ausgestattet und überwacht werden. Co-Autor des Papers war Jean Guerin. Der Vortrag von Yevgeniy Vorobeychik (Vanderbilt University) – das Paper wurde zusammen mit Bo Li, Muqun Li und Bradley Malin geschrieben – trug den Titel „Sanitizing Large-Scale Medical Records Before Publishing“ und stellte eine iterative Methode für „sanitizing data at scale“ vor.

AI for Social Good II

Das AAAI Spring Symposium „AI for Social Good“ wurde am 27. März 2017 nach der Kaffeepause um 11.00 Uhr fortgeführt. Eric Rice (USC School of Social Work) und Sharad Goel (Stanford University) referierten in ihren Keynotes zum Thema „AI for the Social Sciences“. Ihr Ausgangspunkt: „While the public frets over a future threat of killer robots or the dream of a driverless car, computer scientists and social scientists can engage in novel solutions to vexing social problems today.“ (Website AISOC) Eric Rise ist Mitbegründer des USC Center for Artificial Intelligence in Society. Er stellte zuerst sein eigenes Forschungsfeld dar, die Sozialarbeit, und ging dann auf das Phänomen der Obdachlosen in den USA ein. Künstliche Intelligenz kann auch in diesem Feld angewandt werden, etwa indem man Netzwerke und ihre Mitglieder sichtbar macht und dann Personen dazu ermuntert, bestimmte Funktionen – etwa eines Anführers oder Vorbilds – zu übernehmen. Der Vortrag von Sharad Goel trug den Titel „Algorithms to assist judicial decision-making“. Der Assistenzprofessor am Department of Management Science & Engineering der Stanford University betonte, dass in diesem Bereich einfache, interpretierbare Regeln wichtig sind; die Urteile müssen nach seiner Meinung „fast, frugal and clear“ sein. Der Wissenschaftler gab ein Ende ein Versprechen „of greater efficiency, equity, and transparency“.

Fonds für die Forschung zu KI und Ethik

Wie Heise und andere Medien melden, fördern die Gründer von eBay und LinkedIn die Forschung zur Künstlichen Intelligenz in der Moral. Dabei werden fast zwangsläufig auch Maschinenethik und Roboterethik profitieren. „Mit 27 Millionen US-Dollar Vermögen soll ein neuer Stiftungsfonds die Forschung über KI und Ethik voranbringen.“ (Heise, 11. Januar 2017) Verwaltet werden soll der sogenannte Ethics and Governance of Artificial Intelligence Fund vom MIT Media Lab, vom Berkman Klein Centre an der Harvard University sowie von den Hauptspendern. Man wolle, so Heise, Debatten etwa darüber voranbringen, wie sich Sozialwissenschaften und Informatik für „Künstliche Intelligenzen“ verbinden lassen, die – damit wird Media-Lab-Leiter Joi Ito zitiert – „nicht nur smart, sondern auch sozial verantwortungsbewusst“ sind (Heise, 11. Januar 2017). KI und Ethik sind auch das Thema bei der AAAI-Konferenz in Stanford mit dem Titel „AI for the Social Good“ im März 2017. Weitere Informationen über www.heise.de/newsticker/meldung/Initiative-fuer-ethische-KI-Gruender-von-eBay-und-Linkedin-spenden-Millionen-3593842.html.

Das Auto ein bisschen dumm lassen

In der Februarausgabe von P.M. Magazin ist ein langes Interview mit Oliver Bendel abgedruckt. Am 9. September trafen sich der Redakteur Rüdiger Barth und der Wissenschaftler auf dem Campus Brugg-Windisch der FHNW und sprachen über Maschinenethik, Künstliche Intelligenz und Robotik. P.M. ist eine populärwissenschaftliche Zeitschrift und hat eine Auflage von ca. 163.000 Exemplaren. Der Titel des sechsseitigen Beitrags – neben dem Interview finden sich noch Informationen zu Oliver Bendel und zu den Robotikgesetzen von Isaac Asimov – lautet „Ich würde das Auto ein bisschen dumm lassen“. Der Informationsethiker und Maschinenethiker kann sich vorstellen, dass Autos klug genug sind, für bestimmte Tiere zu bremsen, wenn die Luft rein ist, sie aber zu dumm dafür sind, Menschen zu qualifizieren, auf ihre Eigenschaften zu schauen, um sie dann bei einem Unfall zu verschonen oder nicht zu verschonen, was man wiederum als klug bezeichnen könnte, da es keine befriedigenden Lösungen für solche Entscheidungen gibt. Auch das Quantifizieren ist, zumindest bei kleinen Zahlen, nicht angemessen. Warum sollte jemand getötet werden, nur weil zwei Passanten in der Nähe stehen? Kaum jemand würde das akzeptieren, der Betroffene nicht, die Familie nicht, die Freunde nicht. Die zwei Passanten wären natürlich aufgeschlossener für solche Abwägungen, aber auch nur, wenn sie zusammen unterwegs sind und nicht alleine, was wiederum die Ungerechtigkeit zeigt. Solche Gedankenspiele dürfen nicht mit der Wirklichkeit verwechselt werden. Sie sind aber ein klassisches Mittel, um Grundannahmen und Widersprüche zu erkennen und am Ende die Wirklichkeit auch gestalten zu können.

Abb.: Wie entscheidet das Auto, wenn man es lässt?

AI for the Social Good

Vom 27. bis 29. März 2017 finden die AAAI 2017 Spring Symposia statt. Veranstaltet werden sie von der Association for the Advancement of Artificial Intelligence, in Kooperation mit dem Department of Computer Science der Stanford University. Das Symposium „AI for the Social Good“ an der Stanford University widmet sich auch Themen der Roboter- und der Maschinenethik. Auf der Website heißt es: „A rise in real-world applications of AI has stimulated significant interest from the public, media, and policy makers, including the White House Office of Science and Technology Policy (OSTP). Along with this increasing attention has come media-fueled concerns about purported negative consequences of AI, which often overlooks the societal benefits that AI is delivering and can deliver in the near future. This symposium will focus on the promise of AI across multiple sectors of society.“ (Website AISOC) In einer Talk Session spricht Oliver Bendel über „LADYBIRD: the Animal-Friendly Robot Vacuum Cleaner“. In der Lightning Talks Session ist er nochmals vertreten, mit dem Vortrag „Towards Kant Machines“. In der gleichen Session referiert Mahendra Prasad über „A Framework for Modelling Altruistic Intelligence Explosions“ (vorangestellt ist der Titel „Back to the Future“), und Thomas Doherty geht der Frage „Can Artificial Intelligence have Ecological Intelligence?“ nach. Das ganze Programm kann über scf.usc.edu/~amulyaya/AISOC17/papers.html aufgerufen werden.

Abb.: LADYBIRD ist auf Marienkäfer spezialisiert

Wenn Maschinen denken

Die Oesterreichische Kontrollbank Aktiengesellschaft widmet die aktuelle Ausgabe von RELEVANT (4/2016) der Künstlichen Intelligenz. „Wenn Maschinen denken“ heißt der Schwerpunkt. Im Inhaltsverzeichnis wird Appetit auf das Thema gemacht: „Erst lernten Computer das Rechnen, nun lernen sie Autos zu fahren, Forschungshypothesen aufzustellen und Steuersünder zu finden – besser als wir Menschen. Sind dadurch unsere Arbeitsplätze in Gefahr?“ (RELEVANT, 4/2016) Im Magazin finden sich u.a. Interviews mit dem Informatiker Stefan Woltran (TU Wien und Universität Leipzig) und dem Maschinenethiker Oliver Bendel (Hochschule für Wirtschaft FHNW). „Die Oesterreichische Kontrollbank Aktiengesellschaft (OeKB) ist Österreichs zentraler Finanz- und Informationsdienstleister für Exportwirtschaft und Kapitalmarkt. Ihre speziellen Services stärken den Standort Österreich und unterstützen die Wirtschaft im globalen Wettbewerb. Die vielfältigen Dienstleistungen stehen Unternehmen und Finanzinstitutionen sowie Einrichtungen der Republik Österreich zur Verfügung.“ (Website OeKB) Das gesamte Heft kann über www.oekb.at/de/osn/DownloadCenter/RELEVANT/RELEVANT-4-2016.pdf heruntergeladen werden.

Abb.: Wenn Maschinen denken

Am Vergewaltigen kein emotionales Interesse

Ein langes Interview mit dem Informations- und Maschinenethiker Oliver Bendel hat Jennifer Appel von der internationalen Agentur Maisberger geführt. Die erste Frage lautet: „Roboter werden immer intelligenter. Wie sehen Sie diese Entwicklung? Wird unser Leben leichter oder müssen wir am Ende doch befürchten, dass uns das Ruder aus der Hand genommen wird?“ Die Antwort: „Roboter können uns unterstützen, etwa bei schweren körperlichen Tätigkeiten, und damit unserer Gesundheit zuträglich sein. Beispielsweise drücken sie bereits heute als Leichtbauroboter in einem Autowerk in Spartanburg die Türdichtung in eine Autotür, übrigens direkt neben dem Arbeiter, der leichteren Aufgaben nachgehen darf und dessen Handgelenk geschont wird, oder helfen dem Pfleger, einen Patienten umzubetten. Roboter können uns auch ersetzen. Die Industrie 4.0 baut geradezu auf die möglichst vollständige Substitution von Menschen in der Produktion. Das Ruder in der Hand behält der Manager. Aus der Hand nehmen es uns manche Softwareroboter und KI-basierte Programme, die uns als Verdächtige einstufen oder unsere Kreditwürdigkeit beurteilen. Dass Roboter die Weltherrschaft übernehmen, wie manche glauben, dürfte unwahrscheinlich sein.“ Auch um den Kampfroboter geht es; bereits in der Überschrift heißt es über ihn: „… am Vergewaltigen hat er zumindest kein emotionales Interesse“. Dennoch lehnt Oliver Bendel seinen Einsatz ab. Das ganze Interview kann seit Dezember 2016 über http://www.maisberger.de nachgelesen werden.

ritter

Abb.: Ritter oder Roboter?

Vom hässlichen Entlein zum stolzen Schwan

Beim Swiss Re Life & Health Forum 2016 am 25. November in München wird es unter anderem um Künstliche Intelligenz (KI) gehen. Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW trägt vor zum Thema „Künstliche Intelligenz: Vom hässlichen Entlein zum stolzen Schwan“ und beantwortet die Frage: „Was kommt auf die digitalisierte Gesellschaft zu?“ Dr. Andrea Cornelius, Vice President, Global Insurance, IBM Cognitive Solutions, widmet sich im Anschluss daran einem ganzen Spektrum, „Von neuen Serviceangeboten über das Underwriting bis hin zur Leistungsprüfung“, und stellt die Frage „Werden kognitive Lösungen die Versicherungswirtschaft revolutionieren?“ Auf dem Podium diskutieren dann der Wissenschaftler und die Unternehmensvertreterin mit Markus Unterkofler, Head Client Management Germany L&H, Swiss Re, und Marcus Nagel, Vorstandsvorsitzender der Zurich Gruppe Deutschland. Es moderiert Dr. Ralf Krüger von Swiss Re. Weitere Informationen über www.swissre.com/events/swiss_re_LH_forum_think_tomorrow.html.

schwan

Abb.: Vom hässlichen Entlein zum stolzen Schwan

Watson for President

In den letzten Monaten konnte man immer wieder die Aussage hören, ein Roboter oder eine KI-Einheit würde ein besserer Präsident sein als die amtierenden oder kandidierenden Personen es sind oder wären. Ein Roboter hätte nicht den religiösen Habitus eines Joachim Gauck und nicht den weltlichen Wahn eines Donald Trump. Eine KI-Einheit wie IBM Watson könnte rational und auf der Grundlage aller verfügbaren Fakten entscheiden. Überlegungen in dieser Richtung stellt auch eine amerikanische Stiftung an. Auf ihrer Website schreibt sie: „The Watson 2016 Foundation is an independent organization formed for the advocacy of the artificial intelligence known as Watson to run for President of The United States of America. It is our belief that Watson’s unique capabilities to assess information and make informed and transparent decisions define it as an ideal candidate for the job responsibilities required by the president.“ (Website The Watson 2016 Foundation) Sie stellt auch klar: „The Watson 2016 Foundation has no affiliation with IBM. The views and opinions expressed here in no way represent the views, positions or opinions – expressed or implied – by IBM or anyone else.“ (Website The Watson 2016 Foundation) Natürlich sind schnell Nachteile eines KI-Präsidenten zu erkennen. Er kann fehlerhaft sein, gehackt und manipuliert werden, er macht abhängig von den Betreibern, und er kann die symbolische Wirkung eines Präsidenten nicht erreichen, was allerdings auch als Vorteil gewertet werden kann. Ein künstlicher Präsident müsste nicht nur als komplexe politische, sondern auch als komplexe rechtliche und moralische Maschine gestaltet werden. Dies wiederum fällt in den Gegenstandsbereich von Roboterrecht und Maschinenethik. Manche Maschinenethiker lehnen komplexe moralische Maschinen ab und bevorzugen einfache. Weitere Informationen über http://watson2016.com/.

barack_obama

Abb.: Echt oder KI?