Schlagworte: AI

Übersetzung und KI: Gefahr oder Chance?

„Welchen Platz nimmt die Technologie des Posthumanismus in der Übersetzung ein? Die Geschichte der Künstlichen Intelligenz ist eng mit jener der Übersetzung verknüpft. Grund dafür ist vielleicht die Tatsache, dass die Suche nach dem tieferen Sinn etwas sehr Menschliches ist und einer Maschine kaum zugetraut wird.“ (Website ASTTI) Die maschinelle Übersetzung (engl. „machine translation“, kurz MT), seit jeher ein zentrales Thema im IT-Bereich, habe in den letzten Jahren enorme Fortschritte gemacht. Läutet sie, so der Schweizerische Übersetzer-, Terminologen- und Dolmetscherverband (ASTTI), das Ende der menschlichen Übersetzung ein? „Der ASTTI möchte diese Büchse der Pandora öffnen und lädt alle interessierten Sprachmittlerinnen und Sprachmittler zu seiner Jahrestagung équivalences ein, die sich am 16. November 2018 im Kursaal in Bern mit dem faszinierenden Thema MT auseinandersetzen wird.“ (Website ASTTI) Die Vortragenden sind Martin Kappus, Sabrina Girletti, Daria Caiano, Samuel Läubl, Alison López-Edge, Anna Busby, Hellmut Riediger, Gabriele Galati und Oliver Bendel. Mehr über new.astti.ch/web/Jahrestagung_equivalences_488_3.php.

Abb.: Maschinelle Simultanübersetzung

Ethik der Algorithmen

Das Handelsblatt titelt am 26. August 2018 mit den Worten „Wenn Algorithmen den Menschen diskriminieren“. Im Teaser des Beitrags von Hannah Steinharter und Michael Maisch heißt es: „Die Finanzbranche setzt enorme Hoffnungen auf die künstliche Intelligenz. Aber die Herrschaft der Maschinen führt zu ernsten ethischen Problemen.“ Und im Haupttext: „Künstliche Intelligenz (KI) rechnet in der Finanzbranche nicht nur Versicherungsbeiträge aus. Mithilfe von Algorithmen überprüfen Banken und andere Finanzdienstleister die Kreditwürdigkeit ihrer Kunden, forschen nach Betrug und automatisieren quasi jeden Geschäftsbereich – von der Vermögensverwaltung bis zur Kontoeröffnung.“ (Handelsblatt, 26. August 2018) Befragt wurden zu dem Thema u.a. Raúl Rojas aus Berlin und Oliver Bendel aus Zürich. Der Artikel kann über www.handelsblatt.com/finanzen/banken-versicherungen/kuenstliche-intelligenz-wenn-algorithmen-den-menschen-diskriminieren/22949674.html abgerufen werden.

Abb.: Kredit erhalten

Das BESTBOT-Projekt

An der Hochschule für Wirtschaft FHNW wurde von März bis August 2018 der BESTBOT entwickelt. Vorgängerprojekte waren der GOODBOT (2013) und der LIEBOT (2016). Prof. Dr. Oliver Bendel forscht seit einigen Jahren in der jungen Disziplin der Maschinenethik. Diese bringt in Zusammenarbeit mit Robotik und Künstlicher Intelligenz (KI) moralische Maschinen hervor. Anfang 2018 stellte Bendel an der Stanford University im Rahmen einer KI-Konferenz sein Paper „From GOODBOT to BESTBOT“ vor, das die Grundlage für das BESTBOT-Projekt legte. David Studer programmierte den Chatbot in Java. Zudem verwendete er JavaScript, HTML und CSS. In technischen Fragen stand ihm Prof. Dr. Bradley Richards zur Seite. Wie der LIEBOT ist der BESTBOT ein vernetztes System, das Suchmaschinen und Lexika benutzt. Er analysiert die Texteingaben des Benutzers mit textbasierter Emotionserkennungssoftware. Zugleich wird Gesichtserkennung eingesetzt, wiederum mit Emotionserkennung. Wenn der Benutzer zum Beispiel angibt, dass es ihm gut geht, sein Gesicht aber anderes verrät, spricht der Chatbot diesen Widerspruch an. Dieser erkennt sowohl kleine als auch große Sorgen. Wie der GOODBOT kann der BESTBOT über mehrere Ebenen eskalieren und eine passende Notfallnummer herausgeben. Wie sein Vorgänger macht er deutlich, dass er nur eine Maschine ist. Besonders ist auch, dass er bei Tatsachenbehauptungen die Quelle angibt. Der BESTBOT wird 2019 auf Konferenzen vorgestellt.

Abb.: Der BESTBOT identifiziert Probleme mit Hilfe von Emotionserkennung

Robophilosophy

„Robophilosophy 2018 – Envisioning Robots In Society: Politics, Power, And Public Space“ is the third event in the Robophilosophy Conference Series which focusses on robophilosophy, a new field of interdisciplinary applied research in philosophy, robotics, artificial intelligence and other disciplines. The main organizers are Prof. Dr. Mark Coeckelbergh, Dr. Janina Loh and Michael Funk. Plenary speakers are Joanna Bryson (Department of Computer Science, University of Bath, UK), Hiroshi Ishiguro (Intelligent Robotics Laboratory, Osaka University, Japan), Guy Standing (Basic Income Earth Network and School of Oriental and African Studies, University of London, UK), Catelijne Muller (Rapporteur on Artificial Intelligence, European Economic and Social Committee), Robert Trappl (Head of the Austrian Research Institute for Artificial Intelligence, Austria), Simon Penny (Department of Art, University of California, Irvine), Raja Chatila (IEEE Global Initiative for Ethical Considerations in AI and Automated Systems, Institute of Intelligent Systems and Robotics, Pierre and Marie Curie University, Paris, France), Josef Weidenholzer (Member of the European Parliament, domains of automation and digitization) and Oliver Bendel (Institute for Information Systems, FHNW University of Applied Sciences and Arts Northwestern Switzerland). The conference will take place from 14 to 17 February 2018 in Vienna. More information via conferences.au.dk/robo-philosophy/.

Fig.: Robophilosophy in Vienna

Conference on AI, Ethics, and Society

AAAI announced the launch of the AAAI/ACM Conference on AI, Ethics, and Society, to be co-located with AAAI-18, February 2-3, 2018 in New Orleans. The Call for Papers is available at http://www.aies-conference.com. October 31 is the deadline for submissions. „As AI is becoming more pervasive in our life, its impact on society is more significant and concerns and issues are raised regarding aspects such as value alignment, data bias and data policy, regulations, and workforce displacement. Only a multi-disciplinary and multi-stakeholder effort can find the best ways to address these concerns, including experts of various disciplines, such as AI, computer science, ethics, philosophy, economics, sociology, psychology, law, history, and politics.“ (AAAI information) The new conference complements and expands the classical AAAI Spring Symposia at Stanford University (including symposia like „AI for Social Good“ in 2017 or „AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ in 2018).

Fig.: AI and ethics could help society

Liebe und Sex mit Robotern

Die Konferenz im Dezember 2016 an der University of London (Goldsmiths) mit dem Titel „Love and Sex with Robots“ hat ein enormes internationales Echo ausgelöst. Insbesondere in den englischen und amerikanischen Boulevardmedien wurden Aussagen der Referenten verdreht und verfälscht. Was sie wirklich gesagt und gemeint haben, lässt sich nun schwarz auf weiß nachlesen. Ende April 2017 ist das Buch „Love and Sex with Robots“ bei Springer herausgekommen, in der Reihe „Lecture Notes in Artificial Intelligence“. Aus dem Klappentext: „This book constitutes the refereed proceedings of the Second International Conference on Love and Sex with Robots 2016 in December 2016, in London, UK. The 12 revised papers presented together with 1 keynote were carefully reviewed and selected from a total of 38 submissions. … The topics of the conferences were as follows: robot emotions, humanoid robots, clone robots, entertainment robots, robot personalities, teledildonics, intelligent electronic sex hardware, gender approaches, affective approaches, psychological approaches, sociological approaches, roboethics, and philosophical approaches.“ (Klappentext) Beiträge stammen u.a. von David Levy, Emma Yann Zhang und Oliver Bendel. Das Buch kann hier bestellt werden.

We love AI

„We love AI“ nennt sich ein neues Angebot der Deutschen Telekom im World Wide Web, das sich ganz der Künstlichen Intelligenz widmet. Jan Hofmann begrüßt die Besucher: „Wir sind überzeugt, dass künstliche Intelligenz nicht nur den Kundenservice verändern wird, sondern unsere gesamte Industrie – jede Industrie, unsere Gesellschaft und unser tägliches Leben.“ (Website We love AI) Eines der ersten Interviews wurde mit dem Informations- und Maschinenethiker Oliver Bendel geführt. Er untersucht die Möglichkeit maschineller Moral und baut einfache moralische Maschinen als Artefakte, die er dann wiederum untersucht. Zu seinem neuesten Projekt innerhalb der Maschinenethik, das einen tierfreundlichen Saugroboter namens LADYBIRD zum Ziel hat, sagt er: „Mir geht es um das Prinzip. Mir geht es darum, zu zeigen, dass solche tierfreundlichen Maschinen möglich sind. Dass man zum Beispiel Entscheidungsbäume benutzen kann, um solche Maschinen zu bauen. In diese Entscheidungsbäume kann man moralische Begründungen einbeziehen. Das mit Ladybird ist ein sehr anschauliches Beispiel. Wir bauen eine Maschine, die bestimmte Farbsensoren hat, die über Muster- und Bilderkennung verfügt und tatsächlich den Marienkäfer erkennt und verschont. Ich will das Prinzip verdeutlichen: Es ist möglich, eine Maschine zu bauen, die bestimmten ethischen Modellen und moralischen Regeln folgt.“ Das ganze Interview kann über www.we-love.ai/de/blog/post/Interview-OliverBendel.html aufgerufen werden.

Abb.: Der Saugroboter erkennt Marienkäfer

Der Kampf der Maschinen

Die ZEIT führte mit dem Maschinenethiker Oliver Bendel ein Interview, das am 11. bzw. 12. April 2017 veröffentlicht wurde. Eine Frage lautete: „Kann man in Bezug auf bestimmte Programme oder Roboter überhaupt von Moral oder Unmoral sprechen? Können Maschinen gut oder böse sein?“ Die Antwort: „Da sind wir mittendrin in der Maschinenethik. Wir kennen seit 2500 Jahren die Ethik als eine Disziplin, die sich ausschließlich auf Menschen richtete. Jetzt haben wir es mit neuen Subjekten der Moral zu tun, eben Maschinen. Natürlich sind sie nicht gut oder böse, weil sie keinen eigenen Willen, kein Bewusstsein haben. Aber sie treffen, teilautonom oder autonom, bestimmte moralisch relevante Entscheidungen.“ Eine ähnliche Diskussion begann mit der Disziplin der Künstlichen Intelligenz. Viele Experten verwenden den Begriff der künstlichen Intelligenz (der auf den Gegenstand der Disziplin verweist) metaphorisch oder intentional. So kann man es auch bei der „maschinellen Moral“ machen. Die letzte Frage lautete: „Werden intelligente Roboter irgendwann einmal die Menschheit bedrohen?“ Oliver Bendel antwortete dem Journalisten: „Dass sich Roboter zusammenrotten, um uns Menschen zu eliminieren, halte ich für surreal. Dass Maschinen zu Rassisten werden können, ist schon Realität.“ Das Interview kann über www.zeit.de/2017/16/kuenstliche-intelligenz-moral-maschinenethik-interview nachgelesen werden.

Abb.: Der Kampf der Maschinen

Die Artenvielfalt der Automaten

„Android oder Maschine?“ Das fragt die neue Ausgabe der Zeitschrift designreport (Erscheinungsdatum 13. April 2017). In der Ankündigung wird deutlich, worum es geht: „Kaum ein Technologiebereich entwickelt sich derzeit so dynamisch wie die Robotik. Unterstützt von den Fortschritten der Künstlichen Intelligenz steigern sich die Autonomie und damit auch die Anwendungsszenarien automatischer Systeme. Längst geht es nicht mehr nur um Industrieroboter, sondern um persönliche Alltagsassistenten, um Roboter für Medizin, Logistik, Sicherheit oder Mobilität. Die Artenvielfalt der Automaten wächst dynamisch – und damit eine ganz neue Aufgabe für das Design. Dabei geht es nicht nur um die Frage, ob und wie humanoid die neuen Roboter sein dürfen. Es geht vielmehr um die Gestaltung eines neuen technologischen Abschnittes und um die Art, wie wir künftig leben sowie arbeiten wollen. Das Design hat wesentlichen Einflussauf die Nutzungsszenarien, aber auch auf die Akzeptanz der Maschinen.“ (Website designreport) Die Redakteure stellen die neuesten Entwicklungen vor und berichten über einen Besuch der Ausstellung „Hello Robot“ in Weil am Rhein. Enthalten sind auch Interviews, mit einem KUKA-Entwickler zu Industrierobotern und mit Oliver Bendel (Hochschule für Wirtschaft FHNW) zur Maschinenethik. Weitere Informationen über  www.designreport.de.

Abb.: Die Artenvielfalt der Zahnräder

AI for Social Good VII

Den Session Chair für die Talk Session 5 („Miscellaneous“) beim AAAI Spring Symposium „AI for Social Good“ hatte Amulya Yadav inne. Er ging auf die Methoden und Strategien im Bereich „AI for Social Good“ ein, erwähnte den Belmont-Report und wertete ihn für den gegebenen Kontext aus. „Optimal Thresholds for Intrusion Detection Systems“ wurde von Yevgeniy Vorobeychik vorgetragen (Paper zusammen mit Aron Laszka, Waseem Abbas u.a.). Die Methoden wurden auf „Water Distribution Networks“ angewandt. Das Referat von Evan Patterson trug den Titel „Machine representation of Data Analyses“ (Paper mit Ioana Baldini, Aleksandra Mojsilovic und Kush Varshney). Er ging aus von einer Case Study namens „Accelerated Cure Project“ und fragte nach neuen Arten von „data science platforms“. Oliver Bendel ging in „Towards Kant Machines“ (Paper zusammen mit Kevin Schwegler und Bradley Richards) auf das abgeschlossene LÜGENBOT-Projekt ein. Der LIEBOT ist in der Lage, systematisch zu lügen. Die Ergebnisse können dazu verwendet werden, solche natürlichsprachlichen Systeme zu entwickeln, die niemals oder selten lügen. Danach präsentierte er sein Paper „LADYBIRD: the Animal-Friendly Robot Vacuum Cleaner“. LADYBIRD erkennt Marienkäfer und stellt, wenn ihm diese zu nahe kommen, seine Arbeit ein. Der Prototyp wird zurzeit an der Hochschule für Wirtschaft FHNW entwickelt. Erisa Karafili offerierte eine „Argumentation-based Security for Social Good“ (Co-Autoren sind Antonis C. Kakas, Nikolaos I. Spanoudakis und Emil C. Lupu), Mahendra Prasad reiste „Back to the Future“, mit „A Framework for Modelling Altruistic Intelligence Explosions“ im Gepäck. Um 17.30 Uhr – nach einer angeregten Plenumsdiskussion – war das Symposium vorbei. Für den Abend und den Morgen des darauffolgenden Tages waren weitere allgemeine Veranstaltungen innerhalb der AAAI 2017 Spring Symposia geplant.