Schlagworte: Künstliche Intelligenz

Wer ist verantwortlich, wenn ein Roboter tötet?

Im „Tatort“ vom 16. September 2018 war der Roboter der Mörder. Wobei, er war eher das Werkzeug der Mörderin, die ihm eine neue Armbewegung beibrachte. Tatsächlich lassen sich Roboter dieser Art ganz einfach trainieren, indem man ihren Arm führt und die Bewegung abspeichert. Diese muss dann nur noch zur richtigen Zeit ablaufen. Im Krimi tat sie das, und das Opfer war so freundlich, sich genau so zu positionieren, dass sie – der Greifer umfasste eine metallene Spitze, die eigentlich zu anderen Zwecken diente – tödlich war. Die Frankfurter Allgemeine Zeitung vom selben Tag machte den Faktencheck. Sie hatte Oliver Bendel nach der Verantwortung gefragt. Nach seiner Meinung kann ein autonomer Roboter (oder ein KI-System) kaum eine moralische Verantwortung haben. Man könnte allenfalls sagen, dass er, indem er eine Aufgabe übernimmt, eine Verantwortung trägt. Dies wäre eine sehr schwache Form der Primärverantwortung. Man kann ihn nicht zur Verantwortung ziehen (Sekundärverantwortung), und wenn, dann gleitet man schon in die rechtliche Perspektive hinüber (Tertiärverantwortung). Wenn man einem Roboter Verantwortung überträgt, wird diese in gewisser Weise zerstört. Das macht dann nichts, wenn es sich um eine einfache Aufgabe ohne ernsthafte Konsequenzen handelt. Der Faktencheck kann über www.faz.net/aktuell/feuilleton/medien/tatort/der-neue-tatort-aus-berlin-im-faktencheck-15787708.html aufgerufen werden.

Abb.: Der Tod im „Tatort“ war nicht schön

Das BESTBOT-Projekt in den Medien

Der BESTBOT wurde in mehreren Medien thematisiert. In der ICTkommunikation vom 15. August 2018 war zu lesen: „Wie der Liebot ist der Bestbot ein vernetztes System, das z.B. Suchmaschinen und Lexika anzapft. Der Bestbot analysiert die Texteingaben des Users u.a. mit textbasierter Emotionserkennungssoftware. Zugleich wird Gesichtserkennung eingesetzt, wiederum mit Emotionserkennung. Wenn der Benutzer etwa angibt, dass es ihm gut geht, sein Gesicht aber anderes verrät, spricht der Chatbot diese Diskrepanz an.“ VRODO titelte am 10. September 2018 mit „Das Chatbot-Dilemma: Kann eine Maschine moralisch sein?“ und schrieb im Teaser: „Die Interaktion zwischen Mensch und Computer ist längst eine Sache der Moral, beispielsweise beim Tracking von Klicks. Zukünftige Mensch-Maschine-Schnittstellen setzen da noch etwas drauf: Sprache kann analysiert, das Gesicht gescannt und eine Bewegung registriert werden. Das verschärft das moralische Spannungsfeld.“ Die Zeitschrift hatte den BESTBOT getestet und ging ausführlich auf das System ein. Oliver Bendel, der Erfinder des Chatbots, ist der Meinung, dass sich in der moralischen Maschine eine unmoralische versteckt, nämlich eine, die die Freiheit des Benutzers bedroht.

Abb.: Versteckt sich in der moralischen Maschine eine unmoralische?

Ethik der Algorithmen

Das Handelsblatt titelt am 26. August 2018 mit den Worten „Wenn Algorithmen den Menschen diskriminieren“. Im Teaser des Beitrags von Hannah Steinharter und Michael Maisch heißt es: „Die Finanzbranche setzt enorme Hoffnungen auf die künstliche Intelligenz. Aber die Herrschaft der Maschinen führt zu ernsten ethischen Problemen.“ Und im Haupttext: „Künstliche Intelligenz (KI) rechnet in der Finanzbranche nicht nur Versicherungsbeiträge aus. Mithilfe von Algorithmen überprüfen Banken und andere Finanzdienstleister die Kreditwürdigkeit ihrer Kunden, forschen nach Betrug und automatisieren quasi jeden Geschäftsbereich – von der Vermögensverwaltung bis zur Kontoeröffnung.“ (Handelsblatt, 26. August 2018) Befragt wurden zu dem Thema u.a. Raúl Rojas aus Berlin und Oliver Bendel aus Zürich. Der Artikel kann über www.handelsblatt.com/finanzen/banken-versicherungen/kuenstliche-intelligenz-wenn-algorithmen-den-menschen-diskriminieren/22949674.html abgerufen werden.

Abb.: Kredit erhalten

Das BESTBOT-Projekt

An der Hochschule für Wirtschaft FHNW wurde von März bis August 2018 der BESTBOT entwickelt. Vorgängerprojekte waren der GOODBOT (2013) und der LIEBOT (2016). Prof. Dr. Oliver Bendel forscht seit einigen Jahren in der jungen Disziplin der Maschinenethik. Diese bringt in Zusammenarbeit mit Robotik und Künstlicher Intelligenz (KI) moralische Maschinen hervor. Anfang 2018 stellte Bendel an der Stanford University im Rahmen einer KI-Konferenz sein Paper „From GOODBOT to BESTBOT“ vor, das die Grundlage für das BESTBOT-Projekt legte. David Studer programmierte den Chatbot in Java. Zudem verwendete er JavaScript, HTML und CSS. In technischen Fragen stand ihm Prof. Dr. Bradley Richards zur Seite. Wie der LIEBOT ist der BESTBOT ein vernetztes System, das Suchmaschinen und Lexika benutzt. Er analysiert die Texteingaben des Benutzers mit textbasierter Emotionserkennungssoftware. Zugleich wird Gesichtserkennung eingesetzt, wiederum mit Emotionserkennung. Wenn der Benutzer zum Beispiel angibt, dass es ihm gut geht, sein Gesicht aber anderes verrät, spricht der Chatbot diesen Widerspruch an. Dieser erkennt sowohl kleine als auch große Sorgen. Wie der GOODBOT kann der BESTBOT über mehrere Ebenen eskalieren und eine passende Notfallnummer herausgeben. Wie sein Vorgänger macht er deutlich, dass er nur eine Maschine ist. Besonders ist auch, dass er bei Tatsachenbehauptungen die Quelle angibt. Der BESTBOT wird 2019 auf Konferenzen vorgestellt.

Abb.: Der BESTBOT identifiziert Probleme mit Hilfe von Emotionserkennung

Liebesgrüße aus Moskau

In Barcelona, Dortmund, Paris und Moskau gibt es bereits Bordelle mit Liebespuppen. Angezogen werden vor allem jüngere Männer. Einige von ihnen wählen Anime- und Mangamädchen und Fantasiefiguren aller Art. Im „Handbuch Maschinenethik“ (Springer) ist Mitte Juli 2018 ein Beitrag von Oliver Bendel erschienen, mit dem Titel „Sexroboter aus Sicht der Maschinenethik“. Aus der Zusammenfassung: „Dieser Beitrag erklärt zunächst die Begriffe der Sexroboter und der Liebespuppen. Dann stellt er aus Perspektive der Maschinenethik sowohl allgemeine als auch spezifische Fragen und beantwortet sie vorläufig. Anschließend werden die Bereichsethiken einbezogen, um die Implikationen für die involvierten Parteien und die tangierten Personen, für Anbieter, Vermittler und Benutzer, herauszuarbeiten. Am Ende fasst der Autor die Ergebnisse zusammen.“ (Website Springer) Eingegangen wird auch auf Liebespuppen, die spitze Ohren bzw. große Augen oder aber natürlichsprachliche Fähigkeiten haben und mit KI-Systemen verbunden sind. Eine Übersicht über die Beiträge, die laufend elektronisch veröffentlicht werden, findet sich über link.springer.com/referencework/10.1007/978-3-658-17484-2 … Herausgeber des umfangreichen Werks ist Oliver Bendel.

Abb.: Fantasiefiguren sind hoch im Kurs

Wie soll der Sexroboter aussehen?

„Erotik 4.0 – Gedankenspiel Sexroboter“ lautet der Titel einer Sendung bei SRF 2 Kultur, die am 13. Juni 2018 ab 9 Uhr ausgestrahlt wird. „In Dortmund gibt es ein Sexpuppen-Bordell, in Barcelona sogar schon ein Sexroboter-Bordell. Der Roboterphilosoph Oliver Bendel findet diese Entwicklung gefährlich. Denn noch wissen wir nicht, welche Folgen Sexroboter für uns Menschen haben, die empirische Forschung fehlt noch.“ (Website SRF) Er spricht sich nicht gegen die Entwicklung aus, sondern ist eben dafür, Forschung in diesem Bereich zu betreiben und die Anwendung genau im Auge zu behalten. In der „Kontext“-Sendung geht es zunächst um Harmony. „Wer ist sie und was kann sie?“ Dann wird die Frage gestellt: „Wie soll der Sexroboter aussehen?“ Oliver Bendel denkt laut über das Aussehen von Sexrobotern abseits der Stereotype nach. Schließlich findet ein „Gedankenspiel“ statt, und KI-Experte und Schachmeister David Levy, Roboterethikerin Kathleen Richardson und Roboterphilosoph Oliver Bendel kommen zu Wort. Weitere Informationen über www.srf.ch/sendungen/kontext/erotik-4-0-gedankenspiel-sexroboter.

Abb.: Wie soll der Sexroboter aussehen?

KI-Interview bei der Deutschen Welle

Die Deutsche Welle war Ende Mai 2018 im Gespräch mit Oliver Bendel. Anlass war ein Treffen zwischen Angela Merkel und Experten für Künstliche Intelligenz. Der Informations- und Maschinenethiker empfiehlt eine Unterscheidung zwischen Forschung und Entwicklung auf der einen Seite und Anwendung auf der anderen. Er ist für die Freiheit der Forschung. Für ihn endet sie erst da, wo die Freiheit und Unversehrtheit von anderen beginnt, von Menschen und Tieren. Dagegen muss man nach seiner Ansicht die eine oder andere Anwendung von KI bereits jetzt einschränken, etwa dann, wenn Massenüberwachung stattfindet. Die Deutsche Welle über sich selbst auf ihrer Website: „Die Deutsche Welle (DW) ist der Auslandssender Deutschlands. In journalistischer Unabhängigkeit vermitteln wir ein umfassendes Deutschlandbild, stellen weltweite Ereignisse und Entwicklungen aus europäischer Perspektive dar, greifen deutsche und andere Sichtweisen auf. So fördern wir das Verständnis zwischen den Kulturen und Völkern. Zugleich schaffen wir einen Zugang zur deutschen Sprache.“ (Website Deutsche Welle) Das Interview kann über www.dw.com/de/jetzt-machen-wir-gro%C3%9Fartige-spr%C3%BCnge/a-43964092 aufgerufen werden.

Abb.: Da muss KI im Spiel sein!

Machine Ethics and Artificial Intelligence

The young discipline of machine ethics refers to the morality of semi-autonomous and autonomous machines, robots, bots or software systems. They become special moral agents, and depending on their behavior, we can call them moral or immoral machines. They decide and act in situations where they are left to their own devices, either by following pre-defined rules or by comparing their current situations to case models, or as machines capable of learning and deriving rules. Moral machines have been known for some years, at least as simulations and prototypes. Machine ethics works closely with artificial intelligence and robotics. The term of machine morality can be used similarly to the term of artificial intelligence. Oliver Bendel has developed a graphic that illustrates the relationship between machine ethics and artificial intelligence. He presented it at conferences at Stanford University (AAAI Spring Symposia), in Fort Lauderdale (ISAIM) and Vienna (Robophilosophy) in 2018.

Fig.: The terms of machine ethics and artificial intelligence

CIMON will ins All

Eine fliegende Alexa hat ihn der SPIEGEL etwas despektierlich genannt. Gemeint ist CIMON, ein autonomer, mit künstlicher Intelligenz verbundener Weltraumroboter, der demnächst im Columbus-Modul der ISS zum Einsatz kommen soll. Entwickelt hat ihn das Deutsche Zentrum für Luft- und Raumfahrt (DLR). „CIMON kann sehen, hören, verstehen, sprechen – und fliegen. Er ist rund, hat einen Durchmesser von 32 Zentimetern und wiegt fünf Kilogramm.“ (Website DLR) Sein Vorbild war nicht Alexa, sondern vielmehr, so der DLR auf seiner Website, Professor Simon Wright aus der 80er-Jahre-Zeichentrickserie „Captain Future“, ein „fliegendes Gehirn“ mit Sensoren, Kameras und einem Sprachprozessor. Mit Hilfe von 14 internen Ventilatoren kann sich CIMON frei in alle Raumrichtungen bewegen und rotieren. Er kann sich laut DLR dem Astronauten zuwenden, wenn er angesprochen wird, und ihm selbstständig oder auf sein Kommando hin folgen. Auch im Unterschied zu Alexa hat CIMON ein Gesicht, zu sehen auf dem Display an der abgeflachten Seite. Damit kann er freundlich und bestimmt auch zuversichtlich schauen. Ob er auch moralische Fähigkeiten hat, ist nicht bekannt. Weitere Informationen über www.dlr.de.

Abb.: Professor Simon Wright war ein fliegendes Gehirn

KI in der APuZ

Die Zeitschrift Aus Politik und Zeitgeschichte widmet sich in ihrer Ausgabe 6-7/2018 der Künstlichen Intelligenz, der Robotik und der Maschinenethik. Die Beträge stammen u.a. von Prof. Dr. Rául Rojas und Thea Dorn („Die können was! Aber können Roboter auch fühlen?“), Prof. Dr. Catrin Misselhorn („Können und sollen Maschinen moralisch handeln?“) sowie Prof. Dr. Oliver Bendel („Überlegungen zur Disziplin der Maschinenethik“). Aus Politik und Zeitgeschichte, die Beilage zur Wochenzeitung Das Parlament, wird von der Bundeszentrale für politische Bildung herausgegeben. „Sie veröffentlicht wissenschaftlich fundierte, allgemein verständliche Beiträge zu zeitgeschichtlichen und sozialwissenschaftlichen Themen sowie zu aktuellen politischen Fragen. Die Zeitschrift ist ein Forum kontroverser Diskussion, führt in komplexe Wissensgebiete ein und bietet eine ausgewogene Mischung aus grundsätzlichen und aktuellen Analysen.“ (Website APuZ) Weitere Informationen und Zugriff auf die Beiträge über www.bpb.de/apuz/.