Kategorie: Maschinenethik

Mensch, Maschine und Verantwortung

Im Oktober 2018 ist ein neuer Beitrag im „Handbuch Maschinenethik“ erschienen. Er stammt von Julian Nida-Rümelin und Fiorella Battaglia und trägt den Titel „Mensch, Maschine und Verantwortung“. Im Abstract heißt es: „Verantwortung ist eine der größten Fragen, wenn nicht gar die Frage in der Ethik der Maschinen. In diesem Artikel werden wir für begriffliche Klärung sorgen. Damit wollen wir eine philosophische Auseinandersetzung mit der Frage nach der Verantwortung der Maschinen ermöglichen.“ Seit Ende 2016 sitzen renommierte Wissenschaftlerinnen und Wissenschaftler an ihren Kapiteln zum „Handbuch Maschinenethik“, das von Oliver Bendel herausgegeben wird. Anfang 2019 soll das gedruckte Werk auf den Markt kommen. Mit dabei sind etwa Luís Moniz Pereira aus Lissabon, einer der bekanntesten Maschinenethiker der Welt, und Roboterethikerin Janina Loh, die in Wien mit Mark Coeckelbergh zusammenarbeitet, zudem Catrin Misselhorn, die vor kurzem ihr Grundlagenwerk zur Maschinenethik bei Reclam veröffentlicht hat. Eine Übersicht über die Beiträge, die laufend elektronisch veröffentlicht werden, findet sich über link.springer.com/referencework/10.1007/978-3-658-17484-2

Abb.: Können Maschinen Verantwortung tragen?

 

Smart Machines and Save Animals

„With a few decades, autonomous and semi-autonomous machines will be found throughout Earth’s environments, from homes and gardens to parks and farms and so-called working landscapes – everywhere, really, that humans are found, and perhaps even places we’re not. And while much attention is given to how those machines will interact with people, far less is paid to their impacts on animals.“ (Anthropocene, October 10, 2018) „Machines can disturb, frighten, injure, and kill animals,“ says Oliver Bendel, an information systems professor at the University of Applied Sciences and Arts Northwestern Switzerland, according to the magazine. „Animal-friendly machines are needed.“ (Anthropocene, October 10, 2018) In the article „Will smart machines be kind to animals?“ the magazine Anthropocene deals with animal-friendly machines and introduces the work of the scientist. It is based on his paper „Towards animal-friendly machines“ (Paladyn) and an interview conducted by journalist Brandon Keim with Oliver Bendel. More via www.anthropocenemagazine.org/2018/10/animal-friendly-ai/.

Fig.: Also a cat can be safe, even on the street

Der fröhliche Roboter

„Können Roboter fröhlich sein?“ So lautet der Titel eines Beitrags im neuen Aufbruch, der im Herbst 2018 erschienen ist. Das Google-Magazin ist seit wenigen Jahren auf dem Markt und wird von einer Agentur der Süddeutschen Zeitung produziert. „Künstliche Intelligenz“ ist der Titel der aktuellen Ausgabe, die u.a. dem Spiegel beiliegt. Die Antwort auf die genannte und die eine oder andere Frage gibt der Informations- und Maschinenethiker Oliver Bendel. Er ist der Meinung, dass Roboter bzw. KI-Systeme keine Gefühle haben und haben können. Der Forschung dazu will er sich dennoch nicht verschließen. So plant er, das Symposium „Towards Conscious AI Systems“ im Rahmen der AAAI 2019 Spring Symposium Series an der Stanford University zu besuchen. Wer oder was Bewusstsein hat, kann Gefühle entwickeln, so könnte man postulieren. Ein fröhlicher Roboter könnte ein Gewinn sein, ein trauriger ein Problem. Selbst wenn solche Maschinen nie erschaffen werden können – wir werden im Rahmen der Forschung viel über die Gefühle von Menschen erfahren. Das Interview kann hier heruntergeladen werden.

Abb.: Ein fröhlicher Mensch

Haben Maschinen Bewusstsein?

VRODO hat ein Interview mit dem Roboterphilosophen, Informations- und Maschinenethiker Oliver Bendel geführt. Es ging um moralische Maschinen und am Rande auch um die Frage, ob Maschinen eines Tages Bewusstsein oder Selbstbewusstsein haben können. Für Oliver Bendel gehört zum Bewusstsein, dass eine innere Stimme ausruft: Ah, das ist ja die Welt! Diese innere Stimme kann seiner Meinung auch ein Tier haben. Jeder Igel, jede Kröte hat Bewusstsein. Zum Selbstbewusstsein gehört, dass die innere Stimme ausruft: Ah, das bin ja ich! Ein Affe hat Selbstbewusstsein. Der Roboterphilosoph denkt nicht, dass man ein echtes Bewusstsein von Maschinen wird schaffen können. Auf jeden Fall werde der Roboter nie mit seiner inneren Stimme ausrufen: Ah, das bin ja ich, der Roboter! „I, Robot“ – das sei Science-Fiction. Die Forschung über maschinelles Bewusstsein hält Oliver Bendel dennoch für wichtig. Bei einem der Symposien der AAAI Spring Symposia an der Stanford University wird es um dieses Thema gehen. Das Interview wurde von Maximilan Schreiner geführt und kann über vrodo.de/was-ein-roboterphilosoph-ueber-maschinenmoral-denkt/ nachgelesen werden.

Abb.: Menschen haben Bewusstsein

Das BESTBOT-Projekt in den Medien

Der BESTBOT wurde in mehreren Medien thematisiert. In der ICTkommunikation vom 15. August 2018 war zu lesen: „Wie der Liebot ist der Bestbot ein vernetztes System, das z.B. Suchmaschinen und Lexika anzapft. Der Bestbot analysiert die Texteingaben des Users u.a. mit textbasierter Emotionserkennungssoftware. Zugleich wird Gesichtserkennung eingesetzt, wiederum mit Emotionserkennung. Wenn der Benutzer etwa angibt, dass es ihm gut geht, sein Gesicht aber anderes verrät, spricht der Chatbot diese Diskrepanz an.“ VRODO titelte am 10. September 2018 mit „Das Chatbot-Dilemma: Kann eine Maschine moralisch sein?“ und schrieb im Teaser: „Die Interaktion zwischen Mensch und Computer ist längst eine Sache der Moral, beispielsweise beim Tracking von Klicks. Zukünftige Mensch-Maschine-Schnittstellen setzen da noch etwas drauf: Sprache kann analysiert, das Gesicht gescannt und eine Bewegung registriert werden. Das verschärft das moralische Spannungsfeld.“ Die Zeitschrift hatte den BESTBOT getestet und ging ausführlich auf das System ein. Oliver Bendel, der Erfinder des Chatbots, ist der Meinung, dass sich in der moralischen Maschine eine unmoralische versteckt, nämlich eine, die die Freiheit des Benutzers bedroht.

Abb.: Versteckt sich in der moralischen Maschine eine unmoralische?

Ethik der Algorithmen

Das Handelsblatt titelt am 26. August 2018 mit den Worten „Wenn Algorithmen den Menschen diskriminieren“. Im Teaser des Beitrags von Hannah Steinharter und Michael Maisch heißt es: „Die Finanzbranche setzt enorme Hoffnungen auf die künstliche Intelligenz. Aber die Herrschaft der Maschinen führt zu ernsten ethischen Problemen.“ Und im Haupttext: „Künstliche Intelligenz (KI) rechnet in der Finanzbranche nicht nur Versicherungsbeiträge aus. Mithilfe von Algorithmen überprüfen Banken und andere Finanzdienstleister die Kreditwürdigkeit ihrer Kunden, forschen nach Betrug und automatisieren quasi jeden Geschäftsbereich – von der Vermögensverwaltung bis zur Kontoeröffnung.“ (Handelsblatt, 26. August 2018) Befragt wurden zu dem Thema u.a. Raúl Rojas aus Berlin und Oliver Bendel aus Zürich. Der Artikel kann über www.handelsblatt.com/finanzen/banken-versicherungen/kuenstliche-intelligenz-wenn-algorithmen-den-menschen-diskriminieren/22949674.html abgerufen werden.

Abb.: Kredit erhalten

Considerations about Animal-friendly Machines

Semi-autonomous machines, autonomous machines and robots inhabit closed, semi-closed and open environments. There they encounter domestic animals, farm animals, working animals and/or wild animals. These animals could be disturbed, displaced, injured or killed. Within the context of machine ethics, the School of Business FHNW developed several design studies and prototypes for animal-friendly machines, which can be understood as moral machines in the spirit of this discipline. They were each linked with an annotated decision tree containing the ethical assumptions or justifications for interactions with animals. Annotated decision trees are seen as an important basis in developing moral machines. They are not without problems and contradictions, but they do guarantee well-founded, secure actions that are repeated at a certain level. The article „Towards animal-friendly machines“ by Oliver Bendel, published in August 2018 in Paladyn, Journal of Behavioral Robotics, documents completed and current projects, compares their relative risks and benefits, and makes proposals for future developments in machine ethics.

Fig.: An animal-friendly vehicle?

Wozu brauchen wir die Maschinenethik?

Im „Handbuch Maschinenethik“ ist im August 2018 der Beitrag „Wozu brauchen wir die Maschinenethik?“ von Oliver Bendel erschienen. Die Zusammenfassung: „Die Maschinenethik ist eine junge, dynamische Disziplin. Es ist einfach, ihren Gegenstand zu bestimmen, die Moral in der Maschine, und es fanden zahlreiche begriffliche Klärungen statt. Dennoch gibt es immer wieder Verwechslungen und Missverständnisse. Diese erinnern an die Diskussionen der ersten 40, 50 Jahre der Künstlichen Intelligenz. Dieser wurde vorgehalten, keine Fortschritte zu erzielen, ihr wurde vorgeworfen, dass Systeme nicht intelligent sein können, und es wurde von manchen nicht realisiert oder akzeptiert, dass man metaphorisch oder intentional sprechen kann, mit in die Zukunft gerichteten Absichten. Der vorliegende Beitrag will Grundlagen der Maschinenethik erarbeiten, ohne andere Grundlagenartikel und -bücher nachzuzeichnen und zusammenzufassen. Vielmehr wird, nachdem der Begriff der Maschinenethik erörtert wurde, die Frage beantwortet, warum wir eine solche Disziplin brauchen, zunächst aus philosophischer, dann aus praktischer Perspektive.“ Die Beiträge des von Oliver Bendel herausgegebenen Springer-Handbuchs erscheinen laufend und werden über link.springer.com/referencework/10.1007/978-3-658-17484-2 aufgeführt.

Abb.: Wie wird die Entscheidung ausfallen?

Sprechende Maschinen aus ethischer Sicht

„Keywords wie Digitalisierung, Künstliche Intelligenz und Big Data sind in aller Munde. Der Versicherungs- und Bankenmarkt steht unter ständiger Veränderung, Rahmenbedingungen ändern sich rapide und eine optimale Kundenbindung gewinnt zunehmend an Bedeutung. Doch worauf dürfen – und müssen – wir uns zukünftig einstellen?“ (Einladung APRIL) Über diese und weitere Themen wird beim diesjährigen APRIL-Praxisforum in München am 26. September 2018 diskutiert. Die Keynote von Oliver Bendel aus Zürich trägt den Titel „Im Dialog mit Maschinen“. Ob iPal, Pepper oder Lio – viele Roboter verstehen uns und sprechen mit uns. Virtuelle Assistenten wie Siri und Cortana belauschen uns und klingen immer menschenähnlicher. Alexa kann dank SSML inzwischen flüstern. Mit SSML kann man grundsätzlich in die Stimme eingreifen, sie höher und tiefer, jünger und älter machen, sie zufrieden und unsicher klingen lassen. Bei Google Duplex wurde zudem die Sprechweise angepasst, wurden Unterbrechungen und Ähs eingebaut. Was ist der technische Stand bei der Sprachsynthese, was ist aus ethischer Sicht anzumerken? Auf solche Fragen gibt Oliver Bendel Antworten. Weitere Informationen über www.april.de/index.php?id=124.

Abb.: Alexa spricht mit uns

Das BESTBOT-Projekt

An der Hochschule für Wirtschaft FHNW wurde von März bis August 2018 der BESTBOT entwickelt. Vorgängerprojekte waren der GOODBOT (2013) und der LIEBOT (2016). Prof. Dr. Oliver Bendel forscht seit einigen Jahren in der jungen Disziplin der Maschinenethik. Diese bringt in Zusammenarbeit mit Robotik und Künstlicher Intelligenz (KI) moralische Maschinen hervor. Anfang 2018 stellte Bendel an der Stanford University im Rahmen einer KI-Konferenz sein Paper „From GOODBOT to BESTBOT“ vor, das die Grundlage für das BESTBOT-Projekt legte. David Studer programmierte den Chatbot in Java. Zudem verwendete er JavaScript, HTML und CSS. In technischen Fragen stand ihm Prof. Dr. Bradley Richards zur Seite. Wie der LIEBOT ist der BESTBOT ein vernetztes System, das Suchmaschinen und Lexika benutzt. Er analysiert die Texteingaben des Benutzers mit textbasierter Emotionserkennungssoftware. Zugleich wird Gesichtserkennung eingesetzt, wiederum mit Emotionserkennung. Wenn der Benutzer zum Beispiel angibt, dass es ihm gut geht, sein Gesicht aber anderes verrät, spricht der Chatbot diesen Widerspruch an. Dieser erkennt sowohl kleine als auch große Sorgen. Wie der GOODBOT kann der BESTBOT über mehrere Ebenen eskalieren und eine passende Notfallnummer herausgeben. Wie sein Vorgänger macht er deutlich, dass er nur eine Maschine ist. Besonders ist auch, dass er bei Tatsachenbehauptungen die Quelle angibt. Der BESTBOT wird 2019 auf Konferenzen vorgestellt.

Abb.: Der BESTBOT identifiziert Probleme mit Hilfe von Emotionserkennung