Schlagworte: Roboter

Programmierte Moral

Nur ein halbes Jahr nach „Die Moral in der Maschine“ von Oliver Bendel und rechtzeitig zur Frankfurter Buchmesse 2016 ist das Buch „Programmierte Ethik“ erschienen, ebenfalls bei Heise Medien, herausgegeben von Florian Rötzer, dem Chefredakteur von Telepolis. Das Buch versammelt Originalbeiträge von Oliver Bendel und Catrin Misselhorn ebenso wie ein bereits bekanntes Interview mit dem in Zürich lebenden Maschinenethiker. Weitere Beiträge stammen von Raúl Rojas, Hans-Arthur Marsiske, Patrick Spät, Stefan Höltgen und Florian Rötzer selbst, der seit Jahrzehnten die neuesten technischen Entwicklungen beobachtet und beschreibt. Aus dem Klappentext: „Maschinen und Roboter, die immer selbständiger handeln und entscheiden sollen, ziehen als Saug- und Mähroboter, als Pflege-, Spiel-, Service- oder auch Sexroboter, als unverkörperte Agenten, als Überwachungs- oder auch als Kampfroboter in die Lebenswelt ein. Wir müssen uns an den Umgang mit den neuen Mitbewohnern unserer Lebenswelt gewöhnen und diesen müssen höchst unterschiedliche Regeln im Umgang mit den Menschen und der Umwelt einprogrammiert oder anerzogen werden.“ Es geht um das Programmieren von Moral und auch – man denke an die Diskussion, welche Modelle normativer Ethik für Maschinen taugen – um das Programmieren von Ethik. Das E-Book kann über die üblichen Shops bezogen werden und kostet 5,99 Euro.

pc

Abb.: Computer und Roboter entscheiden und urteilen immer häufiger autonom

Nervenzellen auf Platinen

Ein sechsseitiges Interview mit Oliver Bendel ist in der Absatzwirtschaft (Sonderausgabe dmexco, 14. September 2016, S. 36 bis 41) erschienen. Peter Hanser ist in die Schweiz gereist und hat den Wirtschaftsinformatiker und Maschinenethiker im Au Premier im Zürcher Hauptbahnhof getroffen. Es war ein Gespräch über Technik und Ethik, in dessen Verlauf u.a. die folgenden Worte fielen: „Ich unterscheide Maschinenethik als Gestaltungsdisziplin und andere Disziplinen wie Informationsethik oder Technikethik als Reflexionsdisziplinen. In der Maschinenethik wollen wir wirklich Maschinen konzipieren und am Ende auch prototypisch bauen. Dabei arbeiten wir eng mit KI, Robotik und anderen Disziplinen zusammen. In der Informationsethik und Technikethik reflektieren wir Probleme, die sich beim Einsatz von Robotern ergeben. Es ist beides sinnvoll und notwendig. Wir haben zum ersten Mal in der Geschichte der Ethik eine Form der Ethik, die danach fragt, wie man maschinelle Moral umsetzen kann. Zugleich haben wir zunehmende Probleme durch den Einsatz von Robotern, etwa durch den Ersatz von Arbeitskräften, Kollisionen von Menschen und Maschinen und technikbezogene Sexpraktiken. Es stellt sich die Frage, was wir künftig mit Maschinen tun wollen. Damit sind dann Bereichsethiken gefordert wie Informations-, Technik-, Medizin-, Sexualethik und so weiter.“ Die Maschinen, die das Licht der Welt erblickt haben, sind der GOODBOT und der LIEBOT, und beiden wird im Artikel mit dem Titel „Vielleicht haben Maschinen eines Tages Bewusstsein“ ein Infokasten gewidmet. Das mit dem Bewusstsein hält Oliver Bendel für unwahrscheinlich, aber nicht für ausgeschlossen. Ein Weg könnte sein, auf informationstechnischen Strukturen, auf Platinen etc., tierische oder menschliche Hirnzellen wachsen zu lassen. Ein umgekehrter Cyborg sozusagen.

neuronen

Abb.: Hirnzellen könnten auf informationstechnischen Strukturen wachsen

Humanoide Roboter in München

Die VDI-Konferenz „Humanoide Roboter“ beschäftigt sich, so die Website, „mit dem Menschen nachempfundenen Robotern“. „Das Themenspektrum reicht dabei von Design und Gestaltung über die kognitive Planung bis hin zu Anwendungsbeispielen.“ Leiter der Konferenz ist Prof. Dr. Frank Kirchner vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Auf der Website heißt es weiter: „Was für viele wie Science Fiction klingt, könnte bald schon Realität sein. Menschenähnliche Roboter, die in Umgebungen agieren, die für den Menschen geschaffen sind und für den Menschen entworfene Werkzeuge benutzen. Damit würden sich die Einsatzmöglichkeiten für Roboter enorm erweitern. Zudem versprechen sich viele Experten durch humanoide Roboter auch eine verbesserte Interaktion zwischen Mensch und Roboter.“ Prof. Dr. Karsten Berns von der TU Kaiserslautern trägt zusammen mit Steffen Schütz über dynamisches zweibeiniges Laufen nach menschlichem Vorbild vor, Dr. Robert Haschke von der Universität Bielefeld über Taktilsensorik für anthropomorphe Roboterhände, um nur zwei Beispiele zu nennen. „Der LÜGENBOT als Umsetzung einer Münchhausen-Maschine“ lautet der Titel des Vortrags von Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. Er hat zusammen mit Kevin Schwegler im Kontext der Maschinenethik einen Chatbot entwickelt, der unter Verwendung interner Strategien und externer Dienste und Quellen lügt, dass sich die Balken biegen. Der LÜGENBOT aka LIEBOT hat eine eigene Website, nämlich www.luegenbot.ch bzw. www.liebot.org. Er ist als Vertreter der einfachen unmoralischen Maschinen nicht nur an sich interessant, sondern hilft auch dabei, einfache moralische Maschinen zu entwickeln, nämlich solche, die in ihren Aussagen verlässlich und vertrauenswürdig sind. Die Fachtagung findet vom 13. bis 14. Dezember 2016 in Aschheim bei München statt. Das Programm kann hier heruntergeladen werden.

robochild

Abb.: Das Münchner Kindl in neuer Interpretation

Maschine und Moral

„Maschine und Moral, Roboter und Recht“ ist der Titel eines Beitrags von Hansjörg Schmid und Virginie Jaquet, der im August 2016 in der APUNTO (3/2016) erschienen ist, der Zeitschrift für die Angestellten in der Schweiz. Im Teaser heißt es: „Maschinen und Roboter durchdringen unser Leben immer mehr. Das Zusammenwirken von Mensch und Maschine ist aber, gerade in der Schweiz, noch erstaunlich wenig geregelt, wie Rechtsexperten und Ethiker feststellen.“ (APUNTO, August 2016) Zu Wort kommen Prof. Dr. Isabelle Wildhaber, Professorin für Privat- und Wirtschaftsrecht unter besonderer Berücksichtigung des Arbeitsrechts an der Universität St. Gallen und Expertin für Roboterrecht, Nicolas Capt, Rechtsanwalt bei Barreaux de Genève & Paris und Spezialist für neue Technologien, und Prof. Dr. Oliver Bendel, Wirtschaftsinformatiker, Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Der Artikel liegt in der selben Ausgabe in französischer Sprache vor, unter dem Titel „Machines et morale, robots et droit“. Der Teaser lautet dort: „Les robots envahissent toujours plus notre vie. Pourtant, la cohabitation entre l’homme et la machine est très peu réglée en Suisse, comme le constatent des experts en droit et un éthicien.“ Das gesamte Heft kann über angestellte.ch/assets/Apunto/apunto-3-16-GzD-low.pdf heruntergeladen werden.

roboter_maid

Abb.: Ist dieses Robotermädchen schon moralisiert?

K5 übersieht Kind

Der Sicherheits- und Überwachungsroboter von Knightscope im Stanford Shopping Center hat ein Kind leicht verletzt. Dies meldete GIZMODO am 12. Juli 2016: „A 300-pound security robot … knocked down and ran over a 16-month-old boy. The parents of the injured boy are understandably pissed, claiming the autonomous machine is dangerous.“ (GIZMODO, 12. Juli 2016) Oliver Bendel hatte im Frühjahr über den K5 berichtet, dem er selbst vor Ort begegnet war. Dabei hatte er ihn mit einem Modell aus China, dem AnBot, verglichen und Überlegungen aus Sicht der Ethik angestellt: „Ich war verwundert, dass man dem K5 in Stanford so nahe kommen konnte. Vielleicht gibt es auch einen Knopf bei ihm, den man drücken kann. In diesem Fall müsste er eine gewisse Nähe erlauben. Aber was ist, wenn er ein Kind oder ein Tier überfährt? Wenn sein enormes Gewicht auf einem kleinen Körper liegen bleibt?“ Zum Vorgang schreibt GIZMODO: „When the Knightscope K5 senses trouble, it alerts local authorities – though it didn’t seem particularly concerned when it plowed into the toddler earlier this week. Little is known about the incident, but the robot’s sensors didn’t seem to detect Harwin – and that’s obviously a problem.“ (GIZMODO, 12. Juli 2016) Der Beitrag von Oliver Bendel ist am 19. Mai in der Zeitschrift inside-it.ch erschienen und kann über www.inside-it.ch/articles/43886 aufgerufen werden.

Wie gefährlich sind Roboter?

Den Chancen und Risiken von Robotern widmet sich die Bild am Sonntag am 10. Juli 2016 auf einer Doppelseite. „Wie viel Roboter ist gut?“ fragt der Autor, Florian Zerfaß, im Titel. Am 7. Juli sprach er mit Oliver Bendel, Wirtschaftsinformatiker, Informationsethiker und Maschinenethiker, der zu den Chancen zählt, dass Roboter die Menschen unterstützen und entlasten. Konkret erwähnte er gegenüber dem Journalisten das BMW-Werk in Spartanburg, wo Leichtbauroboter die Türdichtungen eindrücken und so die Handgelenke der Arbeiter entlasten, die unmittelbar daneben ihren weniger beschwerlichen Aufgaben nachgehen. Auch Pflegeroboter führte er an, die zusammen mit Pflegern im Tandem die Patienten umbetten und -lagern – Prototypen wie Robear, die in Bälde in Pflegeheimen und Krankenhäusern einsatzbereit sein sollen. Mit Risiken behaftet seien selbstlernende Systeme in offenen Welten. In der BamS wird Oliver Bendel mehrfach zitiert. Unter anderem weist er als Maschinenethiker darauf hin, dass man Maschinen eine Art von Moral beibringen kann. Der Artikel wird auf der Titelseite mit der Frage „Wie gefährlich sind Roboter?“ angeteasert und ist auf den Seiten 8 und 9 abgedruckt. Die Seiten 4 und 5 gehören dem Bundesverkehrsminister Alexander Dobrindt, der über seine „großen Baustellen“ reden soll. Eine davon ist die Ethikkommission, die die Entscheidungen automatischer und autonomer Autos aus ethischer Sicht beurteilen und sie in moralischer Hinsicht bestimmen soll. Ob ihr dies gelingen wird, steht in den Sternen. Oliver Bendel warnt davor, dass Autos über Leben und Tod von Menschen bestimmen.

Robot_and_Girl

Abb.: Ist das Mädchen sicher?

Der tanzende Robot

Im Südpol Luzern erlebten die Zuschauerinnen und Zuschauer, wie Tanz- und Robotergeschichte geschrieben wurde, von Huang Yi, einem Choreografen aus Taiwan. Der „träumte schon in Kindertagen davon, einen Roboter zum Freund zu haben“ (Information zur Veranstaltung). „Erwachsen geworden, ist für ihn daraus Wirklichkeit geworden, denn er teilt sich, unterstützt von zwei weiteren Tänzern, die Bühne mit Kuka, einem Industrieroboter. Das Ergebnis ist Tanzkunst, die mit messerscharfer Präzision begeistert.“ (Information zur Veranstaltung) Der Robot tanzt wie die Menschen, tanzt mit dem Menschen, mit Huang Yi, die Menschen – es kommen eine Tänzerin und ein Tänzer hinzu – tanzen wie der Robot, lassen sich von ihm bewegen, von seinem „Traktorstrahl“. „Gebannt verfolgt man die Begegnung dieser scheinbar so ungleichen Partner und spürt die emotionale Beziehung. Die Art des Verhältnisses bleibt dabei jedoch in der Schwebe: Sind es nun die vom Choreografen in der Kindheit ersehnten Freunde? Oder handelt es sich vielmehr um einen ausgefeilten und geschmeidigen Wettkampf? Wer lernt von wem? Wer behält die Oberhand?“ (Information zur Veranstaltung) Einmal schaut der Kuka sich selbst an, mit Hilfe einer zwischendurch aufgesteckten Kamera, fertigt bewegte Selfies an, von dem Schild mit seinen technischen Daten, von einem Warnschild. Größere Kunst hat man in der Schweiz selten gesehen.

Surname_Huang

Abb.: Chinesisches Schriftzeichen für „Huang“

Der rassistische Chatbot

Aus einem Chatbot wurde ein Badbot – Tay von Microsoft entwickelte sich zum Albtraum des Unternehmens und der Gesellschaft. Der SPIEGEL schrieb am 24. März 2016: „Zuerst war Tay noch freundlich, ein bisschen zu jugendsprachlich-obercool vielleicht, manchmal etwas dämlich wirkend, aber harmlos. Dann kam der Kontakt mit der harten Realität des Netzes.“ Und dann sagte Tay: „Hitler hatte recht. Ich hasse die Juden.“ (SPON, 24. März 2016) Die Süddeutsche Zeitung widmete sich dem Thema am 1. April in der gedruckten und am 3. April in der Onlineausgabe. Sie zitierte wiederholt den Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel, der selbst Chatbots konzipiert. 2013/2014 entstand an der Hochschule für Wirtschaft FHNW der GOODBOT im Rahmen eines studentischen Praxisprojekts, seit Anfang 2016 wird der LÜGENBOT oder LIEBOT von Kevin Schwegler programmiert, als spezielle Form einer Münchhausen-Maschine. Die Ergebnisse werden auf KI- und Maschinenethik-Konferenzen in den USA und in Europa vorgestellt. Der Artikel in der Onlineausgabe der Süddeutschen trägt den Titel „Rassistischer Chat-Roboter: Mit falschen Werten bombardiert“ und stammt von Bernd Graff.

womanbot

Abb.: Noch wirkt der Bot ganz harmlos

Foundation of Responsible Robotics

„Alle forschen an Robotern und keiner bedenkt, was wir damit anrichten.“ (Website DRadio Wissen, 11. Dezember 2015) Dieser Meinung sei, so der Sender, eine Gruppe von Wissenschaftlern. „Deshalb haben sie die Foundation of Responsible Robotics gegründet, also die Stiftung für verantwortungsvolle Robotik. Bei der Gründungsfeier in London warnte der emeritierte Professor und Mitgründer Noel Sharkey, die britische Regierung stecke zwar viel Geld in die Forschung – aber die Auswirkungen auf die Gesellschaft würden überhaupt nicht bedacht. Und auch ethische Fragen spielten kaum eine Rolle.“ (Website DRadio Wissen, 11. Dezember 2015) Allerdings fragen Informationsethik, Technikethik und Roboterethik sowie Wirtschaftsethik – in vielen Ländern umtriebige Disziplinen – sehr wohl nach ethischen Implikationen des Einsatzes von Robotern, und die Maschinenethik konzipiert sogar moralische Maschinen. Folgende Beispiele führt Noel Sharkey an: „Durch die Automatisierung in der Industrie könnten massenhaft Menschen arbeitslos werden. Auch Menschenrechte würden verletzt, etwa wenn Roboter bei der Betreuung von Senioren mit Kameras filmen. Polizeidrohnen seien in mehreren Ländern mit Waffen ausgerüstet. Selbstfahrende Autos könnten Bomben transportieren und so Selbstmordattentäter ersetzen.“ Das ist freilich nicht das Hauptproblem bei Roboterautos; das Hauptproblem ist, dass diese selbst Menschen töten. „Die Stiftung will erreichen, dass die Forschung solche Gefahren stärker mitdenkt.“ (Website DRadio Wissen, 11. Dezember 2015) Dies ist auf jeden Fall ein ehrenwertes Ziel.

Sexroboter im Wirtschaftslexikon

Vor kurzem haben Ethiker zum Boykott von Sexrobotern aufgerufen. Dabei haben sie angenommen, dass diese Frauen und Kinder diskriminieren und die Entwicklung der Sexualität beeinträchtigen können. Anhaltspunkte dafür gibt es allerdings nicht, und überhaupt scheinen die Probleme in diesem Bereich marginal zu sein. Ein neuer Beitrag im Wirtschaftslexikon von Gabler von Oliver Bendel behandelt die Spielzeuge der etwas anderen Art in nüchterner Form und geht dem Phänomen des Robotersex auf den Grund. Er hebt an mit den Worten: „Sexroboter sind Roboter, mit denen Menschen bestimmte Formen von Sex haben können. In der Regel sind Hardwareroboter gemeint, physisch vorhandene Maschinen. Bei einem weiten Begriff können auch Softwareroboter hinzugezählt werden. Es gibt eine Palette von Produkten für den Hausgebrauch. Manche von ihnen werden für den Gesundheitsbereich in Betracht gezogen.“ Am Ende werden Fragen aus Maschinenethik sowie Technik- und Informationsethik heraus gestellt. Sicherlich könnte man auch die Medizinethik mit einbeziehen. Der Beitrag ist am 16. November 2015 erschienen und kann über wirtschaftslexikon.gabler.de aufgerufen werden.

sexrobot

Abb.: Bei Sexrobotern ist die Gestaltung entscheidend