Kategorie: Technikethik

Erforschung der Folgen der Digitalisierung

50 Millionen Euro stehen bereit für die Erforschung der individuellen und sozialen Folgen der Digitalisierung. Nun weiß man, wer sie erhält. „Das Deutsche Internet-Institut wird in Berlin von einem Konsortium aus fünf Hochschulen und zwei außeruniversitären Forschungseinrichtungen aus Berlin und Brandenburg gegründet. Dies hat Bundesforschungsministerin Johanna Wanka heute bekannt gegeben. Das Konsortium aus Freier Universität Berlin, Humboldt-Universität zu Berlin, Technischer Universität Berlin, Universität der Künste Berlin, Universität Potsdam, Fraunhofer-FOKUS und dem Wissenschaftszentrum Berlin für Sozialforschung als Koordinator hat sich in einem zweistufigen wettbewerblichen Verfahren durchgesetzt.“ (Pressemitteilung BMBF, 23. Mai 2017) Die Entscheidung hat Prof. Dr. Johanna Wanka auf der Grundlage einer Empfehlung der Jury getroffen, der u.a. Prof. Dr. Viktor Mayer-Schönberger (University of Oxford), Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW, Schweiz), Prof. Dr. Urs Gasser (Harvard University), Prof. Dr. Eric Hilgendorf (Julius-Maximilians-Universität Würzburg), Prof. Dr. Michael Kerres (Universität Duisburg-Essen), Dr. Catharina Maracke (Keio University, Japan) und Dr. Constanze Kurz (Chaos Computer Club und Netzpolitik.org) angehörten. Informations- und Technikethik dürften damit in Deutschland eine Renaissance erleben. Womöglich wird auch die Maschinenethik gestärkt.

Abb.: Eine Bahn in Berlin

Der vegetarische Roboter

Der gleiche Roboter, der von der Schweizerischen Post und von Hermes mit Blick auf Pakete getestet wurde, soll nun auch Pizza ausliefern. Dies meldeten mehrere Medien. So schrieb Golem am 30. März 2017: „Der sechsrädrige Roboter soll die Pizza und andere Speisen im Umkreis von zwei Kilometern um eine Filiale ausliefern. Zu Beginn will Domino’s etwa ein halbes Dutzend Roboter einsetzen und die Zahl später aufstocken. Sobald die Behörden die nötigen Genehmigungen erteilt haben, können die Roboter rollen. Das soll in den kommenden zwei Monaten der Fall sein.“ (Golem, 30. März 2017) Auch dieser Roboter, so niedlich er aussieht und so hübsch man ihn aufklappen kann, wird eine Stolperfalle sein. Die Gehsteige gehören den Fußgängern, die Straßen den Fahrradfahrern und Autofahrern. Für mobile Roboter im öffentlichen Raum bräuchte es neue Konzepte. Ohne diese erhöhen sie einfach die Komplexität in den Städten – die ersten Pizzas sollen in Hamburg umherrollen – und schaffen unnötig Risiken für die Verkehrsteilnehmer. Bei Pizzas gelten zudem andere Anforderungen als bei Paketen. Sie müssen warm bleiben, was bedeutet, dass die Roboter nicht zu langsam fahren dürfen oder dass sie die Speisen warmhalten müssen, was womöglich neue Risiken schafft. Wenn alle Probleme gelöst sind, könnte man aus der Maschinenethik heraus Lieferroboter entwickeln, die aus moralischen Gründen nur vegetarische Pizzas aufnehmen. Einen Versuch wäre es wert.

Abb.: Der vegetarische Roboter mag vegetarische Pizza

AI for Social Good IV

Das AAAI Spring Symposium „AI for Social Good“ wurde am 27. März 2017 um 16.00 Uhr mit der Talk Session 2 („Social Welfare“) fortgeführt. Den Session Chair hatte Eric Rice inne. In seiner Einführung ging er wiederum auf die Sozialarbeit ein. Seine Arbeitsgruppe hatte zwei Papers erfolgreich eingereicht, nämlich „Uncharted but not un-influenced: Influence Maximization with an Uncertain Network“ und „Influence Maximization in the Field: The Arduous Journey from Emerging to Deployed Application“. Diese wurden anschließend präsentiert. Bryan Wilder (Beitrag von ihm, Amulya Yadav, Nicole Immorlica, Eric Rice und Milind Tambe) begann seinen Vortrag mit dem Zusammenhang von HIV und Obdachlosigkeit. Er erwähnte den HEALER- und den DOSIM-Algorithmus. Amulya Yadav begann seinen Vortrag (Paper von ihm, Bryan Wilder, Robin Petering, Eric Rice und Milind Tambe) ebenfalls mit der erwähnten Thematik. Es ging ihm darum, mit Hilfe der Algorithmen Peer Leaders zu identifizieren, zu informieren und zu trainieren, um HIV bei Obdachlosen zu reduzieren. Der Nachmittag schloss mit der Präsentation der Beiträge „Cloudy with a Chance of Poaching: Adversary Behavior Modeling and Forecasting with Real-World Poaching Data“ (Debarun Kar, Benjamin Ford, Shahrzad Gholami u.a.) – Benjamin Ford nahm Bezug auf Tiere -, „Optimal Allocation of Police Patrol Resources Using a Continuous-Time Crime Model“ (Ayan Mukhopadhyay, Chao Zhang, Yevgeniy Vorobeychik u.a.) – Ayan Mukhopadhyay stellte einen KI-basierten Ansatz zur Verbrechensbekämpfung vor – und „Societal Challenges need Social Agents“ (Virginia Dignum und Frank Dignum). Frank Dignum verwendete seine Zeit auf eine ganze Palette von Projekten.

AI for Social Good II

Das AAAI Spring Symposium „AI for Social Good“ wurde am 27. März 2017 nach der Kaffeepause um 11.00 Uhr fortgeführt. Eric Rice (USC School of Social Work) und Sharad Goel (Stanford University) referierten in ihren Keynotes zum Thema „AI for the Social Sciences“. Ihr Ausgangspunkt: „While the public frets over a future threat of killer robots or the dream of a driverless car, computer scientists and social scientists can engage in novel solutions to vexing social problems today.“ (Website AISOC) Eric Rise ist Mitbegründer des USC Center for Artificial Intelligence in Society. Er stellte zuerst sein eigenes Forschungsfeld dar, die Sozialarbeit, und ging dann auf das Phänomen der Obdachlosen in den USA ein. Künstliche Intelligenz kann auch in diesem Feld angewandt werden, etwa indem man Netzwerke und ihre Mitglieder sichtbar macht und dann Personen dazu ermuntert, bestimmte Funktionen – etwa eines Anführers oder Vorbilds – zu übernehmen. Der Vortrag von Sharad Goel trug den Titel „Algorithms to assist judicial decision-making“. Der Assistenzprofessor am Department of Management Science & Engineering der Stanford University betonte, dass in diesem Bereich einfache, interpretierbare Regeln wichtig sind; die Urteile müssen nach seiner Meinung „fast, frugal and clear“ sein. Der Wissenschaftler gab ein Ende ein Versprechen „of greater efficiency, equity, and transparency“.

Über die DLD-Konferenz in München

Vom 15. – 17. Januar 2017 findet die DLD-Konferenz in München statt. Nicht nur Wissenschaftler berichten über ihre Arbeit, sondern auch Künstler. So ist das Label GoodRoom von Johannes Fricke Waldthausen präsent. „It raises questions, how we deal with our relations and the relationship to ourselves (your feelings are your best friend) , if we are increasingly surrounded and conditioned by animations, social networks, ambient technology and artificial intelligence apps, suggesting us ever more, what and how to feel and what to like. Hence, It highlights the body and our own creative minds.“ (Website DLD) Die Frankfurter Allgemeine berichtet in einer Beilage über die Burda-Konferenz, mit der man eine Medienpartnerschaft hat. In dem Artikel „Dürfen Maschinen über Leben und Tod entscheiden?“ von Jonas Jansen kommt auch der Informations- und Maschinenethiker Oliver Bendel zu Wort, und es wird auf seine LADYBIRD-Konzeption eingegangen, die im März 2017 an der Stanford University präsentiert wird, im Rahmen der AAAI Spring Symposia. Der Artikel ist am 14. Januar 2017 erschienen und kann über www.faz.net/aktuell/wirtschaft/netzkonferenz-dld/duerfen-maschinen-ueber-leben-und-tod-entscheiden-14631002.html aufgerufen werden.

Abb.: Was mit Medien

Über Sicherheits- und Überwachungsroboter

Sicherheits- und Überwachungsroboter verbreiten sich auf den Firmengeländen und in den Shopping Malls, als rollende und fliegende Maschinen. Sie sollen für die Sicherheit der Unternehmen und Kunden sorgen. Dabei entsteht allerdings auch Unsicherheit. Der Beitrag von Oliver Bendel, der in der Zeitschrift SicherheitsForum 6/2016 erschienen ist, widmet sich der komplexen Thematik aus der Perspektive der Robotik und der Ethik. Dabei bezieht er weitere Serviceroboter wie Paketroboter ein. SicherheitsForum ist nach eigenen Angaben „seit über 20 Jahren die führende Schweizer Fachzeitschrift für Sicherheit, welche speziell auf die Bedürfnisse der Sicherheitsverantwortlichen aus der Privatwirtschaft wie auch aus dem öffentlichen Sektor zugeschnitten ist“ (Website SicherheitsForum). „Die Leser aus der Schweiz und dem grenznahen Ausland erhalten wichtige Informationen zu organisatorischen und technischen Sicherheitsthemen: Sicherheitsmanagement, Riskmanagement, Videoüberwachung, Brandschutz, Einbruchschutz, Diebstahlschutz, Zutrittskontrolle, Biometrie, Business Continuity, Notfall­ und Krisenmanagement, Informationssicherheit und viele weitere.“ (Website SicherheitsForum) Das PDF kann mit freundlicher Genehmigung des Verlags hier heruntergeladen werden.

security_robot

Abb.: Ein Sicherheitsroboter in Aktion

Am Anfang war der Sex

„Was hat Sex mit Technologie zu tun?“ Das fragt Regula Freuler in einem zweiseitigen Artikel, der am 23. Oktober 2016 in der NZZ am Sonntag erschienen ist. „Am Anfang war der Sex, erst später kam die Liebe. So war das in der Geschichte der Menschheit. Die Geschichte der Technologie verläuft offenbar gleich: Seit Jahrzehnten wird an Maschinen und Computersystemen getüftelt, die unser Sexleben bereichern sollen, von Vibratoren bis zu Avataren. Dank künstlicher Intelligenz rückt die Sex-Tech-Industrie bald in eine neue Dimension vor: Sex-Roboter, die sich anfühlen wie ein Mensch und Dialoge führen können wie ein Mensch. Und was ist dann mit der Liebe? Werden wir Roboter lieben? Werden Roboter uns lieben?“ (NZZ am Sonntag, 23. Oktober 2016) Zu Wort kommen Oliver Bendel (Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik an der Hochschule für Wirtschaft FHNW), Kate Darling (Research Specialist am MIT Media Lab), Kathleen Richardson (Senior Research Fellow in Roboterethik an der De Montfort University), David Levy (Schachmeister und Computerexperte), Sherry Turkle (Professorin für Science, Technology and Society am MIT) und Eva Illouz (Professorin für Soziologie an der Hebräischen Universität von Jerusalem). Der Beitrag wurde von der NZZ am Sonntag freundlicherweise zur Verfügung gestellt und kann hier heruntergeladen werden.

Vorsicht Wildwechsel

„Navi und App könnten bald vor Wildwechsel warnen“ – so der Titel eines Artikels in der FAZ vom 11. Oktober 2016. Im Teaser heißt es: „Die Zahl der Wildunfälle erreichte 2015 hessenweit einen Rekord. Es ist schwer vorauszusagen, wo Hirsch oder Wildschwein die Straßen kreuzen. Ein Doktorand arbeitet daran, wie Autofahrer besser gewarnt werden können.“ (FAZ, 11. Oktober 2016) Matthias Böhm von der Straßenbaubehörde Hessen Mobil will bis zum Jahr 2020 eine spezielle Datenschnittstelle entwickeln. „Sie soll es Radiosendern oder Anbietern von Apps und Navigationsgeräten ermöglichen, ihre Nutzer lokal vor Hirsch, Reh oder Wildschwein zu warnen.“ (FAZ, 11. Oktober 2016) Tierfreundliche Ansätze gibt es seit Jahren auch in der Maschinenethik. Dabei wird versucht, dem Auto selbst Entscheidungen zu ermöglichen, die sich als gut für Tier und Mensch erweisen. Hilfreich sind Systeme mit Radar, Lidar und Infrarot und Kameras sowie annotierte Entscheidungsbäume, in denen die Lebewesen qualifiziert und quantifiziert werden. Dies ist notwendig, denn um mobil zu bleiben, darf der Wagen nicht vor jedem Insekt oder vor jeder Schnecke abbremsen. Generell müssen auch der Verkehr hinter ihm und der Gegenverkehr berücksichtigt werden. Weitere Informationen über www.faz.net.

jaguar

Abb.: Der Jaguar ist in unseren Breiten eher selten anzutreffen

 

Krieg und Spiele

Der RFF REAL FICTION FILMVERLEIH informiert in einer Pressemitteilung über den Kinostart der Dokumentation „Krieg und Spiele“ von Karin Jurschick am 18. August 2016. „Die unbemannten Kriegsroboter der Zukunft sind nach dem Vorbild von Tieren gebaut. Perfekte Maschinen, die im Wasser, an Land und in der Luft die Bewegung jeder Maus und jedes Menschen erfassen. Und sie können töten. Autonom. Diese technische Entwicklung verändert jetzt schon die Kriege und unsere Vorstellungen von Ethik und Moral. Ja: unsere Stellung als Menschen in der Welt. Werden am Ende die Maschinen sogar die besseren Entscheidungsträger?“ (Information RFF) Weiter heißt es: „Bringt uns die neue, aus der Ferne steuerbare Kriegstechnologie Aufklärung und Sicherheit, wie es die herstellende Industrie und die Regierungen versprechen, oder macht sie die Version eines totalen Überwachungsstaates möglich? Und was ist mit denen da unten, den Menschen im Fadenkreuz?“ (Information RFF) Nicht zuletzt werden zentrale moralische und rechtliche Fragen angesprochen: „Was passiert mit dem Begriff der Schuld, wenn Maschinen autonom töten? Wer ist verantwortlich, wenn sie einen Fehler machen?“ (Information RFF) Zu Wort kommen u.a. Peter W. Singer, Politikwissenschaftler, Ronald Arkin, Robotiker und Maschinenethiker, Daniel Statman, Moralphilosoph, und Yvonne Hofstetter, KI-Expertin. Weitere Informationen zum Film über realfictionfilme.de.

Kampfflufzeug

Abb.: Ein bemanntes Kampfflugzeug

Eine verhängnisvolle Verwechslung

Am 1. Juli 2016 war Matthias Meili vom Tages-Anzeiger im Gespräch mit dem Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel. Thema war der Unfall des Tesla Model S. Ein Sattelschlepper war über eine Einfahrt auf dem Highway, über die die Richtung gewechselt werden kann, senkrecht zum PKW geraten, der die weiße Fläche für den Himmel bzw. ein Schild gehalten hat und unvermindert weitergefahren ist. „Dieser Unfall hätte von einem menschlichen Fahrer absolut vermieden werden können, sofern es nicht zu schnell gegangen ist, was ich aber nicht beurteilen kann. Grundsätzlich hat der Mensch kein Problem damit, eine sehr helle Fläche vom Himmel zu unterscheiden.“ (Tages-Anzeiger, 1. Juli 2016) Vermutlich hätte der Fahrer den Sattelzug auch frühzeitig gesehen und hätte ausweichen oder herunterbremsen können. Oliver Bendel ist nicht grundsätzlich gegen automatisierte und autonome Autos, ganz im Gegenteil: „Ich habe den Tesla vor einigen Monaten mit Autopilot auf einer Autobahn in der Nähe von Bern gefahren und das sehr genossen. Der Wagen hat erst mal den Verkehr beobachtet und als eine Lücke kam, hat er selbständig die Spur gewechselt. Das macht er sehr weich und sehr flüssig, es war faszinierend.“ (Tages-Anzeiger, 1. Juli 2016) Der Wissenschaftler rät dazu, in den nächsten Jahren weitere Tests und Experimente zu machen und hoch- und vollautomatisierte bzw. autonome Autos vorrangig auf Autobahnen ohne Wendemöglichkeiten fahren zu lassen. Der Artikel vom 1. Juli kann über www.tagesanzeiger.ch/wissen/technik/ein-mensch-haette-diesen-unfall-nicht-gebaut/story/26161200 aufgerufen werden.