Das 29. Heidelberger Symposium vom 11. bis zum 13. Mai 2017 trägt den Titel „verAntworten“. Die Schirmherrschaft hat Ministerpräsident Winfried Kretschmann übernommen. Nach der Eröffnungsrede von Christian Wulff (Bundespräsident a.D.) gibt es Vorträge u.a. von Hansjörg Geiger (ehem. Präsident Bundesnachrichtendienst und Verfassungsschutz), Sabine Leutheusser-Schnarrenberger (Bundesministerin der Justiz a.D.), Norbert Junkers (Max-Planck-Institut für Radioastronomie), Hans Markowitsch (Universität Bielefeld) und Oliver Bendel (Hochschule für Wirtschaft FHNW). Oliver Bendel widmet sich der Frage, ob man durch autonomes Fahren die Zahl der Unfälle reduzieren kann, und wenn ja, in welchen Bereichen, in welchen Situationen und zu welchem Preis. Für ihn gehören autonome Autos auf die Autobahnen, nicht in die Städte. Die Städte sind zu komplex, und es wird in ihnen, in ihrem Verkehr mit seinen unterschiedlichen Teilnehmern, kommuniziert, per Wink, per Blick. Es treffen sozusagen Welten aufeinander, und diese lassen sich nicht ohne weiteres verbinden. Weitere Informationen über heidelberger-symposium.de.
Abb.: Selbst an autonomen Fahrrädern wird geforscht
Was haben Wonder Woman und ein Lügendetektor gemeinsam? Warum schämen wir uns für andere Menschen? Kann die Sonne erlöschen? Wer war Mata Hari? Die Fragen bei „Beat the Prof“ auf ZEIT ONLINE sind immer anregend, die Antworten oft verblüffend. Im Mai 2017 wurde ein neues Quiz freigeschaltet, und zwar zu Künstlicher Intelligenz, Robotik und Maschinenethik. Die Fragen und Antworten erarbeitete der Informations- und Maschinenethiker Oliver Bendel, der in Zürich lebt und in Basel, Olten und Windisch an der Hochschule für Wirtschaft FHNW arbeitet. Enthalten ist u.a. eine Frage zum Fetter-Mann-Problem. Der bedauernswerte Unbeteiligte werde von einer Brücke auf ein Gleis gestoßen. Aber warum? Antwort 1: „Er wird getötet, damit andere auf dem Gleis überleben.“ Antwort 2: „Er wird heruntergeschubst, damit die Brücke nicht einstürzt.“ Antwort 3: „Er wird getötet, damit das Fetter-Mann-Problem entsteht.“ Das Quiz kann über www.zeit.de/campus/2017-05/beat-the-prof-ethik-kuenstliche-intelligenz aufgerufen werden. Aber Achtung: Die Zeit läuft davon!
Im Sommercasino Basel trafen beim Festival science+fiction vom 5. bis 7. Mai 2017 nationale und internationale Künstler und Wissenschaftler auf ein interessiertes Publikum. Am 6. Mai ging es um Roboterrecht und Maschinenethik. Beim Panel „Maschinen und das Gesetz“ wurde gefragt, welche Bedingungen erfüllt sein müssen, damit eine Maschine zum rechtlichen Subjekt wird, ob es in naher Zukunft eines Maschinenrechts bedarf, oder ob sich Maschinen in unsere Rechtsprechung einfügen müssen, und welche Folgen sich ergeben, wenn in einer Mensch-Maschinen-Interaktion etwas schief geht (z.B. wenn eine Hightech-Prothese ihren Träger oder Personen aus der Umgebung verletzt). Es moderierte Christoph Keller von SRF 2 Kultur, es diskutierten Wolfram Burgard (Professor für Autonomous Intelligent Systems, Universität Freiburg), Nadine Zurkinden (Postdoc für Strafrecht, Universität Basel) und Oliver Bendel (Professor für Wirtschaftsinformatik und Informationsethik, Hochschule für Wirtschaft FHNW). Am Abend sprach Gabriele Röger (Informatikerin, Universität Basel) über „Die Auswirkungen von KI auf den Arbeitsmarkt“, und Oliver Bendel stellte seinen LÜGENBOT vor, ein Beispiel für eine Münchhausen-Maschine; am Tag zuvor hatte die TagesWoche über das Projekt berichtet. Weitere Informationen über scienceandfiction.ch.
Matthias Oppliger von der TagesWoche besuchte Oliver Bendel am 4. Mai 2017 auf dem Campus Brugg-Windisch und befragte ihn zu seinem Lügenbot und zu anderen Themen: „Sie sind Maschinenethiker und beschäftigen sich mit den moralischen Aspekten von Technologie. Warum bauen Sie eine unmoralische Maschine, die Lügen erzählt?“ Oliver Bendel antwortete: “Als Ethiker interessiere ich mich für das Gute und das Böse, als Maschinenethiker für moralische und unmoralische Maschinen. Ich will keine bösen Maschinen in die Welt entlassen, aber ich will sie erschaffen und erforschen. Wenn wir wissen, wie ein Lügenbot funktioniert, können wir eine solche Maschine auch entlarven und Strategien entwickeln, um gegen sie vorzugehen.“ Der Moralphilosoph untersucht, so hat es Oliver Bendel immer wieder dargestellt, das Gute und das Böse, in deskriptiver oder normativer Weise. Er nimmt das Moralische also zur Kenntnis, beschreibt es und ordnet es ein. Und er entwirft einen Rahmen, etwa deontologischer oder teleologischer Art, und vergleicht den einen mit dem anderen, womit er in der Metaethik angelangt ist. Das Moralisieren überlässt er dem Moraltheologen, der anders als er weder voraussetzungslos noch ergebnisoffen ist. Das ganze Interview ist am 5. Mai 2017 erschienen und kann über www.tageswoche.ch nachgelesen werden.
Sicherheits- und Überwachungsroboter verbreiten sich auf den Firmengeländen und in den Shopping Malls, als rollende und fliegende Maschinen. Sie sollen für die Sicherheit der Unternehmen und Kunden sorgen. Dabei entsteht allerdings auch Unsicherheit. Man kann mit ihnen zusammenstoßen, sie können einen überwachen und aushorchen. Technology Review war im Gespräch mit Oliver Bendel von der Hochschule für Wirtschaft FHNW. Es ging unter anderem um den K5 im Silicon Valley, den der Informations- und Maschinenethiker im vergangenen Jahr vor Ort inspiziert hat. Der Roboter von Knightscope ist im Shopping Center in Stanford im Einsatz. Er streift die ganze Zeit durch die Gegend und meldet Auffälliges und Verdächtiges an eine Zentrale. Diese bewertet die Situation und ergreift gegebenenfalls Maßnahmen. Der kegelförmige Mitarbeiter ist über 100 Kilo schwer und 1,20 Meter hoch. Der Artikel „Wer hat Angst vor Robocobs“ mit Aussagen von Oliver Bendel ist in der Ausgabe 5/2017 auf den Seiten 32 bis 34 erschienen.
Die Konferenz im Dezember 2016 an der University of London (Goldsmiths) mit dem Titel „Love and Sex with Robots“ hat ein enormes internationales Echo ausgelöst. Insbesondere in den englischen und amerikanischen Boulevardmedien wurden Aussagen der Referenten verdreht und verfälscht. Was sie wirklich gesagt und gemeint haben, lässt sich nun schwarz auf weiß nachlesen. Ende April 2017 ist das Buch „Love and Sex with Robots“ bei Springer herausgekommen, in der Reihe „Lecture Notes in Artificial Intelligence“. Aus dem Klappentext: „This book constitutes the refereed proceedings of the Second International Conference on Love and Sex with Robots 2016 in December 2016, in London, UK. The 12 revised papers presented together with 1 keynote were carefully reviewed and selected from a total of 38 submissions. … The topics of the conferences were as follows: robot emotions, humanoid robots, clone robots, entertainment robots, robot personalities, teledildonics, intelligent electronic sex hardware, gender approaches, affective approaches, psychological approaches, sociological approaches, roboethics, and philosophical approaches.“ (Klappentext) Beiträge stammen u.a. von David Levy, Emma Yann Zhang und Oliver Bendel. Das Buch kann hier bestellt werden.
Julie Rambal interviewte Oliver Bendel für Le Temps. Das Thema waren Sexroboter und Robotersex. Sie fragte danach, ob es möglich ist, weiterhin einen unperfekten Menschen zu lieben, wenn wir uns eine perfekte Maschine leisten können. Wäre diese nicht eine starke Konkurrenz? Die Anwort lautete: „At the moment, we do not have the perfect machine. On the one hand, there are many love dolls which look good but which have limited capacities. On the other hand, we have some sex robots which look strange but which have extended options. A perfect sex machine could be possible in 20, 30 years. It would have perfect skin, perfect flesh, perfect language capabilities. It would read every wish from our eyes. If this would happen, the machine would be a tough competition, that’s true. But I can imagine that there will be a new trend in the future: real sex with real men and women.“ Eine andere Frage war, ob Sexroboter das Verlangen verändern könnten. Die Antwort: „Of course, new types of desire could arise. Love dolls and sex robots could be a chance to identify the hidden individual needs and wishes of oneself and one’s partner. We have a long history of ideas regarding artificial women and men: think of the Golden Virgins or Golden Maids, of Pandora and Galatea, think of Talos, the guardian of Crete Island, or of the Golem. Perhaps also Pinocchio is a sex fantasy? Now serious again: Perhaps our real desire is not focussed on only one person, not only on a real human. I don’t think that sex robots themselves imply a liberation – but maybe the thinking about them.“ Der Artikel vom 25. März 2017 mit Aussagen von Oliver Bendel kann hier heruntergeladen werden.
„We love AI“ nennt sich ein neues Angebot der Deutschen Telekom im World Wide Web, das sich ganz der Künstlichen Intelligenz widmet. Jan Hofmann begrüßt die Besucher: „Wir sind überzeugt, dass künstliche Intelligenz nicht nur den Kundenservice verändern wird, sondern unsere gesamte Industrie – jede Industrie, unsere Gesellschaft und unser tägliches Leben.“ (Website We love AI) Eines der ersten Interviews wurde mit dem Informations- und Maschinenethiker Oliver Bendel geführt. Er untersucht die Möglichkeit maschineller Moral und baut einfache moralische Maschinen als Artefakte, die er dann wiederum untersucht. Zu seinem neuesten Projekt innerhalb der Maschinenethik, das einen tierfreundlichen Saugroboter namens LADYBIRD zum Ziel hat, sagt er: „Mir geht es um das Prinzip. Mir geht es darum, zu zeigen, dass solche tierfreundlichen Maschinen möglich sind. Dass man zum Beispiel Entscheidungsbäume benutzen kann, um solche Maschinen zu bauen. In diese Entscheidungsbäume kann man moralische Begründungen einbeziehen. Das mit Ladybird ist ein sehr anschauliches Beispiel. Wir bauen eine Maschine, die bestimmte Farbsensoren hat, die über Muster- und Bilderkennung verfügt und tatsächlich den Marienkäfer erkennt und verschont. Ich will das Prinzip verdeutlichen: Es ist möglich, eine Maschine zu bauen, die bestimmten ethischen Modellen und moralischen Regeln folgt.“ Das ganze Interview kann über www.we-love.ai/de/blog/post/Interview-OliverBendel.html aufgerufen werden.
Die ZEIT führte mit dem Maschinenethiker Oliver Bendel ein Interview, das am 11. bzw. 12. April 2017 veröffentlicht wurde. Eine Frage lautete: „Kann man in Bezug auf bestimmte Programme oder Roboter überhaupt von Moral oder Unmoral sprechen? Können Maschinen gut oder böse sein?“ Die Antwort: „Da sind wir mittendrin in der Maschinenethik. Wir kennen seit 2500 Jahren die Ethik als eine Disziplin, die sich ausschließlich auf Menschen richtete. Jetzt haben wir es mit neuen Subjekten der Moral zu tun, eben Maschinen. Natürlich sind sie nicht gut oder böse, weil sie keinen eigenen Willen, kein Bewusstsein haben. Aber sie treffen, teilautonom oder autonom, bestimmte moralisch relevante Entscheidungen.“ Eine ähnliche Diskussion begann mit der Disziplin der Künstlichen Intelligenz. Viele Experten verwenden den Begriff der künstlichen Intelligenz (der auf den Gegenstand der Disziplin verweist) metaphorisch oder intentional. So kann man es auch bei der „maschinellen Moral“ machen. Die letzte Frage lautete: „Werden intelligente Roboter irgendwann einmal die Menschheit bedrohen?“ Oliver Bendel antwortete dem Journalisten: „Dass sich Roboter zusammenrotten, um uns Menschen zu eliminieren, halte ich für surreal. Dass Maschinen zu Rassisten werden können, ist schon Realität.“ Das Interview kann über www.zeit.de/2017/16/kuenstliche-intelligenz-moral-maschinenethik-interview nachgelesen werden.
„Android oder Maschine?“ Das fragt die neue Ausgabe der Zeitschrift designreport (Erscheinungsdatum 13. April 2017). In der Ankündigung wird deutlich, worum es geht: „Kaum ein Technologiebereich entwickelt sich derzeit so dynamisch wie die Robotik. Unterstützt von den Fortschritten der Künstlichen Intelligenz steigern sich die Autonomie und damit auch die Anwendungsszenarien automatischer Systeme. Längst geht es nicht mehr nur um Industrieroboter, sondern um persönliche Alltagsassistenten, um Roboter für Medizin, Logistik, Sicherheit oder Mobilität. Die Artenvielfalt der Automaten wächst dynamisch – und damit eine ganz neue Aufgabe für das Design. Dabei geht es nicht nur um die Frage, ob und wie humanoid die neuen Roboter sein dürfen. Es geht vielmehr um die Gestaltung eines neuen technologischen Abschnittes und um die Art, wie wir künftig leben sowie arbeiten wollen. Das Design hat wesentlichen Einflussauf die Nutzungsszenarien, aber auch auf die Akzeptanz der Maschinen.“ (Website designreport) Die Redakteure stellen die neuesten Entwicklungen vor und berichten über einen Besuch der Ausstellung „Hello Robot“ in Weil am Rhein. Enthalten sind auch Interviews, mit einem KUKA-Entwickler zu Industrierobotern und mit Oliver Bendel (Hochschule für Wirtschaft FHNW) zur Maschinenethik. Weitere Informationen über www.designreport.de (Link nicht mehr gültig).
Die Technical Reports des Symposiums „AI for Social Good“ sind erschienen. Dieses fand innerhalb der AAAI Spring Symposia (27. bis 29. März 2017) an der Stanford University statt. Organisiert wurde es von Amulya Yadav (University of Southern California, CA, USA) und Fei Fang (Harvard University). Die veröffentlichten Papers zeigen das enorme Spektrum der Veranstaltung auf. Oliver Bendel ist mit „LADYBIRD: The Animal-Friendly Robot Vacuum Cleaner“ sowie „Towards Kant Machines“ (zusammen mit Kevin Schwegler und Bradley Richards) vertreten, Malay Bhattacharyya mit „In Search of Health Doubles“, Sujoy Chatterjee (mit Anirban Mukhopadhyay und Malay Bhattacharyya) mit „Smart City Planning with Constrained Crowd Judgment Analysis“, Arnaud Delaunay (zusammen mit Jean Guérin) mit „Wandering Detection Within an Embedded System for Alzheimer Suffering Patients“ und Virginia Dignum (zusammen mit Frank Dignum) mit „Societal Challenges Need Social Agents“. Virginia Dignum konnte während des Symposiums die frohe Botschaft überbringen, dass die andere große Wissenschaftsvereinigung auf technischem Gebiet, das Institute of Electrical and Electronics Engineers (IEEE), sich in seinen Leitlinien „Ethically Aligned Design“ zu Robotik und KI zukünftig nicht nur den Menschen, sondern auch den Tieren widmen wird. Dies hatte Oliver Bendel in einer Stellungnahme gegenüber den Verantwortlichen vorgeschlagen. Die Technical Reports des Symposiums sind über aaai.org/proceeding/01-spring-2017/ verfügbar.
Den Session Chair für die Talk Session 5 („Miscellaneous“) beim AAAI Spring Symposium „AI for Social Good“ hatte Amulya Yadav inne. Er ging auf die Methoden und Strategien im Bereich „AI for Social Good“ ein, erwähnte den Belmont-Report und wertete ihn für den gegebenen Kontext aus. „Optimal Thresholds for Intrusion Detection Systems“ wurde von Yevgeniy Vorobeychik vorgetragen (Paper zusammen mit Aron Laszka, Waseem Abbas u.a.). Die Methoden wurden auf „Water Distribution Networks“ angewandt. Das Referat von Evan Patterson trug den Titel „Machine representation of Data Analyses“ (Paper mit Ioana Baldini, Aleksandra Mojsilovic und Kush Varshney). Er ging aus von einer Case Study namens „Accelerated Cure Project“ und fragte nach neuen Arten von „data science platforms“. Oliver Bendel ging in „Towards Kant Machines“ (Paper zusammen mit Kevin Schwegler und Bradley Richards) auf das abgeschlossene LÜGENBOT-Projekt ein. Der LIEBOT ist in der Lage, systematisch zu lügen. Die Ergebnisse können dazu verwendet werden, solche natürlichsprachlichen Systeme zu entwickeln, die niemals oder selten lügen. Danach präsentierte er sein Paper „LADYBIRD: the Animal-Friendly Robot Vacuum Cleaner“. LADYBIRD erkennt Marienkäfer und stellt, wenn ihm diese zu nahe kommen, seine Arbeit ein. Der Prototyp wird zurzeit an der Hochschule für Wirtschaft FHNW entwickelt. Erisa Karafili offerierte eine „Argumentation-based Security for Social Good“ (Co-Autoren sind Antonis C. Kakas, Nikolaos I. Spanoudakis und Emil C. Lupu), Mahendra Prasad reiste „Back to the Future“, mit „A Framework for Modelling Altruistic Intelligence Explosions“ im Gepäck. Um 17.30 Uhr – nach einer angeregten Plenumsdiskussion – war das Symposium vorbei. Für den Abend und den Morgen des darauffolgenden Tages waren weitere allgemeine Veranstaltungen innerhalb der AAAI 2017 Spring Symposia geplant.
Fei Fang (Harvard University) eröffnete die Talk Session 4 („Computational Sustainability“) beim AAAI Spring Symposium „AI for Social Good“ auf interaktive Weise, indem sie viele Fragen stellte und Antworten aus dem Auditorium einholte. Jennifer Sleeman begann die Vortragsreihe mit „Machine Learning the Temporal Evolution of Climate Change Assessment Research Using Dynamic Topic Models and Cross-Domain Divergence Maps“ (Paper zusammen mit Milton Halem, Tim Finin und Mark Cane). Einen Bezug zur Tierwelt schuf wiederum Jason Parham (Paper „Animal Population Censusing at Scale with Citizen Science and Photographic Identification“ mit Jonathan Crall, Charles Stewart u.a.). Er stellte invasive (etwa über Chips) und passive Verfahren (etwa über Kameras, auch von Bürgern und Touristen) der Tierzählung gegenüber. Zhiyu Wan präsentierte „Game Theory Can Expand Access to Genomic Data While Promoting Privacy“ (Co-Autoren sind Yevgeniy Vorobeychik, Weiyi Xia u.a.). Er ging u.a. auf das Risiko für die Privacy ein. Sara Marie Mc Carthy trug zum Projekt „PAWS-LITE: Extending the Deployment of Game Theoretic Applications for Environmental Crime Prevention“ vor, an dem neben ihr noch Milind Tambe und Chris Hallam beteiligt sind. PAWS wird in Uganda und Malaysia gegen Wilderei eingesetzt; es ist erfolgreich, aber sehr aufwendig. PAWS-LITE ist eine „light-weight Game Theoretic Application“. Neetu Pathak schloss den Vormittag mit „Understanding Social Media’s Take on Climate Change through Large-Scale Analysis of Targeted Opinions and Emotions“ (Co-Autoren Michael Henry und Svitlana Volkova) ab. User wurden nach persönlichen und nichtpersönlichen unterschieden, zudem nach Geschlecht, Alter etc. klassifiziert.
Am 28. März 2017 begann um 9.00 Uhr der zweite Tag des AAAI Spring Symposium „AI for Social Good“. Den Session Chair für die Talk Session 3 („Urban Planning“) hatte Virginia Dignum (Delft University of Technology) inne. Sie führte in das Thema ein und postulierte: „Artefacts have politics“. Sie erwähnte Anliegen der Maschinenethik und unterschiedliche Modelle der normativen Ethik, die man auf autonome Systeme anwenden kann. „Smart-City Planning with Constrained Crowd Judgment Analysis“ war der Titel des ersten Vortrags von Sujoy Chatterjee (Paper mit Anirban Mukhopadhyay und Malay Bhattacharyya). Syed Ali Asad Rizvi (Paper mit Elmarie van Heerden, Arnold Salas u.a.) trug zu „Identifying Sources of Discrimination Risk in the Life Cycle of Machine Intelligence Applications under New European Union Regulations“ vor. Er erwähnte einen „discrimination bias“ und fragte danach, wie man diesem begegnen kann. Daniela Rosu präsentierte das Paper „Knowledge-based Provisioning of Goods and Services: Towards a Virtual Social Needs Marketplace“, das zusammen mit Dionne M. Aleman, Christopher Beck u.a. erstellt wurde. Ausgangspunkt war, dass immer mehr Menschen Produkte und Dienstleistungen benötigen, die sie sich nicht leisten können. Es geht nun darum, diese in effizienter Weise von der Anbieter- zur Nachfragerseite zu bringen. Amin Ghafouri (Paper mit Aron Laszka, Abhishek Dubey und Xenofon Koutsoukos) referierte zu „Optimal Detection of Faulty Traffic Sensors Used in Route Planning“, Karen Judd Smith – den Fokus wieder stark erweiternd – zu „The AI Community and the United Nations: A Missing Global Conversation“.
Das AAAI Spring Symposium „AI for Social Good“ wurde am 27. März 2017 nach der Kaffeepause um 11.00 Uhr fortgeführt. Eric Rice (USC School of Social Work) und Sharad Goel (Stanford University) referierten in ihren Keynotes zum Thema „AI for the Social Sciences“. Ihr Ausgangspunkt: „While the public frets over a future threat of killer robots or the dream of a driverless car, computer scientists and social scientists can engage in novel solutions to vexing social problems today.“ (Website AISOC) Eric Rise ist Mitbegründer des USC Center for Artificial Intelligence in Society. Er stellte zuerst sein eigenes Forschungsfeld dar, die Sozialarbeit, und ging dann auf das Phänomen der Obdachlosen in den USA ein. Künstliche Intelligenz kann auch in diesem Feld angewandt werden, etwa indem man Netzwerke und ihre Mitglieder sichtbar macht und dann Personen dazu ermuntert, bestimmte Funktionen – etwa eines Anführers oder Vorbilds – zu übernehmen. Der Vortrag von Sharad Goel trug den Titel „Algorithms to assist judicial decision-making“. Der Assistenzprofessor am Department of Management Science & Engineering der Stanford University betonte, dass in diesem Bereich einfache, interpretierbare Regeln wichtig sind; die Urteile müssen nach seiner Meinung „fast, frugal and clear“ sein. Der Wissenschaftler gab ein Ende ein Versprechen „of greater efficiency, equity, and transparency“.
„Experten sind sich einig. Das Auto der Zukunft wird elektrisch und selbstfahrend sein. Aber zuvor müssen noch wichtige ethische Fragen geklärt werden. Wie soll das Auto entscheiden, wenn ein Unfall mit Personenschaden nicht vermeidbar ist? Hierzu tagt eine vom Bundesverkehrsminister eingesetzte Ethikkommission.“ So heißt es auf der Website der sogenannten Industriewoche 2017. Dr. Nicole Hoffmeister-Kraut MdL, Ministerin für Wirtschaft, Arbeit und Wohnungsbau des Landes Baden-Württemberg, meint in ihrem Grußwort: „Mit der Industriewoche 2017 wollen wir zeigen: Industrie berührt jeden von uns und sie ist vielfältig.“ (Website der Industriewoche 2017) Dr. Thomas Meyer, Geschäftsführer des KIT-Zentrums für Mobilitätssysteme, diskutiert mit Prof. Dr. Oliver Bendel, Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz. Die Moderation übernimmt Prof. Dr. Kurt Möser vom KIT. Die Veranstaltung findet am 20. Juni 2017 im Auditorium des TECHNOSEUM statt. „Das TECHNOSEUM ist eines der großen Technikmuseen in Deutschland. Die Ausstellung zeigt 200 Jahre Technik- und Sozialgeschichte. Sie steht mit ihren Experimentierstationen zu Naturwissenschaft und Technik für experimentelles Begreifen mit Spaß und Staunen.“ (Website TECHNOSEUM) Weitere Informationen über www.industriewoche-bw.de und www.technoseum.de.
Abb.: Diese Isetta steht im TECHNOSEUM (Foto: TECHNOSEUM)