Autonomes Fahren aus Sicht der Maschinenethik

Claudia Brändle ist wissenschaftliche Mitarbeiterin am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) in Karlsruhe. Prof. Dr. Armin Grunwald hat in Physik promoviert und in Philosophie habilitiert. Er ist Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) und Professor für Technikphilosophie am Institut für Philosophie des KIT. Zu seinen Schwerpunkten gehören die Theorie der Technikfolgenabschätzung, die Ethik der Technik und Konzeptionen der Nachhaltigkeit. Von den beiden Wissenschaftlern stammt der 21. Beitrag für das „Handbuch Maschinenethik“ (Herausgeber Prof. Dr. Oliver Bendel), mit dem Titel „Autonomes Fahren aus Sicht der Maschinenethik“. Veröffentlicht wurde er im Frühjahr 2019 über link.springer.com/referenceworkentry/10.1007/978-3-658-17484-2_18-1. In gedruckter Form kommt das Buch mit allen 23 Beiträgen im Herbst 2019 heraus. Weitere Informationen über www.springer.com/gp/book/9783658174828.

Workshop for a Free and Beautiful World


Dr. Mathilde Noual (Freie Universität Berlin) and Prof. Dr. Oliver Bendel (School of Business FHNW) are organizing a workshop on the social implications of artificial intelligence (AI) and robotics. They are looking for constructive proposals of technological and conceptual utopias, of counter-cultures and counter-systems offering strategies for preserving privacy, individuality, and freedom in a technological world, for going beyond the AI’s present limitations and frustrations, and for emphasising the beauty of the world and of humans’ way of accessing it (with high degree of nuance, contextuality, subjectivity, adaptability and acutality). The tracks are: The territory today: core limitations and prospects of AI; technologies and approaches against surveillance technologies (examples: the virtual burka; the hacked social credit system); technologies and approaches for an intact environment (examples: AI and robots for clean waters and seas; animals with weapons for self-defence); technologies and approaches for a new policy (examples: AI as a president); technologies and approaches for shared knowledge and education (example: open research solutions). The workshop will take place on the 29th and 30th of June 2019 in Berlin, at the Weizenbaum Institute. The CfP is addressed exclusively to the invited persons.

Fig.: Free and beautiful

KI & Autonomes Fahren

„Die Digitalisierung hat längst alle Bereiche unseres Lebens durchdrungen und macht auch vor dem menschlichen Gehirn nicht Halt. Die neuen Möglichkeiten bringen Visionen von großen Entwicklungen in Wirtschaft, Forschung und natürlich auch der Hirnforschung mit sich, gleichzeitig gibt es weitreichende Diskussionen, ob alle möglich erscheinenden Entwicklungen ethisch vertretbar sind. Neuronale Netze, künstliche Intelligenz (KI), autonome Systeme – die Digitalisierung ist angewiesen auf neurowissenschaftliche Erkenntnisse. Neurowissenschaftler wiederum versprechen sich neue Wege für Forschung und Behandlung durch die rasanten Fortschritte der Digitalisierung.“ (Website GHS) Gemeinsam mit der Frankfurter Allgemeinen Zeitung veranstaltet die Gemeinnützige Hertie-Stiftung diese Reihe, die laut Eigenaussage in Übersichtsvorträgen, Podiumsdiskussionen und Gesprächen in hochkarätiger Besetzung das „Gehirn der Zukunft“ umkreist. Bei der Veranstaltung „KI & Autonomes Fahren“ am 13. Mai 2019 tragen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Dr. Corinna Bernarding (Universität des Saarlandes), Prof. Dr. Andreas Geiger (Max-Planck-Institut für intelligente Systeme) und Dr. Sebastian Söhner (Porsche AG) über automatisches und autonomes Fahren vor und diskutieren auf dem Podium miteinander. Weitere Informationen über www.ghst.de/gehirn/erforschen/veranstaltungen/#c11097.

Abb.: Welche ethischen Probleme wirft autonomes Fahren auf?

Übersetzung und KI: Gefahr oder Chance?

„Welchen Platz nimmt die Technologie des Posthumanismus in der Übersetzung ein? Die Geschichte der Künstlichen Intelligenz ist eng mit jener der Übersetzung verknüpft. Grund dafür ist vielleicht die Tatsache, dass die Suche nach dem tieferen Sinn etwas sehr Menschliches ist und einer Maschine kaum zugetraut wird.“ (Website ASTTI) Die maschinelle Übersetzung (engl. „machine translation“, kurz MT), seit jeher ein zentrales Thema im IT-Bereich, habe in den letzten Jahren enorme Fortschritte gemacht. Läutet sie, so der Schweizerische Übersetzer-, Terminologen- und Dolmetscherverband (ASTTI), das Ende der menschlichen Übersetzung ein? „Der ASTTI möchte diese Büchse der Pandora öffnen und lädt alle interessierten Sprachmittlerinnen und Sprachmittler zu seiner Jahrestagung équivalences ein, die sich am 16. November 2018 im Kursaal in Bern mit dem faszinierenden Thema MT auseinandersetzen wird.“ (Website ASTTI) Die Vortragenden sind Martin Kappus, Sabrina Girletti, Daria Caiano, Samuel Läubl, Alison López-Edge, Anna Busby, Hellmut Riediger, Gabriele Galati und Oliver Bendel. Mehr über new.astti.ch/web/Jahrestagung_equivalences_488_3.php.

Abb.: Maschinelle Simultanübersetzung

Ethik der Algorithmen

Das Handelsblatt titelt am 26. August 2018 mit den Worten „Wenn Algorithmen den Menschen diskriminieren“. Im Teaser des Beitrags von Hannah Steinharter und Michael Maisch heißt es: „Die Finanzbranche setzt enorme Hoffnungen auf die künstliche Intelligenz. Aber die Herrschaft der Maschinen führt zu ernsten ethischen Problemen.“ Und im Haupttext: „Künstliche Intelligenz (KI) rechnet in der Finanzbranche nicht nur Versicherungsbeiträge aus. Mithilfe von Algorithmen überprüfen Banken und andere Finanzdienstleister die Kreditwürdigkeit ihrer Kunden, forschen nach Betrug und automatisieren quasi jeden Geschäftsbereich – von der Vermögensverwaltung bis zur Kontoeröffnung.“ (Handelsblatt, 26. August 2018) Befragt wurden zu dem Thema u.a. Raúl Rojas aus Berlin und Oliver Bendel aus Zürich. Der Artikel kann über www.handelsblatt.com/finanzen/banken-versicherungen/kuenstliche-intelligenz-wenn-algorithmen-den-menschen-diskriminieren/22949674.html abgerufen werden.

Abb.: Kredit erhalten

Das BESTBOT-Projekt

An der Hochschule für Wirtschaft FHNW wurde von März bis August 2018 der BESTBOT entwickelt. Vorgängerprojekte waren der GOODBOT (2013) und der LIEBOT (2016). Prof. Dr. Oliver Bendel forscht seit einigen Jahren in der jungen Disziplin der Maschinenethik. Diese bringt in Zusammenarbeit mit Robotik und Künstlicher Intelligenz (KI) moralische Maschinen hervor. Anfang 2018 stellte Bendel an der Stanford University im Rahmen einer KI-Konferenz sein Paper „From GOODBOT to BESTBOT“ vor, das die Grundlage für das BESTBOT-Projekt legte. David Studer programmierte den Chatbot in Java. Zudem verwendete er JavaScript, HTML und CSS. In technischen Fragen stand ihm Prof. Dr. Bradley Richards zur Seite. Wie der LIEBOT ist der BESTBOT ein vernetztes System, das Suchmaschinen und Lexika benutzt. Er analysiert die Texteingaben des Benutzers mit textbasierter Emotionserkennungssoftware. Zugleich wird Gesichtserkennung eingesetzt, wiederum mit Emotionserkennung. Wenn der Benutzer zum Beispiel angibt, dass es ihm gut geht, sein Gesicht aber anderes verrät, spricht der Chatbot diesen Widerspruch an. Dieser erkennt sowohl kleine als auch große Sorgen. Wie der GOODBOT kann der BESTBOT über mehrere Ebenen eskalieren und eine passende Notfallnummer herausgeben. Wie sein Vorgänger macht er deutlich, dass er nur eine Maschine ist. Besonders ist auch, dass er bei Tatsachenbehauptungen die Quelle angibt. Der BESTBOT wird 2019 auf Konferenzen vorgestellt.

Abb.: Der BESTBOT identifiziert Probleme mit Hilfe von Emotionserkennung

Robophilosophy

„Robophilosophy 2018 – Envisioning Robots In Society: Politics, Power, And Public Space“ is the third event in the Robophilosophy Conference Series which focusses on robophilosophy, a new field of interdisciplinary applied research in philosophy, robotics, artificial intelligence and other disciplines. The main organizers are Prof. Dr. Mark Coeckelbergh, Dr. Janina Loh and Michael Funk. Plenary speakers are Joanna Bryson (Department of Computer Science, University of Bath, UK), Hiroshi Ishiguro (Intelligent Robotics Laboratory, Osaka University, Japan), Guy Standing (Basic Income Earth Network and School of Oriental and African Studies, University of London, UK), Catelijne Muller (Rapporteur on Artificial Intelligence, European Economic and Social Committee), Robert Trappl (Head of the Austrian Research Institute for Artificial Intelligence, Austria), Simon Penny (Department of Art, University of California, Irvine), Raja Chatila (IEEE Global Initiative for Ethical Considerations in AI and Automated Systems, Institute of Intelligent Systems and Robotics, Pierre and Marie Curie University, Paris, France), Josef Weidenholzer (Member of the European Parliament, domains of automation and digitization) and Oliver Bendel (Institute for Information Systems, FHNW University of Applied Sciences and Arts Northwestern Switzerland). The conference will take place from 14 to 17 February 2018 in Vienna. More information via conferences.au.dk/robo-philosophy/.

Fig.: Robophilosophy in Vienna

Conference on AI, Ethics, and Society

AAAI announced the launch of the AAAI/ACM Conference on AI, Ethics, and Society, to be co-located with AAAI-18, February 2-3, 2018 in New Orleans. The Call for Papers is available at www.aies-conference.com (link no longer valid). October 31 is the deadline for submissions. „As AI is becoming more pervasive in our life, its impact on society is more significant and concerns and issues are raised regarding aspects such as value alignment, data bias and data policy, regulations, and workforce displacement. Only a multi-disciplinary and multi-stakeholder effort can find the best ways to address these concerns, including experts of various disciplines, such as AI, computer science, ethics, philosophy, economics, sociology, psychology, law, history, and politics.“ (AAAI information) The new conference complements and expands the classical AAAI Spring Symposia at Stanford University (including symposia like „AI for Social Good“ in 2017 or „AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ in 2018).

Fig.: AI and ethics could help society

Liebe und Sex mit Robotern

Die Konferenz im Dezember 2016 an der University of London (Goldsmiths) mit dem Titel „Love and Sex with Robots“ hat ein enormes internationales Echo ausgelöst. Insbesondere in den englischen und amerikanischen Boulevardmedien wurden Aussagen der Referenten verdreht und verfälscht. Was sie wirklich gesagt und gemeint haben, lässt sich nun schwarz auf weiß nachlesen. Ende April 2017 ist das Buch „Love and Sex with Robots“ bei Springer herausgekommen, in der Reihe „Lecture Notes in Artificial Intelligence“. Aus dem Klappentext: „This book constitutes the refereed proceedings of the Second International Conference on Love and Sex with Robots 2016 in December 2016, in London, UK. The 12 revised papers presented together with 1 keynote were carefully reviewed and selected from a total of 38 submissions. … The topics of the conferences were as follows: robot emotions, humanoid robots, clone robots, entertainment robots, robot personalities, teledildonics, intelligent electronic sex hardware, gender approaches, affective approaches, psychological approaches, sociological approaches, roboethics, and philosophical approaches.“ (Klappentext) Beiträge stammen u.a. von David Levy, Emma Yann Zhang und Oliver Bendel. Das Buch kann hier bestellt werden.

We love AI

„We love AI“ nennt sich ein neues Angebot der Deutschen Telekom im World Wide Web, das sich ganz der Künstlichen Intelligenz widmet. Jan Hofmann begrüßt die Besucher: „Wir sind überzeugt, dass künstliche Intelligenz nicht nur den Kundenservice verändern wird, sondern unsere gesamte Industrie – jede Industrie, unsere Gesellschaft und unser tägliches Leben.“ (Website We love AI) Eines der ersten Interviews wurde mit dem Informations- und Maschinenethiker Oliver Bendel geführt. Er untersucht die Möglichkeit maschineller Moral und baut einfache moralische Maschinen als Artefakte, die er dann wiederum untersucht. Zu seinem neuesten Projekt innerhalb der Maschinenethik, das einen tierfreundlichen Saugroboter namens LADYBIRD zum Ziel hat, sagt er: „Mir geht es um das Prinzip. Mir geht es darum, zu zeigen, dass solche tierfreundlichen Maschinen möglich sind. Dass man zum Beispiel Entscheidungsbäume benutzen kann, um solche Maschinen zu bauen. In diese Entscheidungsbäume kann man moralische Begründungen einbeziehen. Das mit Ladybird ist ein sehr anschauliches Beispiel. Wir bauen eine Maschine, die bestimmte Farbsensoren hat, die über Muster- und Bilderkennung verfügt und tatsächlich den Marienkäfer erkennt und verschont. Ich will das Prinzip verdeutlichen: Es ist möglich, eine Maschine zu bauen, die bestimmten ethischen Modellen und moralischen Regeln folgt.“ Das ganze Interview kann über www.we-love.ai/de/blog/post/Interview-OliverBendel.html aufgerufen werden.

Abb.: Der Saugroboter erkennt Marienkäfer

Der Kampf der Maschinen

Die ZEIT führte mit dem Maschinenethiker Oliver Bendel ein Interview, das am 11. bzw. 12. April 2017 veröffentlicht wurde. Eine Frage lautete: „Kann man in Bezug auf bestimmte Programme oder Roboter überhaupt von Moral oder Unmoral sprechen? Können Maschinen gut oder böse sein?“ Die Antwort: „Da sind wir mittendrin in der Maschinenethik. Wir kennen seit 2500 Jahren die Ethik als eine Disziplin, die sich ausschließlich auf Menschen richtete. Jetzt haben wir es mit neuen Subjekten der Moral zu tun, eben Maschinen. Natürlich sind sie nicht gut oder böse, weil sie keinen eigenen Willen, kein Bewusstsein haben. Aber sie treffen, teilautonom oder autonom, bestimmte moralisch relevante Entscheidungen.“ Eine ähnliche Diskussion begann mit der Disziplin der Künstlichen Intelligenz. Viele Experten verwenden den Begriff der künstlichen Intelligenz (der auf den Gegenstand der Disziplin verweist) metaphorisch oder intentional. So kann man es auch bei der „maschinellen Moral“ machen. Die letzte Frage lautete: „Werden intelligente Roboter irgendwann einmal die Menschheit bedrohen?“ Oliver Bendel antwortete dem Journalisten: „Dass sich Roboter zusammenrotten, um uns Menschen zu eliminieren, halte ich für surreal. Dass Maschinen zu Rassisten werden können, ist schon Realität.“ Das Interview kann über www.zeit.de/2017/16/kuenstliche-intelligenz-moral-maschinenethik-interview nachgelesen werden.

Abb.: Der Kampf der Maschinen

Die Artenvielfalt der Automaten

„Android oder Maschine?“ Das fragt die neue Ausgabe der Zeitschrift designreport (Erscheinungsdatum 13. April 2017). In der Ankündigung wird deutlich, worum es geht: „Kaum ein Technologiebereich entwickelt sich derzeit so dynamisch wie die Robotik. Unterstützt von den Fortschritten der Künstlichen Intelligenz steigern sich die Autonomie und damit auch die Anwendungsszenarien automatischer Systeme. Längst geht es nicht mehr nur um Industrieroboter, sondern um persönliche Alltagsassistenten, um Roboter für Medizin, Logistik, Sicherheit oder Mobilität. Die Artenvielfalt der Automaten wächst dynamisch – und damit eine ganz neue Aufgabe für das Design. Dabei geht es nicht nur um die Frage, ob und wie humanoid die neuen Roboter sein dürfen. Es geht vielmehr um die Gestaltung eines neuen technologischen Abschnittes und um die Art, wie wir künftig leben sowie arbeiten wollen. Das Design hat wesentlichen Einflussauf die Nutzungsszenarien, aber auch auf die Akzeptanz der Maschinen.“ (Website designreport) Die Redakteure stellen die neuesten Entwicklungen vor und berichten über einen Besuch der Ausstellung „Hello Robot“ in Weil am Rhein. Enthalten sind auch Interviews, mit einem KUKA-Entwickler zu Industrierobotern und mit Oliver Bendel (Hochschule für Wirtschaft FHNW) zur Maschinenethik. Weitere Informationen über www.designreport.de (Link nicht mehr gültig).

Abb.: Die Artenvielfalt der Zahnräder

AI for Social Good VII

Den Session Chair für die Talk Session 5 („Miscellaneous“) beim AAAI Spring Symposium „AI for Social Good“ hatte Amulya Yadav inne. Er ging auf die Methoden und Strategien im Bereich „AI for Social Good“ ein, erwähnte den Belmont-Report und wertete ihn für den gegebenen Kontext aus. „Optimal Thresholds for Intrusion Detection Systems“ wurde von Yevgeniy Vorobeychik vorgetragen (Paper zusammen mit Aron Laszka, Waseem Abbas u.a.). Die Methoden wurden auf „Water Distribution Networks“ angewandt. Das Referat von Evan Patterson trug den Titel „Machine representation of Data Analyses“ (Paper mit Ioana Baldini, Aleksandra Mojsilovic und Kush Varshney). Er ging aus von einer Case Study namens „Accelerated Cure Project“ und fragte nach neuen Arten von „data science platforms“. Oliver Bendel ging in „Towards Kant Machines“ (Paper zusammen mit Kevin Schwegler und Bradley Richards) auf das abgeschlossene LÜGENBOT-Projekt ein. Der LIEBOT ist in der Lage, systematisch zu lügen. Die Ergebnisse können dazu verwendet werden, solche natürlichsprachlichen Systeme zu entwickeln, die niemals oder selten lügen. Danach präsentierte er sein Paper „LADYBIRD: the Animal-Friendly Robot Vacuum Cleaner“. LADYBIRD erkennt Marienkäfer und stellt, wenn ihm diese zu nahe kommen, seine Arbeit ein. Der Prototyp wird zurzeit an der Hochschule für Wirtschaft FHNW entwickelt. Erisa Karafili offerierte eine „Argumentation-based Security for Social Good“ (Co-Autoren sind Antonis C. Kakas, Nikolaos I. Spanoudakis und Emil C. Lupu), Mahendra Prasad reiste „Back to the Future“, mit „A Framework for Modelling Altruistic Intelligence Explosions“ im Gepäck. Um 17.30 Uhr – nach einer angeregten Plenumsdiskussion – war das Symposium vorbei. Für den Abend und den Morgen des darauffolgenden Tages waren weitere allgemeine Veranstaltungen innerhalb der AAAI 2017 Spring Symposia geplant.

AI for Social Good V

Am 28. März 2017 begann um 9.00 Uhr der zweite Tag des AAAI Spring Symposium „AI for Social Good“. Den Session Chair für die Talk Session 3 („Urban Planning“) hatte Virginia Dignum (Delft University of Technology) inne. Sie führte in das Thema ein und postulierte: „Artefacts have politics“. Sie erwähnte Anliegen der Maschinenethik und unterschiedliche Modelle der normativen Ethik, die man auf autonome Systeme anwenden kann. „Smart-City Planning with Constrained Crowd Judgment Analysis“ war der Titel des ersten Vortrags von Sujoy Chatterjee (Paper mit Anirban Mukhopadhyay und Malay Bhattacharyya). Syed Ali Asad Rizvi (Paper mit Elmarie van Heerden, Arnold Salas u.a.) trug zu „Identifying Sources of Discrimination Risk in the Life Cycle of Machine Intelligence Applications under New European Union Regulations“ vor. Er erwähnte einen „discrimination bias“ und fragte danach, wie man diesem begegnen kann. Daniela Rosu präsentierte das Paper „Knowledge-based Provisioning of Goods and Services: Towards a Virtual Social Needs Marketplace“, das zusammen mit Dionne M. Aleman, Christopher Beck u.a. erstellt wurde. Ausgangspunkt war, dass immer mehr Menschen Produkte und Dienstleistungen benötigen, die sie sich nicht leisten können. Es geht nun darum, diese in effizienter Weise von der Anbieter- zur Nachfragerseite zu bringen. Amin Ghafouri (Paper mit Aron Laszka, Abhishek Dubey und Xenofon Koutsoukos) referierte zu „Optimal Detection of Faulty Traffic Sensors Used in Route Planning“, Karen Judd Smith – den Fokus wieder stark erweiternd – zu „The AI Community and the United Nations: A Missing Global Conversation“.

AI for Social Good IV

Das AAAI Spring Symposium „AI for Social Good“ wurde am 27. März 2017 um 16.00 Uhr mit der Talk Session 2 („Social Welfare“) fortgeführt. Den Session Chair hatte Eric Rice inne. In seiner Einführung ging er wiederum auf die Sozialarbeit ein. Seine Arbeitsgruppe hatte zwei Papers erfolgreich eingereicht, nämlich „Uncharted but not un-influenced: Influence Maximization with an Uncertain Network“ und „Influence Maximization in the Field: The Arduous Journey from Emerging to Deployed Application“. Diese wurden anschließend präsentiert. Bryan Wilder (Beitrag von ihm, Amulya Yadav, Nicole Immorlica, Eric Rice und Milind Tambe) begann seinen Vortrag mit dem Zusammenhang von HIV und Obdachlosigkeit. Er erwähnte den HEALER- und den DOSIM-Algorithmus. Amulya Yadav begann seinen Vortrag (Paper von ihm, Bryan Wilder, Robin Petering, Eric Rice und Milind Tambe) ebenfalls mit der erwähnten Thematik. Es ging ihm darum, mit Hilfe der Algorithmen Peer Leaders zu identifizieren, zu informieren und zu trainieren, um HIV bei Obdachlosen zu reduzieren. Der Nachmittag schloss mit der Präsentation der Beiträge „Cloudy with a Chance of Poaching: Adversary Behavior Modeling and Forecasting with Real-World Poaching Data“ (Debarun Kar, Benjamin Ford, Shahrzad Gholami u.a.) – Benjamin Ford nahm Bezug auf Tiere -, „Optimal Allocation of Police Patrol Resources Using a Continuous-Time Crime Model“ (Ayan Mukhopadhyay, Chao Zhang, Yevgeniy Vorobeychik u.a.) – Ayan Mukhopadhyay stellte einen KI-basierten Ansatz zur Verbrechensbekämpfung vor – und „Societal Challenges need Social Agents“ (Virginia Dignum und Frank Dignum). Frank Dignum verwendete seine Zeit auf eine ganze Palette von Projekten.

AI for Social Good III

Weiter ging es mit dem AAAI Spring Symposium „AI for Social Good“ am 27. März 2017 um 14.00 Uhr mit der Talk Session 1 („Healtcare“). Den Session Chair hatte Eric Horvitz (Technical Fellow & Managing Director, Microsoft Research) inne. Er führte aus technisch-mathematischer Perspektive in die Thematik ein. Lanbo She (Michigan State University) begann mit „Teaching and Checking of Constraints for Surgical Tray Layout“. Er schlug einen Agenten vor, der beim korrekten Zusammenstellen der Operationsinstrumente für unterschiedliche Situationen hilft. Co-Autor des Papers war Jonathan Connell (IBM T. J. Watson Research). Sujoy Chatterjee referierte anstelle von Malay Bhattacharya (Indian Statistical Institute, Kolkata) über „In Search of Health Doubles“. Nach ihrem Ansatz sollte man weltweit Personen identifizieren können, die in ihren biologischen Eigenschaften zu anderen Personen passen, denen damit geholfen werden kann. Arnaud Delaunay (LinkValue) ging in „Wandering Detection Within an Embedded System for Alzheimer Suffering Patients“ auf einen innovativen Ansatz für Alzheimer-Patienten ein, die mit einer Smartwatch ausgestattet und überwacht werden. Co-Autor des Papers war Jean Guerin. Der Vortrag von Yevgeniy Vorobeychik (Vanderbilt University) – das Paper wurde zusammen mit Bo Li, Muqun Li und Bradley Malin geschrieben – trug den Titel „Sanitizing Large-Scale Medical Records Before Publishing“ und stellte eine iterative Methode für „sanitizing data at scale“ vor.