Noch bleiben die Hände am Steuerrad

Bruno Knellwolf berichtete am 3. März 2016 vom Auto-Salon in Genf. Der Artikel, der u.a. im St. Galler Tagblatt erschienen ist, beginnt mit den Worten: „Neben 120 Welt- und Europapremieren sind ab heute am Auto-Salon in Genf bei einigen Autoherstellern auch ihre Forschungen zum selbstfahrenden Auto zu sehen. Lotta Jakobsson von Volvo erklärt, warum wir noch einige Zeit das Lenkrad im Griff behalten werden.“ (Tagblatt, 3. März 2016) „Wenn jemand fahren will, soll er das tun können. Dafür hat er ja ein Auto“, wird die Expertin zitiert. „Doch sei es ihm auf der langen Reise auf der Autobahn langweilig, sollte er sich mit etwas anderem beschäftigen können. Das autonome Fahren sei aber noch nicht mehrheitsfähig, weil uns die Erfahrung fehle. Unsere Haltung in dieser Frage werde sich aber in fünf bis zehn Jahren ändern.“ (Tagblatt, 3. März 2016) Zu Wort kommt auch Oliver Bendel. „Darf man sein und das Leben anderer also einem Algorithmus anvertrauen? Im ‚Spiegel‘ zweifelt Oliver Bendel von der Fachhochschule Nordwestschweiz daran. Es sei fatal, Maschinen komplexe moralische Entscheidungen zu überlassen.“ Der Wirtschaftsinformatiker und Maschinenethiker spricht sich für einfache moralische Maschinen aus, die einfache moralische Entscheidungen treffen, etwa in Bezug auf Tiere, und dadurch zu deren Wohl beitragen können. Der Artikel mit dem Titel „Noch bleiben die Hände am Steuerrad“ kann hier gelesen werden.

Steuer

Abb.: Bald fehlen die Hände am Steuerrad

 

Telepolis-Buch „Die Moral in der Maschine“

Die Maschinenethik hat die Moral von Maschinen zum Gegenstand. Die meisten ihrer Vertreter und Anhänger sitzen in den USA, doch auch in Europa wächst das Interesse am Thema. Philosophen, Robotiker oder Experten für Künstliche Intelligenz stellen sich Fragen dieser Art: Können Maschinen gut oder böse sein? Kann man von einer Moral der Maschinen sprechen? Verwendet man Regeln oder Fälle? Hat die Maschinenethik eine Existenzberechtigung? Ist sie Konkurrenz oder Pendant zur Menschenethik? Letzten Endes geht es darum, ob bzw. wie man (teil-)autonomen Systemen so etwas wie Moral beibringen kann. Untersucht und erweitert werden unter anderem Chatbots, Serviceroboter, autonome Drohnen, ob zivil oder militärisch genutzt, und selbstständig fahrende Autos. Im Telepolis-Buch „Die Moral in der Maschine“ (Heise Medien), erschienen im Februar 2016, finden sich (populär-)wissenschaftliche und journalistische Beiträge von Oliver Bendel aus den Jahren 2012 bis 2016 zur Roboterethik und zur Maschinenethik. Sie sind in ganz unterschiedlichen schweizerischen und deutschen Zeitungen und Zeitschriften sowie auf einschlägigen Plattformen erschienen und widmen sich technischen Implementierungen, vor allem aber philosophischen Implikationen.

Metropolis

Abb.: Der Roboter aus „Metropolis“ vor seiner Verwandlung

Simple Moral Machines

Vom 21. bis zum 23. März 2016 findet an der Stanford University der Workshop „Ethical and Moral Considerations in Non-Human Agents“ statt, im Rahmen der AAAI Spring Symposia. Keynote-Speaker sind Ron Arkin (Georgia Institute of Technology), Maja Matarić (University of Southern California) und Luis Moriz Pereira (Universidade Nova de Lisboa). Organisiert wird der Workshop von Bipin Indurkhya (Jagiellonian University, Krakau) und Georgi Stojanov (The American University of Paris). Im Programmkomitee sitzen u.a. Peter Asaro (The New School, New York) und Patrick Lin (California Polytechnic State University). Einen der wissenschaftlichen Vorträge wird Oliver Bendel (Hochschule für Wirtschaft FHNW, Basel, Olten und Brugg-Windisch) halten. Aus dem Abstract von „Annotated Decision Trees for Simple Moral Machines„: „This article proposes an approach for creating annotated decision trees, and specifies their central components. The focus is on simple moral machines. The chances of such models are illustrated with the example of a self-driving car that is friendly to humans and animals. Finally the advantages and disadvantages are discussed and conclusions are drawn.“ Weitere Informationen über sites.google.com/site/ethicalnonhumanagents/.

policecar

Abb.: Ein als Polizeiwagen getarntes Roboterauto

Die KI in der Moral

Der Call for Papers zum Workshop ETHICS FOR ARTIFICIAL INTELLIGENCE bei der 25th International Joint Conference on Artificial Intelligence IJCAI-16 sollte Informations-, Maschinen- und Roboterethiker gleichermaßen interessieren. In der Beschreibung heißt es: „Recent progress in various subfields of AI has caused some researchers and pundits to raise concerns about the dangers that AI might ultimately pose. These concerns range from questions about the ethics of delegating to military drones the authority to decide when to attack human targets, up to fears about a possible existential risk posed by AI technologies … Much of the debate surrounding these issues has taken place in a scientific vacuum, uninformed by the experiences and insights of practicing AI researchers. Meanwhile, a wide range of other and sometimes less obvious ethical issues arise from current and proposed use of AI in diverse areas such as medicine, social care, autonomous trading agents and autonomous vehicles.“ (Website Workshop) Zum Ziel des Workshops wird gesagt: „The aim of this workshop is to bring together … AI researchers and others interested in understanding how the discipline of AI should respond to these concerns. The workshop particularly aims to foster an active exchange of ideas between attendees from different disciplinary backgrounds to gain a better understanding of the ethical issues surrounding AI.“ (Website Workshop) Die Konferenz findet vom 9. – 15. Juli 2016 in New York statt. Weitere Informationen über www.cs.ox.ac.uk/efai/call-for-papers/.

Der Lügenbot kommt auf die Welt

An der Hochschule für Wirtschaft FHNW wird ab Frühjahr 2016 im Rahmen einer Abschlussarbeit ein Lügenbot entwickelt. Der betreuende Professor, Dr. Oliver Bendel, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert, etwa „Wenn ein Chatbot zum Lügenbot wird“ (ICTkommunikation), „Können Maschinen lügen? Die Wahrheit über Münchhausen-Maschinen“ (Telepolis) und „Der Lügenbot und andere Münchhausen-Maschinen“ (MittelstandsWiki). In „Robots between the Devil and the Deep Blue Sea“ wurde zudem das sogenannte Lügenbot-Problem vorgestellt, als eines von vier Dilemmata. In den Beiträgen wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man könnte also Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student wird den Chatbot für zwei Szenarien realisieren, den Einsatz im Auftrag der Lebensmittel- und der Tourismusbranche. Bereits 2013 kam der GOODBOT als einfache moralische Maschine auf die Welt. Der Lügenbot könnte als einfache unmoralische Maschine bezeichnet werden, wobei Lügen natürlich nicht per se schlecht ist. Er ist interessant für die Maschinenethik als Gestaltungsdisziplin und für die Informationsethik als Reflexionsdisziplin. Über die Resultate des Projekts wird zur gegebenen Zeit auf maschinenethik.net informiert.

Maedchen_Chatbot

Abb.: Wagt er es, mich anzulügen, der Bot?

Tödliche Entscheidungen

„Wie Roboter über Menschenleben entscheiden“ lautet der Titel eines Artikels von Katrin Haas, der am 25. November 2015 in der Rheinischen Post erschienen ist. Im Teaser wird gesagt: „Ob im Verkehr oder in der Pflege – überall könnten in Zukunft Roboter moralische, manchmal tödliche Entscheidungen treffen.“ „Ich rate von Maschinen ab, die über Leben und Tod entscheiden“, wird der Maschinenethiker Oliver Bendel (Hochschule für Wirtschaft FHNW) zitiert, und er „wirbt dafür, nur einfache moralische Maschinen zu entwickeln“. Seine Forschung konzentriert sich stark auf Begegnungen von Maschinen mit Tieren. Und in diesem Zusammenhang ist er dafür, möglichst viel Leben zu retten. Auch Catrin Misselhorn von der Universität Stuttgart wird zitiert. Auf die Frage, wie lange es noch dauert, „bis Roboter sich um Menschen kümmern“, antwortet sie: „Vor Kurzem hätte ich gesagt, bis das umgesetzt wird, dauert es noch. Aber jetzt im Moment erlebt die Branche einen großen Auftrieb durch die Diskussion um autonom fahrende Autos.“ Die Online-Version des Artikels kann über www.rp-online.de/wirtschaft/wie-roboter-ueber-menschenleben-entscheiden-aid-1.5584750 abgerufen werden.

Nachlese zum Workshop zur Maschinenethik

Im Saal war noch ein gut gelaunter Guildo Horn (Podiumsteilnehmer im Workshop „Wie schreibt man über Menschen mit Behinderungen?“), als die Referenten hereinkamen. Er begrüßte sie mit den Worten: „Jetzt kommen schon die Nächsten – hallo!“ Die Nächsten waren die Referenten des Workshops „Maschinenethik“, nämlich Oliver Bendel („Moral für Maschinen“) und Barbara Lenz („Autonome Autos“). Bendel von der Hochschule für Wirtschaft FHNW eröffnete in fachlicher Hinsicht den Workshop und führte in die derzeit wohl meistdiskutierte Disziplin ein – und gestand, dass ihm die ganze Zeit das Lied „Guildo hat euch lieb“ des von ihm sehr geschätzten Sängers und Aktivisten durch den Kopf gehe. Lenz vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) vertiefte mit dem derzeit wohl meistgenannten Anwendungsbeispiel. Abgesagt hatte Frank Sauer, Universität der Bundeswehr München („Autonome Waffen“). Über eine halbe Stunde erstreckte sich ein lebhaftes Frage-Antwort-Spiel mit dem Moderator Ralf Krauter vom Deutschlandfunk, der den Referenten auch noch die letzten Geheimnisse (die natürlich längst publiziert waren) entlockte. Wie programmiert man moralische Maschinen? Was spricht für regelbasierte, was für fallbasierte Ansätze? Wieviel Autonomie soll der Mensch behalten? Was will die Wirtschaft, was die Wissenschaft? Die anwesenden Journalistinnen und Journalisten geizten anschließend nicht mit Fragen. Im Konferenzhotel Maritim ging es insgesamt trubelig zu im Rahmen der Veranstaltung „Wissenswerte“. In den Workshops redete man sich die Köpfe heiß über „Multimediales Storytelling“, „Science und Fiction“ und „Big Data in der Medizin“. Im Messebereich präsentierten sich die Partnerorganisationen, u.a. die Max-Planck-Gesellschaft, die Fraunhofer-Gesellschaft, die Helmholtz-Gemeinschaft, die Leibniz-Gemeinschaft und der Stifterverband. Am frühen Abend war Dr. Franz Alt im Gespräch mit Lena Ganschow. Danach klang der Abend beim Essen im Friesenhof aus.

Roboter mit Nasen

Beim Swiss ICT Symposium vom 10. bis 11. November 2015 gab es ein breites Spektrum von Vorträgen und Themen. Prof. Dr. Manfred Spitzer (Hirnforscher und Psychiater) und Sascha Lobo (SPON-Kolumnist) unterhielten als Keynoter das Publikum mit gewagten Thesen und anschaulichen Beispielen. Im gut besuchten Track „Internet der Dinge“ referierte Moritz Köhler (Director of Software Engineering, Sensirion AG). „IoT-Geräte und Mobiltelefone verschmelzen zusehends und ermöglichen völlig neue Anwendungen und Geschäftsmodelle.“ (www.swissict.ch) Was wird möglich, so fragte er sich, wenn Telefone immer mehr Kenntnis von ihrer Umwelt haben? Und lieferte „eine Einführung in die Sensorik in Mobiltelefonen und deren Bedeutung“. Smartphones, die Atem-, Stadt- und Raumluft analysieren können, lassen Behörden, Unternehmen und Privatleute aufhorchen. Auch Roboter mit Nasen werden für Staunen sorgen und nicht zuletzt bei der Tier-Maschine-Interaktion von Bedeutung sein. „Moralische Maschinen“ lautete der Titel des Vortrags von Prof. Dr. Oliver Bendel (Professor für Wirtschaftsinformatik und Ethik, Hochschule für Wirtschaft FHNW): „Autos bremsen rechtzeitig vor Menschen ab. Serviceroboter bringen Medikamente und sind nett zu uns. Manche Dinge, Roboter und (teil-)autonome Maschinen werden aber falsche oder interessengeleitete Entscheidungen treffen. Einfache moralische Maschinen könnten eine Lösung sein.“ (www.swissict.ch) Vielleicht entdeckt auch die Maschinenethik die Olfaktorik und lässt Roboter die Gerüche von Menschen analysieren und automatisch die dazu passenden Düfte ausströmen. Die Maschine wird insofern gut, als wir sie gut riechen können. Die Vortragsfolien stehen über www.swissict.ch zur Verfügung.

Tissues

Abb.: Brauchen Roboter bald Taschentücher?

Auto und Ethik bei der IAA in Frankfurt

Das große Thema der IAA war im September 2015 das autonome Auto. Das zeigte sich auch im „IAA Spot – Das offizielle Magazin“. Darin wurden nicht zuletzt Bezüge zur Maschinenethik hergestellt. Der Artikel von Holger Holzer mit dem Titel „Das Autonomie-Dilemma“ beginnt mit den Sätzen: „Unsere Autos werden mit zunehmender Autonomie künftig auch über Leben und Tod von Menschen entscheiden müssen. Doch nach welchen Regeln soll das geschehen? Die Diskussion dazu hat gerade erst begonnen.“ Zu Wort kommen u.a. Daimler-Chef Dieter Zetsche und Maschinenethiker Oliver Bendel. Zetsche „forderte erst kürzlich eine ethische Debatte über Roboterautos und die branchenübergreifende Suche nach einem geeigneten Entscheidungs-Algorithmus“. Bendel ist skeptischer und schlägt vor, die Maschinen in komplexen Situationen, in denen das Weiterleben von Menschen auf dem Spiel steht, nicht selbstständig entscheiden zu lassen. Zudem will er die autonomen Autos in festgelegte Bereiche verbannen. Sven Hötitzsch, Experte für Roboterrecht, beantwortet die Schuldfrage im juristischen Sinne. Der Artikel kann hier abgerufen werden.

Train

Abb.: Immer wieder bemüht wird das Trolley-Problem

Asimov für Autos

In seinem Artikel „Asimowsche Regeln für den Asphaltdschungel: Autonome Fahrzeuge werfen grundlegende ethische Fragen auf“ lässt Hans-Arthur Marsiske verschiedene Experten zu Wort kommen. Der Maschinenethiker Oliver Bendel, Hochschule für Wirtschaft FHNW, schätzt moralische Maschinen, konzipiert sie auch selbst, ist aber der Meinung, dass sie bestimmte Entscheidungen nicht übernehmen sollten, etwa über Leben und Tod von Menschen im Straßenverkehr. Patrick Lin, Philosoph an der California Polytechnic State University, ist der Ansicht, „dass autonome Fahrzeuge bei einem unvermeidlichen Zusammenstoß in der Lage sein sollten, die Kollision zu optimieren, also so zu reagieren, dass der Schaden möglichst gering ausfällt“. Er bezieht Menschen ausdrücklich mit ein; die Maschine wird also darüber urteilen, wer überleben darf und wer sterben muss. Der Jurist Eric Hilgendorf befürchtet grundsätzlich, „dass autonome Fahrzeuge das deutsche Rechtsverständnis unter Druck setzen könnten, da es schwieriger zu programmieren sei als das angelsächsische“. Sowohl Lin als auch Bendel plädieren für eine breite gesellschaftliche Diskussion. Der Beitrag ist am 28. August 2015 im Onlinemagazin Telepolis erschienen und kann über www.heise.de/tp/artikel/45/45810/1.html abgerufen werden. Einen ähnlichen Artikel des selben Autors hat die Zeitung Neues Deutschland am Tag darauf abgedruckt: „Das moralische Auto: Lässt sich die Steuerung autonomer Fahrzeuge so programmieren, dass sie menschlichen Verhaltensregeln folgen?“, verfügbar über www.pressreader.com.

Bully

Abb.: Da war die Welt noch in Ordnung

Tagung „Roboterethik“

Die Tagung „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“ findet am 24. November 2015 in Berlin statt. Veranstalter sind Daimler und Benz Stiftung sowie Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (ceres). Auf der Website heißt es: „Während der eintägigen Veranstaltung soll aus verschiedenen Blickwinkeln beleuchtet werden, wie autonome Systeme unser Leben und unsere Gesellschaft verändern und welche ethischen Spannungsfelder hierdurch in unterschiedlichen Lebensbereichen aufgeworfen werden bzw. zukünftig entstehen können. Neben Ausführungen zu Entwicklungsstand, Eigenschaften und Einsatzmöglichkeiten autonomer Systeme soll deren Einsatz in den Bereichen Gesundheit, Wirtschaft, Politik und Verkehrswesen insbesondere aus ethischer, philosophischer und sozialwissenschaftlicher Perspektive betrachtet werden.“ (Website ceres) Beiträge gibt es u.a. von Prof. Dr.-Ing. Alin Albu-Schäffer, Deutsches Zentrum für Luft- und Raumfahrt, Acting Head of the Institute of Robotics and Mechatronics, Prof. Dr. rer. nat. Jochen Steil, Universität Bielefeld, Managing Director Research Institute for Cognition and Robotics, und Prof. Dr. phil. Catrin Misselhorn, Universität Stuttgart, Direktorin des Instituts für Philosophie und Inhaberin des Lehrstuhls für Wissenschaftstheorie und Technikphilosophie. Prof. Dr. oec. Oliver Bendel, Maschinenethiker und Wirtschaftsinformatiker an der Hochschule für Wirtschaft FHNW, hält den Vortrag „Die Moral in der Maschine“. Weitere Informationen über ceres.uni-koeln.de.

Robotcar

Abb.: Ist das Roboterauto gut oder böse?

Tagung „Autonomes Fahren“

Die Daimler AG lädt zur Tagung „Autonomes Fahren“. Am 23. September 2015 widmet man sich in Frankfurt am Main sowohl Roboterautos als auch selbstständig fahrenden LKW. In der von Dr. Christine Hohmann-Dennhardt (Vorstand für Integrität und Recht der Daimler AG) unterschriebenen Information heißt es: „Wenn aber Autos in Zukunft autonom über unsere Straßen fahren sollen, dann müssen zuvor auch alle rechtlichen, ethischen und gesellschaftspolitischen Fragen beantwortet sein, die sich rund um die Thematik ergeben.“ Es referieren u.a. Prof. Dr. Sabine Gless von der Universität Basel (Ordinaria für Strafrecht und Strafprozessrecht) und Prof. Dr. Ferdinand Dudenhöffer (Automobilexperte). Vor allem aber ist die Politik präsent. Ein Vertreter der Maschinenethik fehlt; diese Lücke vermag die Fachtagung „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“ zu schließen, die am 24. November in Berlin stattfindet und die von der Daimler und Benz Stiftung und dem Cologne Center for Ethics, Rights, Economics, and Social Sciences of Health (ceres) getragen wird.

mercedes_skizze

Abb.: Wohin steuert Daimler?

Vortrag „Moralische Maschinen“

Zum Swiss ICT Symposium – seit „35 Jahren der Treff von IT-Entscheidern und Managern“ (Website swissict.ch) – ist das Programm erschienen. Bei der  Durchführung im Herbst 2015 geht es um technische und wirtschaftliche Innovationen, u.a. um den digitalisierten Kunden, das Internet der Dinge, Cloud Computing und Big Data. Keynote-Speaker sind Sascha Lobo und Sven Gabor Janszky. Referate zum Internet der Dinge werden von Moritz Köhler (Director of Software Engineering, Sensirion AG), Hanspeter Kipfer (Vice President Technology Sales & Country Leader, Oracle Switzerland) und Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) – er spricht über Maschinenethik bzw. über moralische Maschinen und stellt neueste Forschungsergebnisse vor – bestritten. Die Veranstaltung findet am 11. und 12. November 2015 im Kultur- und Kongresszentrum Luzern statt. Die Anmeldung ist über www.swissict.ch möglich.

Auge

Abb.: Der Roboter schaut dich an

Kann man Robotern Moral beibringen?

„Kann man Robotern Moral beibringen?“ Zu dieser Frage ist Liane von Billerbeck vom Deutschlandradio Kultur im Gespräch mit Janina Sombetzki, Philosophin an der Christian-Albrechts-Universität Kiel. Anlass ist deren Vortrag beim Internationalen Festival der Philosophie phil.COLOGNE im Mai 2015. Im Gespräch geht es u.a. um Serviceroboter und spezieller um Pflegeroboter. Von Billerbeck führt an einer Stelle aus: „Da ist ein Roboter im Haushalt eines pflegebedürftigen Menschen, um ihr oder ihm Hilfe zu leisten, das Leben zu erleichtern. Er ist auf bestimmte Arbeiten programmiert, jemanden füttern beispielsweise. Was aber, wenn der Betreute nicht mehr essen will und der Roboter aber sein Programm durchzieht?“ (Deutschlandradio, 27. Mai 2015) Auch Grundsätzliches wird erörtert, etwa die Frage der Autonomie. Die Philosophin plädiert für einen Begriff „im starken Sinne“: „Autonomie ist überall dort, wo wir unserem Handeln Gründe setzen. Bei Menschen ist das relativ einfach, da sagt man: wie kommen wir zu unseren guten Gründen? Durch Erziehung beispielsweise, durch Bildung, durch Kommunikation. Und bei Maschinen müssten wir dann sagen: Die guten Gründe stellen sozusagen die Programmierung dar.“ (Deutschlandradio, 27. Mai 2015) Das ganze Interview ist nachzuhören und nachzulesen über www.deutschlandradiokultur.de.

Brauchen Maschinen eine Moral?

Brauchen Maschinen eine Moral? Zu diesem Thema führte der Hessische Rundfunk am 23. April 2015 ein Interview mit dem Maschinenethiker und Wirtschaftsinformatiker Oliver Bendel. Gesprochen wurde im Studio in Zürich (SRF) bzw. Frankfurt über selbstständig fahrende Autos, aber auch über tierfreundliche Staubsauger. Moralisieren – so der Sprachgebrauch des Vertreters der relativ neuen Disziplin – kann man unterschiedliche Maschinen. Insbesondere einfache sind geeignet, und aus ihnen kann man einfache moralische Maschinen machen. Sie werden sozusagen etwas klüger und etwas besser auch im moralischen Sinne. Oliver Bendel ist in seiner Forschung bereits ganz konkret und praktisch geworden. Er hat annotierte Entscheidungsbäume entwickelt und stellt diese im Herbst 2015 auf einer Wirtschaftsinformatikkonferenz in Luzern vor. Der Beitrag im Hessischen Rundfunk wird voraussichtlich im September 2015 ausgestrahlt. Weitere Informationen folgen.

Entscheidungsbäume für moralische Maschinen

Immer mehr teilautonome und autonome Maschinen müssen Entscheidungen treffen, die moralische Implikationen haben. Die Maschinenethik, die als Pendant zur Menschenethik aufgefasst werden kann, untersucht Möglichkeiten und Grenzen moralischer Maschinen. Oliver Bendel hat seit 2014 diverse Designstudien erarbeitet und damit Vorschläge für Aussehen und Funktionen unterbreitet. Noch wenig benutzt werden Entscheidungsbäume zur Konzeption von moralischen Maschinen. Ein neuer Beitrag von Oliver Bendel konzentriert sich auf einfache moralische Maschinen, die tierfreundlich sein sollen, und es wird für jede ausgewählte Aufgabe ein annotierter Entscheidungsbaum modelliert. Beispielsweise wird dargestellt, welche Bremsungen ein Roboterauto für wen durchführen soll. Der Beitrag erscheint nach endgültiger Annahme durch den Arbeitskreis Wirtschaftsinformatik (AKWI) im Herbst dieses Jahres. Tagungs- und Erscheinungsort ist Luzern.

Baum

Abb.: Kein Entscheidungsbaum