„Am 25. Juli 2023 flog das experimentelle unbemannte Luftfahrzeug XQ-58A Valkyrie der US-Airforce drei Stunden lang über dem Eglin Test and Training Complex in Florida unter der Führung eines Systems der künstlichen Intelligenz.“ (Golem, 12. August 2023) Dies meldete Golem am 12. August 2023. Der Redakteur Andreas Donath führte weiter aus: „Auch wenn der autonome Testflug einen großen Schritt nach vorn bedeutet, gibt es noch einige Herausforderungen, bevor KI-gesteuerte Drohnen im Kampf eingesetzt werden können. Die künstliche Intelligenz muss ein Situationsbewusstsein, ein Urteilsvermögen und Entscheidungsfähigkeiten zeigen, die mit denen menschlicher Piloten vergleichbar oder sogar besser sind.“ (Golem, 12. August 2023) Und betonte: „In dem Maße, wie die Technologie voranschreitet, werden auch die rechtlichen und ethischen Bedenken im Zusammenhang mit autonomen Waffen wahrscheinlich zunehmen.“ (Golem, 12. August 2023) Zu den ethischen Fragen haben in den letzten 15 Jahren Forscher wie Peter Asaro, Ron Arkin, Catrin Misselhorn und Oliver Bendel gearbeitet. Peter Asaro engagierte sich neben seiner wissenschaftlichen Arbeit früh gegen „Killer Robots“. Ron Arkin entwarf unter Finanzierung des Pentagon militärische Prototypen mit einem „künstlichen Gewissen“. Ron Arkin und Oliver Bendel diskutierten auf einem Panel in Krakau zur Frage, ob man betrügerische Maschinen bauen darf. Oliver Bendel schrieb für das Gabler Wirtschaftslexikon die Erklärung zu Kampfrobotern. Catrin Misselhorn veröffentlichte den Beitrag „Autonome Waffensysteme/Kriegsroboter“ im „Handbuch Maschinenethik“ (Hrsg. Oliver Bendel).
Abb.: Eine Vision der Zukunft kriegerischer Auseinandersetzungen
Seit März 2023 wird im Auftrag von Prof. Dr. Oliver Bendel der Chatbot @llegra für das rätoromanische Idiom Vallader entwickelt, das im Unterengadin zwischen Martina im Nordosten und Zernez im Südwesten sowie im Val Müstair auftritt und gefährdet ist. Der Entwickler Dalil Jabou hat auf das Sprachmodell GPT-4 gesetzt und alle wesentlichen technischen Probleme gelöst. Der Benutzer kann Text in Englisch, Deutsch oder Rätoromanisch eintippen und bekommt Text in Vallader ausgegeben. Zudem spricht @llegra das Idiom mit Hilfe eines Text-to-Speech-Systems der Firma SlowSoft aus Zürich. Ein kleiner Test mit einem Experten fand bereits statt und führte zu einer ersten Verbesserung. Oliver Bendel war am 9. Juli mit @llegra im Unterengadin unterwegs und suchte nach einer Testperson mit Vallader als Muttersprache. In Tarasp Fontana bei Scuol sprach er mehrere ältere Frauen an. Eine verwies auf eine Dame von vielleicht 78 Jahren, die sich in der Nähe befand und gerade vom Nordic Walking kam. Die Vallader-Sprecherin hörte sich die Antwort des Chatbots auf eine Frage zu Tarasp an und begann ungefragt, das Gesprochene ins Deutsche zu übersetzen. Dann wurde @llegra gefragt, ob sie Scuol kennt. Sie gab wiederum in Vallader eine längere Auskunft. Die ältere Dame bestätigte, dass die Aussprache gut und der Inhalt verständlich ist. Sie begann zu strahlen und fragte, ob es sich um künstliche Intelligenz handle. Oliver Bendel bestätigte dies, strahlte ebenfalls, fuhr weiter und ließ sich von @llegra in Scuol noch Informationen zum dortigen Museum d’Engiadina Bassa geben. Das Projekt wird im August 2023 abgeschlossen. Die Ergebnisse werden danach veröffentlicht.
Am 20. Juni 2023 hält Prof. Dr. Oliver Bendel einen Onlinevortrag für LeLa, das Lernlabor Hochschuldidaktik für Digital Skills, ein Kooperationsprojekt der fünf Zürcher Hochschulen ETH Zürich, PHZH, UZH, ZHAW und ZHdK. „Ethische Implikationen generativer KI“ sind das Thema. Zunächst klärt der Technikphilosoph den Begriff der generativen KI (engl. „generative AI“). Dann stellt er aus Sicht von Informations- und Maschinenethik verschiedene Überlegungen zu diesem Bereich an, wobei er vor allem auf ChatGPT fokussiert. So ist die Frage, woher die Daten für das zugrunde liegende Sprachmodell kommen und unter welchen Bedingungen das Reinforcement Learning from Human Feedback abläuft. Zudem dürfte relevant sein, welche Daten man beim Prompt preisgibt und welche Prompts auf welche Art und Weise zurückgewiesen werden. Ein weiteres Problemfeld ist das Halluzinieren der Sprachmodelle bzw. der darauf basierenden Anwendungen. Diese verdrehen Fakten und erfinden Referenzen. Mit Visual ChatGPT soll man über Texteingaben Bilder generieren und dann einzelne Elemente editieren können. Solche und andere Bildgeneratoren wie DALL-E, Stable Diffusion und Midjourney werfen wiederum zahlreiche ethische Fragen auf, auch mit Blick auf den Kunstbereich. GPT-3 und GPT-4 bzw. ChatGPT sind nicht nur für bzw. als Chatbots und Contentgeneratoren relevant, sondern auch für Industrie- und Serviceroboter. In diesem Bereich hat indes vor allem das Sprachmodell PaLM-E Aufmerksamkeit erregt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Dabei sind wiederum Herausforderungen vorhanden, etwa mit Blick auf Verlässlichkeit und Haftung. Weitere Informationen zur Reihe „AI or what the ChatGPT“ über dizh.ch/event/was-sind-die-ethische-implikationen-generativer-ki/.
Am 26. Mai 2023 ist Heft 4/2023 der Zeitschrift messtec drives Automation erschienen. Darin enthalten ist der Beitrag „Die Mächtigkeit von Sprachmodellen“ von Prof. Dr. Oliver Bendel. Er geht auf Anwendungen ein, die man noch wenig kennt, die aber relevant sein werden für Service- und Industrieroboter und für Brain-Computer-Interfaces. In diesem Bereich hat vor allem das Sprachmodell PaLM-E für Aufmerksamkeit gesorgt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität miteinander verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Aber nicht nur Google und TU Berlin forschen auf diesem Gebiet – in dem Paper „ChatGPT for Robotics“ hat auch Microsoft erste Ergebnisse vorgestellt. Sprachmodelle mit solchen Wahrnehmungs- und Steuerungsmöglichkeiten wären interessant für Lio und Optimus oder für soziale Roboter im Bildungsbereich, die nicht nur kommunizieren, sondern in vielfältiger Weise interagieren. Wichtig ist, dass den Fähigkeiten bei der Wahrnehmung und Steuerung entsprechende Fähigkeiten der Motorik gegenüberstehen. Der Zweiseiter kann über www.wileyindustrynews.com/messtec-drives-automation/messtec-drives-automation-04-23 heruntergeladen werden.
Die Shift, eine Tagung zu Fragen von Informations-, Roboter- und KI-Ethik, fand am 20. April 2023 zum fünften Mal statt. Initiatorin und Organisatorin ist Cornelia Diethelm. Moderatorin war wieder Patrizia Laeri. Die Keynote hielt Prof. Dr. Oliver Bendel aus Zürich. Das Video dazu ist am 19. Mai 2023 erschienen. Oliver Bendel ging zunächst auf soziale Roboter ein und auf die Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein. Dann beschrieb er mehrere soziale Roboter, die auch als Serviceroboter im engeren Sinne eingesetzt werden. Auf dieser empirischen Basis stellte er ethische Überlegungen an. Am Ende behandelte er Sprachmodelle wie GPT-3 bzw. GPT-4 und PaLM-E. Er zeigte, wie soziale Roboter und Serviceroboter von diesen profitieren können, in ihrer Sprachfähigkeit und bei ihrer Wahrnehmung der Welt. Auch Ansätze der Maschinenethik waren ein Thema, von der Einpflanzung moralischer Regeln bis hin zur Nutzung von Moralmenüs. Das Video kann hier aufgerufen werden.
Abb.: So stellt sich DALL-E einen humanoiden weiblichen Roboter vor
„Inspirierend anders“, der Podcast von Luca Beutel, ging vor kurzem in die Forschung. Für die ersten beiden Folgen hat der Mann mit dem Schnäuzer mit Prof. Dr. Oliver Bendel gesprochen. Der Technikphilosoph lebt in Zürich und arbeitet an mehreren Hochschulen der FHNW. Die erste Folge, ausgestrahlt seit dem 2. Mai 2023, heißt „#165 IAF – Die ultimative Maschine: Wie Robotik die Grenzen der Menschheit erweitert“. Oliver Bendel stellt darin die Grundlagen der Robotik dar und bringt diese in einen Zusammenhang mit der Künstlichen Intelligenz (KI). Ursprünglich wurden deren Gegenstände zusammengedacht. Dann haben sie sich aber getrennt entwickelt. Nun wachsen Roboter und KI-Systeme immer mehr zusammen. Am 9. Mai 2023 erschien die zweite Folge mit dem Titel „#167 IAF – Menschliche Bedürfnisse, robotische Lösungen: Die Zukunft der menschenähnlichen Roboter“. Darin geht es u.a. um ethische und ästhetische Fragen, die sich zu sozialen Robotern wie Pflegerobotern und Sexrobotern stellen. Auch die zweite Folge kann u.a. über Spotify aufgerufen werden.
Abb.: So stellt sich DALL-E einen humanoiden Roboter vor
In der c’t 11/2023 ist der Artikel „Virtuelle Freunde? KI-Chatbots leisten Gesellschaft und wecken einseitige Gefühle“ erschienen. Arne Grävemeyer geht auf fünf Seiten auf das Thema ein. Befragt hat er dazu Prof. Dr. Oliver Bendel. Eine Frage war, ob solche Programme und Figuren – die Emotionen zeigen (ohne sie zu haben) und hervorrufen – sich als solche offenbaren sollten. Seine Antwort: „Aus ethischer Sicht würde ich das fordern. Man sollte wissen, ob man mit Menschen oder Maschinen kommuniziert. Unsere eigenen Emotionen sind ein wertvolles Gut. Wir entwickeln sie fast automatisch, wenn wir auf menschenähnliche Entitäten stoßen. Wir haben aber die Möglichkeit, die Emotionen zu begrenzen, wenn wir wissen, dass es sich um Programme und Maschinen handelt. Dazu gehört, dass wir diese abstellen und nicht ständig an sie denken, wenn sie nicht bei uns sind. Auch unsere Zeit ist ein kostbares Gut. Wir sollten selbst entscheiden, mit wem oder was wir sie verbringen.“ (c’t, 11/2023) Insgesamt wurden schriftlich und telefonisch etliche Fragen gestellt. Einige Antworten sind in den Artikel eingeflossen, der seit 5. Mai 2023 erhältlich ist.
„Manche Menschen gehen bereits romantische Beziehungen mit Chatbots ein. Künstliche Intelligenz simuliert Zuneigung und Trost. Kann man Gefühle einfach so programmieren?“ (Tagesspiegel, 3. Mai 2023) Dies fragt Max Tholl in einem Essay mit dem Titel „Wenn die KI den Partner ersetzt: Können Maschinen uns lieben?“ vom 3. Mai 2023. Zu Wort kommt mehrmals Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert über Chatbots, Sprachassistenten und soziale Roboter schreibt und forscht. Er nähert sich dem Gegenstand mit einem Rückblick: „Innige Beziehungen zwischen Menschen und künstlichen Kreaturen haben eine lange Tradition in der Ideengeschichte, sagt der Philosoph und Wirtschaftsinformatiker Oliver Bendel. Sie finden sich schon in den mythologischen Erzählungen von Homer oder Ovid, später dann als Motiv in Science-Fiction-Geschichten.“ (Tagesspiegel, 3. Mai 2023) Der ganze Beitrag ist im Tagesspiegel hinter der Bezahlschranke zu finden und wird auch noch in der gedruckten Ausgabe erscheinen.
Am 26. Mai 2023 hält Prof. Dr. Oliver Bendel einen Gastvortrag beim scil-Modul „Dialogorientierte Lern- und Assistenzsysteme“ an der Universität St. Gallen. Er stellt aus Sicht von Informations- und Maschinenethik verschiedene Überlegungen zu ChatGPT an. Zunächst ist die Frage, woher die Daten für das zugrunde liegende Sprachmodell kommen und unter welchen Bedingungen das Reinforcement Learning from Human Feedback abläuft. Zudem dürfte relevant sein, welche Daten man beim Prompt preisgibt und welche Prompts auf welche Art und Weise zurückgewiesen werden. Ein weiteres Problemfeld ist das Halluzinieren der Sprachmodelle bzw. der darauf basierenden Anwendungen. Diese verdrehen Fakten und erfinden Referenzen. Nicht zuletzt ergeben sich für zahlreiche Anwendungsfelder wie Aus- und Weiterbildung besondere Herausforderungen … Mit Visual ChatGPT soll man man über Texteingaben Bilder generieren und dann einzelne Elemente editieren können. Solche und andere Bildgeneratoren wie DALL-E, Stable Diffusion und Midjourney werfen wiederum zahlreiche ethische Fragen auf. GPT-3 und GPT-4 bzw. ChatGPT sind nicht nur für bzw. als Chatbots und Contentgeneratoren relevant, sondern auch für Industrie- und Serviceroboter. In diesem Bereich hat indes vor allem das Sprachmodell PaLM-E Aufmerksamkeit erregt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Dabei sind wiederum Herausforderungen vorhanden, etwa mit Blick auf Verlässlichkeit und Haftung. Oliver Bendel hat vor einem Vierteljahrhundert an der Universität St. Gallen gearbeitet – als Leiter des CC E-Learning – und geforscht, zu Conversational Agents und Embodied Conversational Agents in Lernumgebungen, sogenannten Pedagogical Agents. Weitere Informationen zum scil über www.scil.ch.
„Oliver Bendel antwortet im März auf eine Interviewanfrage aus San Francisco. Der Informationsethiker ist auf dem Weg an ein Symposium, wo er über Umarmungsroboter und Barroboter referieren wird. Vor einigen Jahren hat er an derselben Veranstaltung der renommierten Association for the Advancement of Artificial Intelligence (AAAI) annotierte Entscheidungsbäume für moralische Maschinen vorgestellt. Wenn sich Bendel nicht gerade auf einer seiner vielen wissenschaftlichen Reisen befindet, forscht er in beschaulicher Umgebung: Seit 2009 bekleidet der 55-Jährige eine Professur für Informationsethik, Maschinenethik und Soziale Robotik an der Fachhochschule Nordwestschweiz (FHNW) in Brugg-Windisch.“ (Inside IT, 24. April 2023) Mit diesen Worten beginnt ein Artikel von Thomas Schwandener, der am 24. April 2023 in Inside IT erschienen ist. Weiter heißt es: „In seiner Arbeit geht es um das Zusammenleben von sozialen Robotern und Menschen, um die Potenziale künstlicher Intelligenz, aber auch um ethische Folgefragen. Bendel ist eine Autorität auf seinem Gebiet. Er hat mehrere Standardwerke verfasst, spricht an internationalen Fachtagungen und trat mehrfach vor dem Deutschen Bundestag als Sachverständiger auf.“ (Inside IT, 24. April 2023) Es folgt ein längeres Interview, das am Rande der Shift geführt wurde. Darin weist der Informations- und Maschinenethiker auf die tiefe Kluft zwischen Menschen und Maschinen hin. Der ganze Artikel kann hier aufgerufen werden.
„Die Shift ist eine exklusive Plattform zur Digitalen Ethik. Was begeistert uns bei neuartigen Angeboten, die dank Big Data, Künstlicher Intelligenz & Co. möglich sind? Was akzeptieren Kundinnen und Kunden sowie die Gesellschaft, was nicht? Und wo sind Grenzen nötig? Diese Fragen stehen im Zentrum der Shift. Es geht um aktuelle Kundenerwartungen sowie Akzeptanz und Vertrauen im digitalen Raum.“ (Website Shift) So steht es auf der Website der Tagung, die 2023 bereits in die fünfte Runde geht. Die Keynote hält Prof. Dr. Oliver Bendel aus Zürich. Er geht zunächst auf soziale Roboter ein und auf die Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein. Dann beschreibt er mehrere soziale Roboter, die auch als Serviceroboter im engeren Sinne eingesetzt werden. Auf dieser empirischen Basis stellt er ethische Überlegungen an. Am Ende behandelt er Sprachmodelle wie GPT-3 bzw. GPT-4 und PaLM-E. Er zeigt, wie soziale Roboter von diesen profitieren können, in ihrer Sprachfähigkeit und bei ihrer Wahrnehmung der Welt. Auch Ansätze der Maschinenethik sind ein Thema, von der Einpflanzung moralischer Regeln bis hin zur Nutzung von Moralmenüs. Weitere Informationen zur Shift über digitalresponsibility.ch/digitaleethikkonferenz/ …
Abb.: So stellt sich DALL-E einen humanoiden Roboter vor
Forscher von Google und der TU Berlin haben am 6. März 2023 ein verkörpertes, multimodales Sprachmodell mit dem Namen PaLM-E vorgestellt, das virtuelle und physische Welt verbindet. So kann man per Spracheingabe einen Haushaltsroboter steuern und ihn dazu bringen, bestimmte Gegenstände zu holen oder andere Tätigkeiten zu verrichten. Der Prompt kann dabei vom Benutzer spontan aus seiner eigenen Beobachtung der Umwelt abgeleitet werden. Die Idee der PaLM-E-Architektur besteht laut Projektwebsite darin, kontinuierliche, verkörperte Beobachtungen wie Bilder, Zustandseinschätzungen oder andere Sensormodalitäten in den Spracheinbettungsraum eines vortrainierten Sprachmodells zu integrieren. Im Beispielvideo lautet die Instruktion in deutscher Übersetzung: „Bring mir die Reischips aus der Schublade“. Golem schreibt in einem Artikel: „Dazu analysiert Palm-E die Daten der Roboterkamera, ohne dass eine vorverarbeitete Szenendarstellung erforderlich ist. Damit entfällt die Notwendigkeit, dass ein Mensch die Daten vorverarbeitet oder kommentiert, was eine autonomere Robotersteuerung ermöglicht.“ (Golem, 10. März 2023) Im Video fährt der Roboter – ein Roboterarm auf einer mobilen Plattform, ganz ähnlich wie Lio – zur Schublade und entnimmt ihr die Packung. In dem Paper „ChatGPT for Robotics: Design Principles and Model Abilities“ von Microsoft-Forschern wird eine ähnliche Strategie verfolgt, wobei ChatGPT verwendet wird, das wiederum auf GPT-3 basiert. Das Paper zu PaLM-E kann hier heruntergeladen werden.
Abb.: Über Sprachmodelle kann man Roboterarme steuern
„Generative KI (‚KI‘ steht für ‚künstliche Intelligenz‘) ist ein Sammelbegriff für KI-basierte Systeme, mit denen auf scheinbar professionelle und kreative Weise alle möglichen Ergebnisse produziert werden können, etwa Bilder, Video, Audio, Text, Code, 3D-Modelle und Simulationen. Menschliche Fertigkeiten sollen erreicht oder übertroffen werden. Generative KI kann Schüler, Studenten, Lehrkräfte, Büromitarbeiter, Politiker, Künstler und Wissenschaftler unterstützen und Bestandteil von komplexeren Systemen sein. Man spricht auch, dem englischen Wort folgend, von Generative AI, wobei ‚AI‘ die Abkürzung für ‚Artificial Intelligence‘ ist.“ Mit diesen Worten beginnt ein Beitrag, der am 22. Februar 2023 im Gabler Wirtschaftslexikon erschienen ist. Es werden Informationen zu Entwicklung und Hintergrund sowie einige Beispiele für Anwendungen gegeben. Am Ende wird die Perspektive der Ethik eingenommen, unter besonderer Berücksichtigung der Informationsethik. Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/generative-ki-124952 abgerufen werden.
Adrian Lobe stellte einige Fragen an Oliver Bendel, die sich auf Generative AI bezogen. Im Fokus waren KI-basierte Bildgeneratoren, die inzwischen fotorealistische Abbildungen erschaffen können. Solche legte der Journalist dem in Zürich lebenden Professor vor und wollte von ihm wissen, wie er diese Retortenmenschen aus ethischer Sicht bewertet. Die Antwort begann mit den folgenden Worten: „Es spricht zunächst nichts dagegen, mit Hilfe von KI-basierten Bildgeneratoren fiktive Frauen und Männer zu erschaffen, also Avatare oder Hologramme. Man schadet niemandem, wenn die Bilder auf dem Bildschirm oder in einem Gerät erscheinen. Problematischer sind Deep Fakes, die reale Personen teilweise oder gesamthaft abbilden. Sie können die Menschenwürde verletzen, vor allem bei sexuellen Darstellungen. Aus ästhetischer Sicht ist es interessant, Menschen auf die Welt zu bringen, die man selbst schön findet, die man aber weder in den Medien noch im Alltag antrifft. Es wird ein Mensch gemacht, hat Wagner in ‚Faust II‘ ausgerufen, als Mephistopheles zu ihm getreten ist. Allerdings war es nur ein kleiner Homunkulus. Nun kann man seinen Traum verwirklichen und eine realistische Figur nach seinen Wünschen kreieren. Das ist auch aus ethischer Sicht relevant – denn es kann zu einem guten, erfüllten Leben beitragen. Vielleicht werden einem bestimmte Wünsche auch erst klar. Man versteht besser, was man will und was man nicht will, was man schön findet und was nicht. Man lernt sich besser kennen und kann auch anderen mitteilen, was man will und schön findet. Nur werden sich nicht alle Wünsche erfüllen lassen. Und eine Partnerschaft ist auch kein Wunschkonzert.“ Es folgten durchaus kritische Anmerkungen zur Praxis des Bildergenerierens sowie weitere Antworten auf weitere Fragen. Einzelne Statements wurden in den Artikel „Sieht unheimlich echt aus!“ (auch: „Unheimlich echt!“) übernommen, der am 27. Februar 2023 in ca. 20 Schweizer Zeitungen erschienen ist, etwa in der Aargauer Zeitung, in der Luzerner Zeitung und im St. Galler Tagblatt, und auf den in der Folge etwa bei 20 Minuten Bezug genommen wurde.
„Was sollte Ihrer Einschätzung nach zum Thema ‚Bewusste Künstliche Intelligenz‘ diskutiert werden, geschehen oder unterbleiben? Welche Forschungsansätze und Narrative gehören weiterentwickelt, aufgelöst und ersetzt, welche Irrwege endlich beendet, und welche Ansätze und Nischen sollten deutlich mehr Aufmerksamkeit erhalten? Aus welchen Gründen wird derzeit überhaupt über Künstliches Bewusstsein gesprochen, und was halten Sie für vielversprechend, möchte man ‚Bewusstsein‘ künstlich bewirken?“ Diese Fragen stellte Ende 2020 das KIT – Karlsruher Institut für Technologie verschiedenen Experten auf dem Gebiet. Oliver Bendel reichte im Frühjahr 2021 den Beitrag „Soziale Roboter und ihr Sprung in die Zukunft“ ein. Er stellte die drei Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein (Künstliches Bewusstsein) in einen Zusammenhang und klärte, welchen Gegenstand sie jeweils haben und welchen Ursprung oder welches Vorbild dieser wiederum hat. Dann zeigte er auf, wie die Soziale Robotik die drei Disziplinen einbezieht und ausnutzt. Der Band soll 2023 bei KIT Scientific Publishing unter dem Titel „Künstliche Intelligenz und Bewusstsein – Statements 2021“ erscheinen. Der Beitrag kann hier als Preprint heruntergeladen werden.
Stephanie Schnydrig von CH Media war im Gespräch mit Oliver Bendel und fragte u.a., wie ChatGPT und Co. unsere Art, Dinge im Internet zu suchen, verändern werden. Die Antwort des Wirtschaftsinformatikers und Technikphilosophen lautete: „Die Benutzer erhalten nicht nur eine Liste mit Websites, sondern auch eine Antwort in natürlicher Sprache bzw. einen fertigen Text. So kann man bei Bing – in das ChatGPT integriert ist – nach einem Rezept für ein Drei-Gänge-Menü für sechs Personen fragen, die sich vegetarisch ernähren. Bing schlägt nicht nur das Drei-Gänge-Menü vor, sondern erlaubt auch gezielte Nachfragen zur Zubereitung. Die Benutzer müssen nicht hunderte von Rezepten vergleichen und bewerten. Ihr Aufwand reduziert sich. Zugleich stellt sich die Frage, ob das Rezept wirklich etwas taugt. Aus welchen Quellen stammt es? Und sind wirklich alle Gänge vegetarisch? Wen kann ich zur Verantwortung ziehen, wenn etwas schiefgeht? Zum Teil können die Systeme die Quellen nennen, zum Teil aber auch nicht – Machine Learning verwischt sozusagen die Herkunft ein Stück weit. Vermutlich werden wir, sofern die Systeme gesprochene Sprache beherrschen, viel mehr mit Suchmaschinen sprechen als früher. Die Ausgaben taugen grundsätzlich zum Dialog, und die Systeme finden auf fast alles eine Antwort. Ich konnte schon vor Jahren Google Assistant fragen, wer Rihanna ist. Der Sprachassistent hat die Antwort auf Wikipedia gefunden und vorgelesen. Heute bedient sich ein Tool aus tausenden Quellen und variiert die Antwort. Man hat ganz andere Möglichkeiten.“ Es wurden weitere Fragen gestellt und Antworten gegeben. Die eine oder andere Aussage wurde im Artikel „Bingen wir bald, anstatt zu googeln?“ verwendet, der am 9. Februar 2023 in der Luzerner Zeitung und verschiedenen anderen Schweizer Zeitungen erschienen ist.