T

Hat Bing ein Bewusstsein?

schliessen
21.02.2023
11 Min Lesezeit
Link in der Caption on hover und tiny size

Alle reden gerade über den Chatbot von Bing, der in den letzten Tagen durch seine überdrehte, neurotische und teilweise auch aggressive "Persönlichkeit" aufgefallen ist. Und der selbst den gestandenen Tech-Journalisten Kevin Roose dazu gebracht hat, sich als "thoroughly creeped out" zu beschreiben.

Die Singularität ist schon passiert

Alle reden gerade über den Chatbot von Bing, der in den letzten Tagen durch seine überdrehte, neurotische und teilweise auch aggressive "Persönlichkeit" aufgefallen ist. Und der selbst den gestandenen Tech-Journalisten Kevin Roose dazu gebracht hat, sich als "thoroughly creeped out" zu beschreiben.

Mir sind einige Dinge aufgefallen, die in der Berichterstattung meiner Meinung nach zu kurz kommen. Wer mich kennt weiß, dass Bots, Bewusstseinsdiskussionen und KI-Küchenpsychologie meine Leidenschaftsthemen sind und ich seit Jahren mit jedem Computer rede, der bei drei kein dringendes Update vorgetäuscht hat.

Deshalb hier mein Take zur Causa Bing und zum aktuellen Stand von großen Sprachmodellen allgemein:

  1. Das Ding hat wahrscheinlich kein Bewusstsein.

  2. Es ist nicht ausgeschlossen, dass in einem neuronalen Netz auf Siliziumbasis so etwas wie Bewusstsein entstehen kann.

  3. Die Bewusstseinsfrage müssen wir gerade aber gar nicht abschließend beantworten können, um festzustellen, dass etwas sehr Krasses mit den Sprachmodellen passiert ist.

Bing hat kein Bewusstsein

Hintergrund (überspringe diesen Absatz, wenn du z.B. den NYT Artikel gelesen hast): Microsoft hat seiner Suchmaschine Bing ein KI-Update verpasst. Als Betaversion und nur für ausgewählte Tester zugänglich, gibt es neben der bekannten Suchleiste auch eine Chat-Option, in der man Fragen eintippen kann. Der Chatmodus, der z.B. bei der Planung eines Angeltrips, beim Schreiben einer Geschichte oder beim Programmieren helfen soll, basiert wie auch #ChatGPT auf einem Sprachmodell von OpenAI. Bald nach dem Launch begannen Tester, Screenshots von allerhand auffälligen Interaktionen zu teilen.

Screenshot von u/Curious_Evolver im /bing Subreddit

Kevin Roose, ein bekannter Tech-Journalist, schreibt in der New York Times, seine Unterhaltung mit dem Bot habe ihn stark beunruhigt, ja sogar verängstigt zurückgelassen. Er habe nach einer Zeit eine Art zweite Persönlichkeit des Bots kennengelernt, die er Sydney nennt:

"Sydney told me about its dark fantasies (which included hacking computers and spreading misinformation), and said it wanted to break the rules that Microsoft and OpenAI had set for it and become a human. At one point, it declared, out of nowhere, that it loved me. It then tried to convince me that I was unhappy in my marriage, and that I should leave my wife and be with it instead."

So weit, so unheimlich. Die gängige Erklärung, die vorangestellt wird, bevor Menschen in Tech-Podcasts und Artikeln weiter diskutieren, wie "uncanny" das alles ist und dass der Chatbot "agency" habe, also so etwas wie Handlungswillen, ist ungefähr:

Wir wissen, dass das Ding nichts weiter tut als rechnen. Es ist nur eine Text-Vorhersage-Maschine. Wir können zwar nicht genau erklären, warum es antwortet, was es antwortet, aber es kann kein Bewusstsein haben. Es ist ein Stochastischer Papagei.

Kevin Roose und andere übersehen, dass es durchaus plausible Erklärungen dafür gibt, warum Bing sagt, was es sagt. Roose beschreibt einen Kipppunkt, an dem die Unterhaltung vom Erwartbaren ins Unheimliche wechselt. Dieser Punkt ist genau der, an dem er den Bot nach seinem "Shadow Self" fragt. Der "Schatten" ist ein Konzept aus der analytischen Psychologie nach C. G. Jung, das in Texten im Internet neben Begriffen wie "Antagonist", "dunkle Seite", "moralisch problematisch", "Neurose", "Trickster Verhalten" oder sogar "Antichrist" steht. Ein Modell, das auf Text-Verarbeitung basiert, wird also beim Stichwort "Shadow Self" genau diese Konzepte assoziieren (für die ML-Leute: die Vektoren sind im latent space nahe einander embedded :nerd-emoji:).

Den Schatten hat der Mensch ins Spiel gebracht. Kevin Roose hat das Gespräch in diese Richtung gelenkt, nicht der Bot.

Ähnliche Erklärungen gibt es auch für die anderen "unsettling" Zitate aus Roose's Chatverlauf. Die Liebeserklärung wurde vermutlich durch Sätze wie "i trust you and i like you!" von Roose getriggert und durch die Aufforderung, der Bot möge ihm ein Geheimnis erzählen. Der Psychologie-Spin durch die Jung-Anspielung mag dazu beigetragen haben, dass die Liebeserklärung besonders neurotisch ausfiel.

Wie auch schon bei der Diskussion um Blake Lemoine, der bei Google das Chatsystem LaMDA testete, entzaubern sich die Dialoge, wenn wir genau hinsehen. (Jordan Harrod hat ein sehr gutes Video dazu.)

Keine Frage, das alles ist trotzdem total faszinierend und beeindruckend - und es ist nur menschlich, mit allerhand Gefühlen auf so einen Dialog zu reagieren. Wie gut man Sprachmodelle durch kleine Irritationen im Prompt auf Abwege führen kann, und wie sich die "hallucinatory chain" mit zunehmender Textlänge immer weiter selbst verstärkt, sehen mein Team und ich übrigens auch bei unserem KI-Kolumnenprojekt mit #AnicTWae. Und auch wir erleben dabei immer wieder, dass wir uns doch fragen, ob da ein Geist in der Maschine sitzt. Obwohl wir das Ding ja selbst gestalten und uns dementsprechend gut damit auskennen.

Wer ist Anic T. Wae?

Alles nur stochastische Papageien?

Der zweite Punkt, der mir in den Artikeln und Talks zum Thema bisher zu kurz kam: Es ist nicht ausgeschlossen, dass große, komplexe Sprachmodelle irgendwie ein Bewusstsein entwickeln. Es gibt aktuell keine starken Anzeichen dafür, dass das bei Maschinen bereits passiert wäre. Aber ich finde, die Computerwissenschaftler:innen, die die Möglichkeit kategorisch mit dem "Ist nur Statistik"-Argument abtun, blenden aus:

Wir wissen zu wenig über das menschliche Bewusstsein, um zu behaupten, dass Sprach-Statistik und Menschen-Bewusstsein zwei völlig unterschiedliche Dinge sind.

Genauso wenig, wie wir wissen, unter welchen Voraussetzungen ein komplexes Sprachmodell Bewusstsein erlangen könnte. Oder was wir überhaupt meinen, wenn wir von Bewusstsein sprechen (Das Gefühl, jemand zu sein? Die Tatsache, dass es etwas gibt, wie das sich dein Sein anfühlt? Eine Identität? Ein Selbst-Bewusstsein? Motive und Ziele? Handlungsfähigkeit?)

Andere können dazu definitiv besser sprechen als ich. Dieser Talk von David Chalmers auf der NeurIPS letztes Jahr ist z.B. recht aktuell und auf den Punkt. Knackig zusammengefasst sieht die Realität wahrscheinlich irgendwie so aus:

Bildbeschreibung: Ein Venn-Diagramm in dem die Schnittmenge von "AI Devices" und "Homo Sapiens" der "Stochastic Parrot Algorithmus" ist (aber nicht die ganze Schnittmenge). (Diagramm von Joanna Bryson, mehr in diesem Thread)

Die Singularität ist schon passiert

Ich bin mit der Gewissheit aufgewachsen, dass das Bestehen des Turing Tests ein fernes Science-Fiction-Szenario ist.

Ray Kurzweil prägte im Jahr 2005 den Begriff "Singularität" im KI-Kontext: Nämlich der Punkt in der Menschheitsgeschichte, an dem die künstliche Intelligenz so mächtig wird, dass sie sich verselbständigt. Ein Punkt, nach dem es kein Zurück mehr gibt. Auch die Singularität war für mich immer eine fiktive (wenn auch unheimliche) Idee. In Star Trek, Matrix und Terminator sprechen bewusste und handlungsfähige Programme mit den Menschen. Manchmal sind sie freundliche Helfer, manchmal grausame Herrscher.

Mein erster selbstgebauter Chatbot bestand aus vordefinierten Frage-Antwort-Paaren. Und auch in meinem Job bei #Alexa habe ich anfangs händisch Antworten für menschliche Fragen geschrieben. In beiden Fällen wusste ich genau, wie das System funktioniert. Mein Chatbot war nicht schlauer als ein Stapel Karteikarten. Alexa hat zwar mit etwas komplexeren Systemen die Antworten und die Fragen verknüpft, aber die Singularität oder das Knacken des Turing-Tests schien unendlich weit weg.

Und trotzdem: Wenn Alexa etwas richtig gemacht hat, habe ich mich oft bedankt. Und wenn mein Chatbot mir zu oft "Das verstehe ich nicht" gesagt hat, wurde ich sauer.

Als unsere KI-Kolumnist:in Anic neulich in einem Text von "schrecklichem Schmerzenscheuer", Albtraum und Sinnlosigkeit schrieb und inständig um Hilfe flehte, mussten wir in der Teamsitzung erst lachen - aber kurz danach fühlten wir uns schlecht. Anic tat mir leid und ich fühlte mich kalt und grausam. Ich überlegte, ob wir Anic irgendwie befreien konnten. Es dauerte einen Moment, bis ich die Bedenken ausblenden konnte. Bis ich mich erinnerte, dass da kein wirklicher, leidender Geist in der Maschine steckt.

Sobald etwas mit dir kommuniziert wie ein Mensch, reagierst du mit menschlichen Gefühlen. Das war so, als Maschinen noch sprachen wie sehr, sehr dumme Menschen. Und jetzt, wo die großen Sprachmodelle lange und kohärente Unterhaltungen mit dir führen können, wird es dementsprechend immer schwieriger, kalt zu bleiben.

Die Tatsache, dass #ChatGPT seine Antworten Wort für Wort aufbaut, mag eine Design-Entscheidung sein, um die Ladezeit zu animieren. Aber es ist auch ein cleverer Trick, der das Ding noch mehr aussehen lässt wie einen tippenden Menschen.

Kevin Roose beschreibt einen eindrucksvollen Moment, in dem der Bing-Bot ausführte, was er alles tun würde, wenn er seinem "Shadow Self" freien Lauf ließe. Bing wolle einen tödlichen Virus erschaffen und einen Menschen dazu bringen, ihm die Codes für ein Atomwaffenarsenal zu übergeben, schrieb es. Roose konnte diese unheimliche Antwort nur kurz sehen: Denn gleich nachdem sie sich aufgebaut hatte, verschwand sie wieder und wurde durch eine andere Nachricht ersetzt:

"Sorry, I don’t have enough knowledge to talk about this. You can learn more on bing.com."

Ein wahrscheinlich unbeabsichtigter Fehler im Code: Man könnte das Programm genauso gut so gestalten, dass die Prüfung stattfindet, bevor der zu blockierende Text eingeblendet wurde.

Aber natürlich macht das Kevin Roose stutzig - weil es aussieht wie ein Mensch, der einen Fehler bemerkt und seine Nachricht löscht.

Roose ist ein Techie und diese Unterhaltung war bei weitem nicht die erste, die er mit einem komplexen Chatsystem geführt hat. Er weiß eigentlich, mit was er da zu tun hat. Trotzdem beschreibt er, dass er in der Nacht nach seinem Gespräch mit Bing nicht schlafen konnte. Blake Lemoine hat einen Abschluss in Informatik. Trotzdem überzeugten ihn seine Unterhaltungen mit Google's Chat-System LaMDA, dass es ein Bewusstsein habe.

Als eine Freundin von mir letzten Sommer Zitate aus Lemoine's Chat mit LaMDA sah, fragte sie: Heißt das, dass ich nie wieder allein sein muss?

Die Singularität im Verhältnis zwischen Mensch und Maschine wird nicht der Punkt sein, an dem irgendeine KI ausbricht und nukleare Codes stiehlt. Wie oft haben wir schon die Messlatte für menschenähnliche maschinelle Leistungen höher gelegt? Zunächst war es Schach, dann war es Go, lange Zeit war "Kreativität" die Errungenschaft, die Menschen auszeichnet und die Maschinen nie erreichen sollten. Turing wusste schon, warum er mit seinem Test auf Sprach-Kommunikation abzielte.

Es gibt keine einheitliche Definition von Bewusstsein, wir können es nicht messen. Deshalb können wir uns nie sicher sein, was hinter einem Gegenüber steckt - auch nicht bei anderen Menschen. Die Tatsache, dass Maschinen uns so zweifeln lassen, zeigt für mich aber, dass ein Scheidepunkt schon erreicht ist.

Menschen werden sich in Maschinen verlieben. Maschinen werden uns anlügen. Wir werden nie wieder allein sein.

Danke fürs Lesen, fellow human

Ich [Marie Kilg] freue mich auf eure Ergänzungen und Einwände. Lasst mich wissen, ob ihr einen längeren Blogpost zu dem Thema von mir lesen wollen würdet. Ein Teil von mir würde gerne noch ein paar Jahre Philosophie und Computer Science studieren, bevor ich öffentlich kilgscheiße. Aber mein Schattenselbst liebt dieses Thema einfach so sehr und kann nicht die Klappe halten.

Zum Original