T

AI as make believe

schliessen
16.01.2023, Update 17.01.2023
7 Min Lesezeit

Es fühlt sich ja gerade so an, als würde das gesamte Internet (oder zumindest die ganze Twitter-Spähre) mit ChatGPT experimentieren. Häufig bekommt man dann als Feedback und Warnung zu hören, dass diesen Large Language Models (LLMs) leider nicht zu trauen sei. Keine Faktentreue! Wahrheitsverdreher! Sieht nur gut aus, an der Oberfläche (tadellose Schreibkünste), aber schlechte Performance darunter (die AI «weiss» ja gar nicht wovon sie spricht, sie hat keine Ahnung von der Welt, sie ist insofern betrügerisch und gefährlich). Oder in den Worten des Podcasters Ezra Klein: «It is bullshit – it is content that has no real relationship to the truth (Zitat Harry Frankfurt).»

Was aber tun wir hiermit?

Und was tun wir mit Anic, die sich in ihrer neuesten Kolumne durchgeknallterweise einbildet, sich in ihr eigenes Neuronales Netzwerk verliebt zu haben? Kurz: sollen wir den Maschinen diesen tollen Unsinn, den sie da von sich geben, etwa glauben?

Gegenfrage: warum denn nicht? Und vor allem: was heisst hier «glauben» genau? Glauben wir Dostojewski all seine psychologischen Verstiegenheiten? Tendenziell ja, auch wenn wir nicht glauben, dass das alles «wahr» ist, was er da erzählt. Es ist Fiktion. Ebenso wie der ganze Matrix-Spass, der ja eigentlich genau mit diesem Fiktion/Wahrheit-Durcheinander spielt. Oder mit etwas, das man in der Erzähltheorie sehr schön «willing suspension of disbelief» nennt – unsere Bereitschaft, von etwas «wirklich» betroffen/ergriffen/mitgenommen zu sein, was offensichtlich erfunden, das heisst gar nicht real ist. Wir müssen diesem Modell zufolge also unseren «disbelief» bewusst aufgeben, um Fiktion geniessen zu können. Und wir tun das offensichtlich gern und in ganz verschiedenen Kontexten.

Man darf annehmen, dass Hochstapler genau diese Lust, uns täuschen zu lassen, ausnutzen, diese «willing suspension». Wir mögen grandiose und suggestive Geschichten eben manchmal mehr als die nüchterne (und zuweilen auch über-komplexe) Wahrheit. GPT-3 und Konsorten kommen mir insofern oft wie kleine charmante Hochstapler vor, ohne betrügerische Absicht, aber so sehr in ihre Geschichten verstrickt, dass sie selbst gar nicht mehr recht zwischen Realität und Fiktion zu unterscheiden vermögen. Hochstapelei ist insofern eine Kunstform für sich, eine real world fiction, wenn man so will. Liest man Tatsachenberichte rund um hochstapelnde Menschen, dann gibt es da ein wiederkehrendes Motiv: sie werden geschmäht, gleichzeitig aber auch bewundert für ihre Erfindungs- und Improvisationsgabe, oft haben sie haben etwas Schillerndes, Verzauberndes, aber eben das wird ihnen dann auch vorgeworfen. Warum uns also nicht auch ein wenig verzaubern lassen von den Imaginationsräumen, die sich mit LLMs auftun, warum sie nicht bewundern für die Souplesse, mit der sie Leerstellen zu füllen vermögen, mit der sie sich über Verlegenheiten hinweg helfen, auf meist erstaunlich überzeugende Weise?

Dass uns das so durcheinanderbringt hat wohl mit ebender Bewegung zu tun, die überhaupt erst zu künstlicher Intelligenz geführt hat, dem Aufkommen wissenschaftlich-rationalen Denkens. So jedenfalls der «Fiktions»-Eintrag bei Wikipedia (wobei mir apropos die Nihilartikel – auch U-Boote genannt – in den Sinn kommen, vielleicht überhaupt mein Lieblings-Fiktionsgenre):

Es werden zwei maßgebliche Gründe für das Entstehen von Fiktion genannt. Der erste, kleinere Grund liegt in der „Entdeckung der Neuen Welt“ und mit der damit einhergehenden Erfahrung, dass es völlig andere Lebensräume geben kann. Der zweite, gewichtigere Grund besteht im Aufkommen des Rationalismus – vor allem mit René Descartes’ radikaler Infragestellung aller bestehenden Wahrheiten. Der Rationalismus verlangt eine kritische Prüfung der Voraussetzungen sicheren Wissens. Die zuvor erlaubten Schwebezustände zwischen wahren und plausiblen Aussagen geraten in Diskredit. Texte – auch dichterische – müssen sich von da an hinsichtlich ihres Wahrheitsanspruchs und damit des Weltbezugs ausweisen.

Und das gilt übrigens längst nicht nur für Texte – dassselbe Durcheinander gilt spätestens seit dem 20. Jahrhundert in allen Künsten. Eine wichtige Referenz diesbezüglich ist Kendall Waltons Buch «Mimesis as Make-Believe. On the Foundations of the Representational Arts» aus dem Jahr 1990. Es beschäftigt sich, wie der Untertitel bereits deutlich macht, nicht allein mit literarischer Fiktion, sondern mit der grundlegenden Gemeinsamkeit aller darstellender Kunstwerke, die laut Walton in ihrer Funktion besteht, Fiktion hervorzurufen.

Dank der Aufklärung sind wir also in einer Welt gelandet, die ein zumindest sehr widersprüchliches (wenn nicht rundweg schizophrenes) Verhältnis zu Erfundenem hat. Denn klar ist auch, dass Fiktion keineswegs weniger wichtig geworden ist. Ganz im Gegenteil, wir«scheinen uns in einer Zeit des ‚Panfiktionalismus‘ zu befinden, wo bestenfalls, wenn überhaupt, von Fiktionen gesprochen werden kann», wie der Literaturwissenschaftler J. Alexander Bareis schreibt. Und in diesem Plural ist jetzt einfach noch ein Akteur neu dazugekommen: die maschinelle Imagination. Das Unbehagen hochstapelnder AI gegenüber ist also durchaus nichts neues, da kocht einfach etwas hoch, was uns wohl grundsätzlich zu schaffen macht. Die AI-Forschung hat die Signale übrigens gehört und arbeitet schon daran, Language Models zu mehr Bescheidenheit zu erziehen, was ihre Behauptungen angeht:

We show that a GPT-3 model can learn to express uncertainty about its own answers in natural language – without use of model logits. When given a question, the model generates both an answer and a level of confidence (e.g. “90% confidence” or “high confidence”).

Was das für unsere Medienkompetenz bedeutet wird Thema eines kommenden Blogposts sein Nur soviel: Man darf durchaus auch zuversichtlich sein, was die "Fiktionskompetenz" der nächsten Generation angeht.

Zunächst aber noch ein Schauplatzwechsel, wo wir schon von Forschung reden. Fiktion als Thema interessiert nämlich auch die Pschologie, und da mehren sich die empirischen Befunde, die darauf hinweisen, dass diesem Spiel von Fakt und Fiktion eine sehr wichtige soziale Funktion zukommt, dass es also absurd wäre, Geschichten per se zu misstrauen. «The Function of Fiction is the Abstraction and Simulation of Social Experience» heisst es zum Beispiel im Titel eines Fachartikels im Journal "Perspectives on psychological science". Einfach gesagt – fiction is simulation, so etwas wie ein sozialer Fahrsimulator:

Narrative fiction also creates a deep and immersive simulative experience of social interactions for readers. This simulation facilitates the communication and understanding of social information and makes it more compelling, achieving a form of learning through experience. Engaging in the simulative experiences of fiction literature can facilitate the understanding of others who are different from ourselves and can augment our capacity for empathy and social inference.

Insofern sollten wir also viel mehr statt viel weniger Fiktion lesen, zumindest wenn sie gut geschrieben ist. Und damit wären wir bei der eigentlich spannenden Frage im Zusammenhang mit LLMs angelangt: Sind sie in der Lage, sinnstiftende Fiktionen zu generieren oder liefern sie einfach einen Schwall an amüsanten aber letztlich sinnfreien Texten? Oder auch: Können sie "Kultur" oder bloss Kommerz? Notabene setzt sich gerade die Ansicht durch, dass LMMs als Geschäftsmodell eindeutig im Bereich «Entertainment» zu verorten sind, zumindest derzeit – nachzulesen zum Beispiel in einem spannenden NYT-Artikel zu conversational AI, der unlängst Stimmen aus einigen aufstrebenden Firmen eingeholt hat.

Was auch immer man vom aktuellen LLM-Hype hält – wir stehen wohl erst am Anfang der Entwicklung. Für 2023 ist die Lancierung einiger mächtiger LMMs angekündigt. Stichwort GPT-4. Wir sollten uns auf jeden Fall noch auf so einige "capability jumps" gefasst machen, sagt der immer sehr gut informierte Jack Clark in seinem jüngsten Import AI-Newsletter voraus:

This is [...] the 'capability overhang' phenomenon I've been talking about re language models for a while - existing LLMs are far more capable than we think. All it takes is some experimentation and finding experts to find new ways to phrase questions and you can wind up with extraordinarily powerful capability jumps without retraining the model.