banner

Blog

Oct 13, 2023

Wie KI das Schreiben verändert

Im Jahr 1950 schlug der Informatiker Alan Turing bekanntlich den sogenannten Turing-Test für künstliche Intelligenz vor, der besagt, dass eine Maschine möglicherweise „denkt“, wenn sie in einem maschinengeschriebenen Chat als Mensch durchgehen kann. Selbst wenn Sie mit dieser Geschichte vertraut sind, wissen Sie vielleicht nicht, dass Turing sich vorgestellt hat, seinen Test mit einer literarischen Bitte zu beginnen: „Bitte schreiben Sie mir ein Sonett zum Thema der Vierten Brücke.“ Er sagte eine ausweichende, aber sehr menschliche Antwort eines künftigen Computers voraus: „Ich bin hier im Stich gelassen. Ich könnte nie Gedichte schreiben.“ Das ist genau das, was mein Vater sagen würde.

Letzte Woche habe ich dieselbe Anfrage an ChatGPT gesendet, den neuesten Chatbot mit künstlicher Intelligenz von OpenAI. „Auf dem Firth of Forth steht eine Brücke“, begann es. In weniger als einer Minute hatte das Programm ein reimendes Shakespeare-Sonett geschaffen. Mit Ausnahme beleidigender oder kontroverser Themen, die durch seine Inhaltsfilter blockiert werden, verfasst ChatGPT Originalverse zu jedem Thema: verlorene Liebe, verlorene Socken, durch Automatisierung verlorene Arbeitsplätze. Tools wie ChatGPT scheinen bereit zu sein, die Welt der Poesie – und so vieles mehr – zu verändern, aber Dichter können uns auch viel über künstliche Intelligenz lehren. Wenn Algorithmen gut darin werden, Gedichte zu schreiben, liegt das zum Teil daran, dass Poesie schon immer ein algorithmisches Geschäft war.

Selbst die rebellischsten Dichter befolgen mehr Regeln, als sie zugeben möchten. Ein guter Dichter versteht grammatikalische Normen und weiß, wann er sie brechen muss. Manche Gedichte reimen sich nach einem Muster, manche unregelmäßig und manche überhaupt nicht. Die subtileren Regeln der Poesie scheinen schwer zu programmieren, aber ohne einige grundlegende Normen darüber, was ein Gedicht ist, könnten wir niemals eines erkennen oder schreiben. Wenn Schulkindern beigebracht wird, die Struktur eines Haikus oder den kurzen und langen Klang des jambischen Pentameters nachzuahmen, lernen sie effektiv, algorithmische Einschränkungen zu befolgen. Sollte es uns überraschen, dass Computer dies auch können?

Aber wenn man bedenkt, wie ChatGPT funktioniert, erscheint seine Fähigkeit, die Regeln für Sonette zu befolgen, etwas beeindruckender. Niemand hat ihm diese Regeln beigebracht. Eine frühere Technologie, symbolische KI genannt, umfasste die Programmierung von Computern mit Axiomen für bestimmte Themen wie Molekularbiologie oder Architektur. Diese Systeme funktionierten in engen Bereichen gut, es fehlte ihnen jedoch eine allgemeinere Anpassungsfähigkeit. ChatGPT basiert auf einer neueren Art von KI, die als Large Language Model (LLM) bekannt ist. Extrem vereinfacht analysieren LLMs enorme Mengen menschlicher Schrift und lernen, basierend auf dem Kontext vorherzusagen, wie das nächste Wort in einer Textfolge lauten sollte. Diese Methode des Wortratens ermöglicht es der KI, zusammenhängende Aufsätze für die Hochschulzulassung, grobe Abhandlungen für Drehbücher und sogar Sonette über Brücken in Schottland zu schreiben, von denen keines direkt programmiert wird.

Ein häufiger Kritikpunkt an LLMs ist, dass sie nicht verstehen, was sie schreiben; Sie erraten einfach hervorragend das nächste Wort. Die Ergebnisse klingen plausibel, gehen aber oft daneben. Ich habe ChatGPT zum Beispiel gebeten, diesen Witz zu erklären: „Was ist das Beste an der Schweiz? Ich weiß es nicht, aber die Flagge ist ein großes Plus.“ Es wurde geantwortet, dass der „Hinweis auf die Flagge“ lustig sei, weil er „der Erwartung widerspricht, dass die Antwort etwas mit den positiven Eigenschaften des Landes zu tun haben würde.“ Es fehlte das Wortspiel mit „Plus“, das den Kern des Witzes ausmacht. Einige Wissenschaftler behaupten, dass LLMs Wissen über die Welt entwickeln, aber die meisten Experten sagen etwas anderes – dass diese Technologien zwar kohärent schreiben, es aber niemanden gibt, der zu Hause ist.

1/3

Aber das Gleiche gilt auch für die Sprache selbst. Wie uns der modernistische Dichter William Carlos Williams sagt: „Ein Gedicht ist eine kleine (oder große) Maschine aus Worten.“ Wenn uns ein leidenschaftlicher Vers von Keats oder Dickinson das Gefühl gibt, dass der Dichter direkt zu uns spricht, erleben wir die Auswirkungen einer Technologie namens Sprache. Gedichte bestehen aus Papier und Tinte – oder heutzutage aus Elektrizität und Licht. In einem Dickinson-Gedicht steckt niemand mehr als in einem von ChatGPT.

Natürlich spiegelt jedes Dickinson-Gedicht ihre Absicht wider, Bedeutung zu schaffen. Wenn ChatGPT Wörter zusammenfügt, hat es keine Absicht. Einige argumentieren, dass Schriften von LLMs daher keine Bedeutung haben, sondern nur deren Erscheinung. Wenn ich am Himmel eine Wolke sehe, die wie eine Giraffe aussieht, erkenne ich darin eine zufällige Ähnlichkeit. In gleicher Weise, so lautet dieses Argument, sollten wir die Schriften von ChatGPT lediglich als reale Sprache betrachten, bedeutungslos und zufällig wie Wolkenformen.

Experimentelle Autoren haben uns seit Anfang des letzten Jahrhunderts Gründe gegeben, an dieser Theorie zu zweifeln, als Tristan Tzara und andere versuchten, bewusste Entscheidungen aus ihrem Werk zu streichen. Ihre Techniken scheinen mittlerweile rudimentäre Versionen der Prinzipien hinter LLMs zu sein. Tzara zog Worte aus einem Hut, um ein Gedicht zu verfassen. In den 1950er Jahren machte William S. Burroughs die „Cut-up-Methode“ populär, bei der Wörter aus Zeitungen herausgeschnitten und wieder zu Literatur zusammengesetzt werden. Etwa zur gleichen Zeit entwickelten Linguisten den „Wortbeutel“-Ansatz zur Modellierung eines Textes, indem sie zählten, wie oft jedes Wort vorkommt. LLMs führen weitaus komplexere Analysen durch, aber die Randomisierung hilft ChatGPT immer noch dabei, vorhersehbare Ergebnisse zu vermeiden, genau wie sie Burroughs geholfen hat.

Unter KI-Forschern gibt es einen alten Witz: „Künstliche Intelligenz“ ist das, was Computer noch nicht können. Das klassische Beispiel ist Schach. Der Traum von der Automatisierung des Schachspiels reicht bis ins Jahr 1770 zurück, als ein Roboterspieler namens „Mechanischer Türke“ dank eines unter dem Schreibtisch versteckten menschlichen Schachmeisters die Gerichte Europas in Erstaunen versetzte. Im Jahr 1948 schrieb Turing ein Schachprogramm, das jedoch zu komplex war, um auf der Hardware der 1940er Jahre ausgeführt zu werden. 1997 schließlich besiegte ein Supercomputer den Schachweltmeister Garry Kasparov. Seitdem sind Computer so viel besser geworden als Menschen, dass der heutige Weltmeister Magnus Carlsen es für sinnlos und deprimierend hält, sie zu spielen. Vielleicht scheint es für einen Computer weniger magisch zu sein, beim Schach zu gewinnen als früher, aber da sich die KI-Poesie immer weiter verbessert, sollten wir uns daran erinnern, dass Schach für Millionen von Menschen immer noch Spaß macht.

LLMs stellen eine neue Phase im computergestützten Schreiben dar, aber die nächsten Schritte für KI-Poesie bleiben unklar. Wie Turing nutzt auch der Internet-Universalgelehrte Gwern Branwen Poesie als Test und fordert KIs auf, Shelley, Yeats und andere nachzuahmen. Hier ist Ersatz für Whitman: „O Länder! O Länder! Kreuzfahrt fahren, Seelanden sein! / Niagara weiterhin besuchen, weitermachen, weitermachen!“ Mit der Verbesserung der KI verbessern sich auch diese Imitationen. Unterdessen arbeitet die futuristische Dichterin Sasha Stiles mit LLMs zusammen, um eine neue posthumane Ära einzuläuten. „In zehn weiteren Jahren“, schreibt sie, „werden wir wissen, wie man IQ implantiert / ganze Sprachen einfügt. Dann werde ich ein Superdichter sein, // mit einem Mikrochip versehen, um neuronale Oden turbozulesen, / die Geschichte von Sonetten und Aubaden gehirnverknüpft.“ ." Obwohl sie visuell beeindruckend ist, übersieht ihre Arbeit manchmal die politischen, ökologischen und praktischen Nachteile dieser Technologien. Die Zukunft der KI-Poesie ist noch nicht da, aber die LLMs sagen uns, dass sie es bald sein wird.

Zu den besten neueren KI-Poesie gehört Lillian-Yvonne Bertrams „Travesty Generator“ (2019), dessen Titel einem Gedichtgenerierungsprogramm entlehnt ist, das der Kritiker Hugh Kenner in den 1980er Jahren mitgeschrieben hat. In Bertrams Händen bezieht sich „Travestie“ auch auf die gewalttätigen Ungerechtigkeiten gegenüber Schwarzen, auf die diese Gedichte reagieren. Arbeiten wie die von Bertram sind besonders dringlich, da Forscher untersuchen, wie KI das Risiko birgt, Rassismus und anderen Hass zu verstärken, der bereits im Internet vorherrscht.

Als ich meinen Freunden das Sonett von ChatGPT zeigte, nannten sie es „seelenlos und unfruchtbar“. Obwohl das Gedicht alle Regeln für Sonette befolgt, ist es klischeehaft und vorhersehbar. Aber ist das durchschnittliche Sonett eines Menschen besser? Turing stellte sich vor, einen Computer nach Gedichten zu fragen, um zu sehen, ob er wie ein Mensch denken könnte. Wenn wir jetzt erwarten, dass Computer nicht nur Gedichte, sondern auch gute Gedichte schreiben, dann haben wir die Messlatte viel höher gelegt.

Wir nehmen am Amazon Services LLC Associates-Programm teil, einem Affiliate-Werbeprogramm, das uns die Möglichkeit bietet, durch die Verlinkung zu Amazon.com und verbundenen Websites Gebühren zu verdienen.

AKTIE