ChatGPT und literarisches Schreiben. Nachlese zur Diskussionsveranstaltung Montagsfrühstück „Der künstliche Autor? Künstliche Intelligenz und literarisches Schreiben – ein Widerspruch?!“ am 30. Januar 2023 im Literaturhaus am Inn – 3.3.2023


von Martin Sexl
aus LiLiT-Ausgabe Interviews, Kontroversen und Szene 2023

Das Montagsfrühstück am 30. Januar 2023 im Literaturhaus am Inn kam zum richtigen Zeitpunkt, denn seit zwei Monaten sind die Medien voll von Berichten über künstliche Intelligenz (KI). Auslöser dieses Hypes sind unter anderem KI-Textgeneratoren wie ChatGPT, die Texte auf einem so hohen sprachlichen Niveau produzieren können, dass es auf bestimmten Feldern und bestimmte Textsorten betreffend selbst für Expert*innen schwierig ist, zwischen von Menschen und von KI-Textgeneratoren geschriebenen Texten zu unterscheiden. Im Folgenden möchte ich versuchen, mich tastend der Frage anzunähern, wie KI-Textgeneratoren und das literarische Feld miteinander zusammenhängen. Tastend muss dies deshalb erfolgen, weil bei dieser Frage nicht nur Zukunft verhandelt wird – über die Voraussagen zu treffen bekanntlich nicht ganz leicht ist –, sondern weil meine Kompetenzen es nicht erlauben, mehr wie hilflose Versuche in Worte zu fassen. Die Frage bedarf jedenfalls einiger Umwege, die sich hoffentlich nicht als Irrwege, sondern als Annäherungen herausstellen.
 
 
Wie funktionieren KI-Textgeneratoren?
 
Wie funktionieren KI-Textgeneratoren (im Folgenden manchmal einfach als KI bezeichnet)? Sehr vereinfacht formuliert suchen sie, wenn man ihnen eine Aufgabe stellt, in Millionen von Texten, mit denen sie ‚gefüttert‘ worden sind, nach bestimmten Mustern und reproduzieren diese. Dabei sind sie zu selbständigem Lernen fähig, weil sie sich mittels so genannter neuronaler Netze selbst trainieren können, und zwar, und das ist entscheidend, in einem rasanten Tempo und nicht vorhersehbar (d. h. nicht gänzlich nachvollziehbar, nicht einmal für KI-Expert*innen, weil die Erzeugungsregeln neuronaler Netze im Gegensatz zu den explizit angegebenen Verfahrensregeln eines Algorithmus implizit sind und erst ‚beim Tun‘ der KI generiert werden). Mir scheint, dass sich dadurch drei zentrale Probleme für unseren Umgang mit Sprache, Kommunikation und Information ergeben, für die es – dies betrifft zumindest die ersten beiden – bereits starke empirische Belege gibt.
Zum Ersten ist die Information, die generiert wird, tendenziell veraltet, weil die Texte, auf die eine KI zugreift, immer (mehr oder weniger) veraltet sind. (Jede Information in einem wie auch immer gespeicherten Text ist in Gefahr, zum Zeitpunkt des Lesens des Textes – und dies gilt auch für das ‚Lesen‘ durch eine KI – nicht mehr gültig zu sein. So kann es sein, dass eine KI nicht ‚merkt‘ bzw. nicht ‚weiß‘, dass es einen Krieg in der Ukraine gibt.)
Zum Zweiten reproduziert eine KI Muster, weil sie diese wiederholt. D. h. sie bestätigt das, was schon da ist. Der human bias kann also durch einen data bias verstärkt werden. Daten belegen, dass eine KI Gefahr läuft, beispielsweise Rassismus, Sexismus oder Eurozentrismus zu reproduzieren und zu verstärken, wenn nicht durch Menschen gegengesteuert wird – weil eben viele Texte im Netz rassistisch, sexistisch oder eurozentristisch sind. Und weil eine KI nicht unterscheiden kann zwischen Objekt- und Metasprache bzw. zwischen der explizit gemachten Überzeugung des Boten und der Botschaft bzw. zwischen Texten, die wirklich rassistisch, sexistisch oder eurozentristisch sind, und solchen, die von Rassismus, Sexismus oder Eurozentrismus erzählen (und diesen kritisieren) – auch Kritik an Rassismus muss bestimmte Begriffe verwenden, wenn sie es auch in Form von Metasprache tut –, macht sie möglicherweise aus dem notwendigen Schreiben über Rassismus, Sexismus oder Eurozentrismus rassistische, sexistische oder eurozentristische Texte. KI ist nie neutral, sondern hat immer ideologische Momente.
Automatisierte Mustererkennung gibt es auch auf dem Feld der Literatur, etwa bei digitalen Bewertungssystemen oder bei Literaturempfehlungen („Dieses Buch könnte Sie auch interessieren …“), und auch hier führt sie zu einer Verstärkung des Mainstreams. In einem Rückkoppelungsprozess kann dies dazu führen, dass Verkaufserfolg berechenbar wird.
Zum Dritten ergibt sich vielleicht bald ein interessantes Problem: Im Moment sind die Texte, die eine KI ‚liest‘, meist noch von Menschen geschrieben. Aber im Internet werden sehr bald viele Texte kursieren, die von einer KI geschrieben wurden, und Texte von Menschen werden irgendwann vielleicht nur mehr eine Minderheit bilden. Wenn dies in Zukunft der Fall sein sollte, dann wird eine KI Texte produzieren, indem sie Muster in Texten sucht, die bereits von einer KI geschrieben wurden. Wahrscheinlich werden dadurch Vereinheitlichungs- und Verflachungsprozesse zunehmen. Aber vielleicht führt dies auch zu einer zunehmenden Abkopplung der Textwelt vom Menschen. Vielleicht bilden sich auch Feedbackschleifen, bei denen Menschen gar keine Rolle mehr spielen und in die sie vielleicht nicht einmal mehr eingreifen können, weil die Texte alleine schon wegen ihrer schieren Anzahl nicht mehr von Menschen überprüft werden können. Vielleicht entwickeln sich auch seltsame Fehler oder eigenartige Sprachveränderungen. Vielleicht … vielleicht …. vielleicht …
 
 
Können KI-Textgeneratoren verstehen?
 
Solche Entwicklungen sind vor allem auch deshalb kaum zu prognostizieren, weil eine KI nicht versteht, was die ‚gelesenen‘ und von der KI ‚geschriebenen‘ Texte bedeuten, weil zum Verstehen von Bedeutung die Erfahrung der Lebenswirklichkeit notwendigerweise dazugehört, die Situiertheit in der Welt, wenn man so will. Und das bedarf eines Körpers, das bedarf der Sinneswahrnehmung. Wenn Kreativität mit bewussten Entscheidungen, Verstehensprozessen und Sinn zu tun hat, dann kann eine KI nicht kreativ sein. Aber Menschen, die eine KI programmiert haben, können kreativ sein. Die Gedichte schreibende KI Eloquentron3000 des Autors Fabian Navarro ist nicht kreativ, Fabian Navarro hingegen sehr wohl. Weil wir einen kreativen Autor oder eine kreative Autorin (bzw. kreative Programmierer*innen) hinter einer KI annehmen und nicht die KI selbst als schreibende Instanz wahrnehmen, können wir auch die ‚Leistungen‘ der KI bewundern oder verurteilen. Die Frage, ob die KI selbst kreativ sein kann, bringt uns nicht weiter.
Die Antworten auf eine weitere Frage – Können uns literarische Texte einer KI berühren und faszinieren? – hängen von so vielen Prämissen und Bedingungen ab, dass sie nicht ohne die Berücksichtigung eines Einzelfalls gegeben werden können: Was ist es überhaupt für ein Text? Wer ist es, der den fraglichen Text liest? In welcher Situation wird der Text gelesen? Mit welchem Ziel wird der Text gelesen? Und die entscheidendste Frage dabei ist: Weiß die lesende Person, dass der Text von einer KI geschrieben wurde? Bei vielen Texten ist es uns wahrscheinlich egal, wenn sie von einer KI erstellt wurden, etwa bei der Gebrauchsanweisung einer Waschmaschine. Literatur verknüpfen wir aber so eng mit der Frage der Intention und des Ausdrucks eines verstehenden und fühlenden Subjekts, dass es uns da wohl nicht egal ist. (Wobei das ein Literaturbegriff ist, der nicht in Stein gemeißelt ist.)
  
  
Werden KI-Text-Generatoren Autor*innen ersetzen?
 
Eine wiederum andere Frage ist, ob eine KI in Zukunft Autor*innen ersetzen kann. Ich würde sie vereinfacht einmal so beantworten: Ja, sie kann es und sie wird es mehr und mehr tun und sie tut es auch jetzt schon: Wikipedia-Artikel werden von KI-Textgeneratoren geschrieben, ebenso journalistische Texte, Gebrauchsanweisungen, Packungsbeilagen bei Medikamenten usw. usf. Dass die Qualität von Texten nur ein Kriterium unter vielen ist – und sicher nicht das wichtigste –, die bei der Verdrängung von Menschen durch KI eine Rolle spielen, ist, denke ich, nachvollziehbar. In erster Linie geht es um Schnelligkeit bzw. um Ressourcen, vor allem an Zeit und an Arbeitskraft. Ich glaube daher, dass man das Zusammenspiel von Menschen und Textgeneratoren auch unter ökonomischen Gesichtspunkten betrachten muss. KI wird vor allem dort eingesetzt (werden), wo sie schneller und billiger als Arbeitskraft ist oder wo gar keine qualifizierte Arbeitskraft verfügbar ist. In welchen Feldern und Kontexten wird das passieren? Wo ist es sinnvoll? Wo ist es problematisch? Aus welchen Gründen ist es problematisch? Wer wird das überhaupt entscheiden, wo KI eingesetzt wird und wo nicht? Warum wird es auch in Fällen gemacht werden, wo es problematisch ist? Wird KI auch auf dem Feld des literarischen Schreibens Autor*innen ersetzen? Damit diese Fragen Sinn machen, muss man Einzelfälle, also spezifische Anwendungsfelder von KI betrachten.
Als erstes Beispiel soll eine KI dienen, die in eine und aus einer Fremdsprache dolmetscht und die mir erlaubt, mich mit meinem Handy auf einer Reise schnell und einfach durchzuschlagen. Das ist natürlich praktisch und ressourcenschonend. (Nur wenige Menschen konnten und können es sich leisten, einen Menschen aus Fleisch und Blut als Dolmetscher mitzunehmen.) Problematischer ist es, wenn eine KI dort dolmetscht, wo dies bislang Menschen getan haben, denn es wird dadurch Arbeitskraft verdrängt. Wenn KI eingesetzt wird, um etwas billiger und schneller zu erledigen, dann kann sie mit einer Maschine in der Industrie verglichen werden, die ebenfalls etwas billiger und schneller als Menschen produziert. In beiden Fällen stellt sich die gute alte Frage, wer auf der einen Seite die dadurch entstehenden Kosten (also etwa Arbeitslosengeld) trägt und wer auf der anderen Seite den dadurch entstehenden Produktivitätsgewinn einstreicht. Im Moment bezahlen Staaten, sprich: Steuerzahler*innen, die Kosten, den Mehrwert schöpfen vor allem große Internetkonzerne ab. Dass diese Konzerne mehrheitlich in den USA und zunehmend auch in China zu finden sind, sollte uns nicht nur aufgrund ökonomischer, sondern auch aus zwei anderen Gründen zu denken geben. Ich möchte sie in zwei zugegebenermaßen eher rhetorischen (und etwas polemischen) Suggestivfragen fassen: Wollen wir, dass die Entwicklung und der Einsatz von für das Gemeinwohl essentieller materieller wie kognitiver Infrastruktur – um es einmal so zu nennen – in demokratischen Entscheidungsprozessen passieren und in staatlicher Hand liegen (d. h. über Steuern und daher durch alle finanziert werden), oder überlassen wir das Elon Musk, Marc Zuckerberg und Co.? Wollen wir, zum Zweiten, alle unsere (sensiblen) Daten – die eine KI ja dringend als Datenmaterial und ‚Trainingsfeld‘ benötigt, um überhaupt für uns leistungsfähig zu werden – Elon Musk, Marc Zuckerberg oder der Kommunistischen Partei Chinas zur Verfügung stellen? Dass das für uns (d. h. für Österreich, die Europäische Union etc.) die schnellste und (vorerst zumindest) kostengünstigste Lösung darstellt, ist klar. Und genau deshalb ist die Gefahr so hoch, dass genau das auch realisiert werden könnte (bzw. passiert es ohnehin schon).
Um zurück zum Dolmetsch-Programm auf dem Handy zu kommen: Was für dieses gilt, betrifft ganz generell Übersetzungen, wo Textgeneratoren ja schon jetzt sehr viel eingesetzt werden. Und es betrifft noch viel mehr: Es betrifft auch Handbücher, Schulbücher, Ausbildungsunterlagen usw. usf. Es betrifft den gesamten Bildungsbereich. Je mehr KI in diesen Feldern eingesetzt wird, desto mehr wird das, was bislang in staatlicher und dadurch letztlich in demokratischer Hand lag und mit staatlicher Finanzierung ermöglicht wurde, in die Hände von privaten Firmen wandern. Die gesellschaftliche Aushandlung von Zukunft, um es ein bisschen pathetisch zu formulieren, passiert solchermaßen weniger und weniger in demokratischen Prozessen, sondern im Rahmen privatwirtschaftlicher (und daher gewinnorientierter) Unternehmen. Dass die Ersetzung von menschlicher Arbeit, sei es Hand- oder Kopfarbeit, durch Technologie auch positive Seiten hat, soll nicht unerwähnt bleiben: Technologischer Fortschritt befreit uns auch vor Tätigkeiten, die wir als anstrengend, eintönig oder nicht erfüllend wahrnehmen. Und technologischer Fortschritt öffnet auch neue Möglichkeiten für Arbeitskräfte.
  
  
Können uns KI-Textgeneratoren täuschen?
  
Ein anderes Feld, wo KI schon sehr bald ‚erfolgreich‘ sein könnte, ist das Feld von wissenschaftlichen Publikationen. Eine Bachelor- oder Masterarbeit kann durch leistungsfähige Textgeneratoren schon geschrieben werden, mit dem ‚Vorteil‘, dass eine KI weit billiger ist als ein menschlicher Ghostwriter und auch in Textverarbeitungsprogramme eingebettet werden kann. Plagiate sind diese Arbeiten keine, denn sie wiederholen sich nicht. Die Frage der Überprüfung dieser Arbeiten ist wiederum eine Frage der Ressourcen an Arbeitskraft, wobei die Überprüfung allerdings wiederum von einer KI durchgeführt werden kann. Wie es scheint, ‚sieht‘ eine KI auch mit größerer Treffsicherheit (und natürlich auch schneller), ob ein Text von einer KI verfasst wurde. Hier geht es auf jeden Fall um Betrug im klassischen Sinne, der im Übrigen nicht nur studentische (Abschluss-)Arbeiten betreffen wird, sondern auch die Produktion von Texten durch Wissenschaftler*innen. Da Wissenschaftler*innen an ihrem Output gemessen werden und dieser in Zeiten der Wachstumsgläubigkeit immer mehr zunehmen sollte, wird hier möglicherweise ein interessantes Problem auf die akademische Welt (und damit die Gesellschaft insgesamt) zukommen.
Wie gesagt: KI versteht nichts von dem, was sie schreibt, aber sie kann so tun als ob, und das auf einem Niveau, dass nur mehr Expert*innen diese Texte beurteilen können. KI kann also Wissenschaftlichkeit simulieren und dabei auch völligen Unsinn produzieren – Fake News, Fake Science (etwa mit erfundenen Quellenangaben) etc. –, der sich im Netz verbreitet, den man kaum mehr einfangen kann und der nicht so leicht als Unsinn entlarvt werden kann. In Zeiten der Pandemie wurde deutlich, dass sehr viele Menschen auf Unsinn hereinfallen, der sich in wissenschaftliches Gewand hüllt. (Daher gehört generelle Medienkompetenz – also das Einschätzen-Können der Seriosität von Quellen – zu den zentralen Kompetenzen von Staatsbürger*innen. Dieses Mantra der Bildungspolitik sei also hier noch einmal wiederholt, zumal es trotz der vielfachen Wiederholung immer noch richtig und immer noch nicht überzeugend eingelöst ist.) Dass viele Menschen (in Österreich ganz besonders, wie Studien zeigen) generell wissenschaftsskeptisch sind und einem wissenschaftlichen oder als Wissenschaft erscheinenden Text ohnehin nicht glauben – und dies unabhängig davon, ob er wahr oder (wissentlich oder unwissentlich) falsch ist, und auch unabhängig davon, ob er von einem Menschen oder einer KI verfasst wurde –, kommt ja noch dazu. Die herkömmlichen Auswege aus der Skepsis – das Vertrauen auf den Hausverstand, auf autoritäre Politiker*innen u. a. m. – sind in der Regel Irrwege, zumindest bei etwas komplexeren Problemen als einem Schnupfen, den man mit Vitamin C und Topfenwickel zu kurieren gedenkt.
Eine KI, die so tut als ob, ist problematisch. Eine KI, die sich als Mensch ausgibt, die ist auf jeden Fall unethisch. Eine KI kann auch problemlos Hassrede produzieren, wenn man sie mit den richtigen Texten füttert. Und da die KI nicht versteht, was sie produziert, müssen Menschen – oft Billigarbeitskräfte in Indonesien, Kenia oder wo auch immer – hinterher wieder ‚reinigend‘ tätig sein, indem sie verstörende Texte oder Bilder voller Brutalität und (häufig sexualisierter) Gewalt entfernen. Wer wissen will, was das mit diesen Menschen macht, der möge sich die Dokumentation The Cleaners (Im Schatten der Netzwelt) von Hans Block und Moritz Riesewieck aus dem Jahre 2018 anschauen. (Dass KI durch die dabei nötigen großen Rechenleistungen auch sehr viele Ressourcen in Form von Energie benötigt, sei nur am Rande erwähnt.)
 
 
KI-Textgeneratoren und literarisches Schreiben
   
Aber wie ist es auf dem Feld der Literatur? KI könnte etwa aus Texten Hörbücher generieren, was nicht nur dazu führen kann, dass menschliche Sprecher*innen ihre Arbeit verlieren, sondern auch zu einer erfreulichen Zunahme von Hörbüchern. Zynisch formuliert erspart man sich dadurch auch den Umgang mit echten Menschen, die zuweilen kompliziert, schwierig, anstrengend, arrogant oder unzuverlässig sein können. Die Popmusikwelt macht es schon lange vor: Wie am 7. Februar 2023 in der Tageszeitung Der Standard zu lesen war, haben Fans für Hatsune Miku – ein virtueller Popstar, d. h. ein Hologramm, das schon mit Lady Gaga aufgetreten ist – bereits mehr als 100.000 Songs auf KI-Basis geschrieben (und tun es immer noch). Und auch an Schlagermusik haben sich Textgeneratoren bereits selbständig und erfolgreich ausprobiert. Dass die so entstandenen Texte nicht sehr tiefsinnig sind, ist in diesem Feld ja ein erprobtes Erfolgsrezept.
Dass eine KI bald Texte vorlesen und einsprechen kann – geschenkt! Aber kann eine KI auch gute Texte schreiben? Wenn ja: Will ich einen solchen Text auch lesen? Diese Frage ist auch nicht eindeutig zu beantworten. Wenn ich Robert Musils Mann ohne Eigenschaften lese, dann will ich auf jeden Fall etwas über das Wien der 1920er Jahre erfahren, über den Zeitgeist, die Gesellschaft, die Stadt etc. Und dazu muss es ein verstehendes Bewusstsein gegeben haben, einen Autor, einen Menschen aus Fleisch und Blut, der durch die Stadt streift, mit seinen Sinnen die Gerüche und die Geräusche des Alltags einfängt und das Ganze auch versteht – und besser versteht als ich als Leser; und besser zum Ausdruck bringen kann als ich als Leser. Es mag schon sein, dass eine KI irgendwann in der Lage ist, einen ähnlich beeindruckenden Text zu schreiben. Aber der ist im Grunde nicht sehr interessant: Ich will ja etwas über Wien erfahren und von Wien verstehen und nicht unbedingt wissen, welche Muster über Wien in Millionen von Texten am häufigsten vorkommen. Natürlich fühlte ich mich betrogen, wenn ich wüsste, dass ein Text, den ich bislang einem denkenden, wahrnehmenden und fühlenden Menschen zugeschrieben habe, von einer KI verfasst wurde.
Dass die Literaturwissenschaft sich in den 1960er Jahren von der Autorinstanz abgewandt hat, zumindest in vielen theoretisch-programmatischen Entwürfen, ist aus meiner Sicht trotzdem immer noch nicht falsch: Es ist dort nicht falsch, wo es der (traditionellen) Literaturbetrachtung darum ging, uns die Innenwelt von Autor*innen zugänglich zu machen, die vielleicht spannend ist, aber trotzdem nicht aussagekräftig sein muss. Zugespitzt formuliert: Ich möchte als Leser aber etwas über die Zeit, den Alltag und die Gesellschaft der Zwischenkriegszeit in Wien erfahren – und nicht etwas über Robert Musil. (Dass Musilforscher*innen, und die muss es auch geben, das anders sehen, ist nachvollziehbar und nicht nur ihr gutes Recht, sondern sogar ihre Pflicht.) Musil benötige ich ‚nur‘ als Übersetzer, als jemand, der seine Erfahrungen in Sprache übersetzt, die für mich als Leser eine Brücke zu einer Welt von Erfahrungen bietet, die ich selbst nicht machen kann oder nicht machen möchte. Dass Kunst mit Leiden, Kämpfen und Erlösung zu tun hat, mag eine veraltete Ansicht sein. Aber mit Sinneserfahrungen hat sie auf jeden Fall zu tun. Auch die Sprachkunst, die Literatur, die scheinbar nur aus der Verarbeitung kognitiver Daten besteht.
Erfahrungsgesättigte Sprache kann noch mehr: Sie erschließt Neues und ermöglicht uns Leser*innen, Sinneswahrnehmungen und Erfahrungen, für die wir (noch) keine Sprache haben, in Sprache zu bringen und weiterzugeben. Wenn Sie jemandem, der noch nie den Klang einer Klarinette gehört hat, auf die Frage, wie eine solche klinge, mit Tonhöhen und Frequenzen antworten, wird er/sie immer noch nicht wissen, wie das Instrument klingt. Auf die Frage nach dem Klang einer Klarinette müssen Sie eine erfahrungsnahe Sprache verwenden mit Analogien, Vergleichen, Metaphern u. Ä. m.: „Eine Klarinette klingt so ähnlich wie eine Ente“ oder „Eine Klarinette klingt näselnd“. Herta Müller hat das einmal so gesagt (und viel, viel treffender, als ich es kann): „Der Druck der Erfahrung treibt die Sprache in die Dichtung.“ Warum? Weil das Wissen, das dabei eine Rolle spielt, kein Know-that ist, also nicht aus Propositionen besteht. Know-that hat mit Kognition, meaning, decoding, Bedeutung, Verstehen, Interpretation, Geist etc. zu tun, Know-how mit Erfahrung, sensation, doing, Empfindung, Vorstellung, Gefühlen, Körperlichkeit etc.
Und wo finden wir jene Metaphern, Vergleiche, Figuren und Analogien, die uns die Welt und mit ihr Neues erst erschließen? Genau: In der Dichtung, in der Literatur. Aber dazu braucht es jemand, der weiß und erfahren hat, wie eine Klarinette klingt – und der es auch zu formulieren versteht. Eine KI weiß es nicht, und sie kann uns zudem, noch einmal, Neues auch deshalb nicht erschließen, weil sie nur Texte nach bereits bestehenden Antwortmustern durchsuchen kann.
 
 
Der Mann ohne Eigenschaften und die Eigenschaften ohne Mann
  
Auch wenn nun aber ein Mann ohne Eigenschaften aus der Feder einer KI allenfalls vom Gesichtspunkt technischer Machbarkeit aus interessant ist, so sind es die Eigenschaften ohne Mann von Fabian Navarro aber keineswegs. Navarro hat den Roman von Robert Musil mithilfe der Python-Bibliothek SpaCy durchsucht und alle Adjektive und Adverbien aus dem Roman (Paratexte inkludiert) mittels Python-Skript als Text gespeichert und in auftretender Reihenfolge in ein PDF verpackt, das stolze 210 Seiten aufweist. Das ist nicht nur witzig, sondern auch interessant und durchaus auch von einigem Interesse für Menschen, die sich mehr mit der Sprache des Romans auseinandersetzen möchten. Lesen kann man das Werk Eigenschaften ohne Mann im herkömmlichen Sinne nicht, aber das gilt ja auch für einige der großen Werke der Weltliteratur.
Solange es in irgendeiner Form einen Autor oder eine Autorin gibt, dann verzeihen wir ihm oder ihr wahrscheinlich, wenn er oder sie KI als Instrument einsetzt. Eine KI wird in absehbarer Zeit ansprechende Kurzgeschichten und vielleicht auch bald Romane schreiben können. (Die sind vielleicht eher Genre- bzw. Schemaliteratur, aber Fragen der Qualität sind nicht der Punkt, auf den ich hier hinauswill.) Solange wir eine Art Garantie haben, dass ein Mensch diesen Text zumindest ausgewählt und vielleicht auch noch überarbeitet hat, dann sind wir wahrscheinlich bereit ihn zu akzeptieren, zumindest dann, wenn uns eine Erklärung verrät, dass der Text (unter Zuhilfenahme) von einer KI verfasst wurde.
Kann eine KI auch bessere Texte schreiben als Menschen aus Fleisch und Blut? Im Bereich der so genannten Genre- und Schemaliteratur, wie gesagt, wird eine KI vielleicht recht bald eingängige und gut lesbare Texte verfassen. Ob eine KI menschliche Autor*innen verdrängt, ist aber deswegen keineswegs ausgemacht, weil es erstens viele Menschen gibt, die gerne schreiben, zweitens viele Leser*innen an KI-Texten schlicht kein Interesse haben könnten. Warum sollten Menschen aufhören zu schreiben? Schachspieler*innen hören auch nicht auf zu spielen, nur weil sie wissen, dass jedes mittelmäßige Schachprogramm den amtierenden Weltmeister schlagen kann.
Es kann natürlich sein, dass die Konkurrenz der KI (oder auch ‚nur‘ ihr Einsatz als unterstützendes Instrument beim Schreiben oder im Rahmen verlegerischer Arbeit) dazu führt, dass Autor*innen bei Tantiemen oder Honoraren mit Einbußen rechnen müssen – oder gar für Gottes Lohn arbeiten müssen. Aber das tun sie auch jetzt schon: So tummeln sich auf Wattpad – einer der größten zurzeit existierenden Literaturplattform – über 70 Millionen Menschen, die Literatur schreiben und lesen und sich darüber austauschen. Arbeit ohne Entlohnung findet sich auch bei Formen des Self Publishing (von den 130.000 jährlichen Neuerscheinungen auf dem deutschsprachigen Buchmarkt sollen schon nahezu die Hälfte im Eigenverlag oder mit Hilfe von Self-Publishing-Plattformen wie BoD/Books on Demand, Amazon Kindle Direct Publishing (KDP), epoli, neobooks oder myMorawa erscheinen), bei der Autor*innen ihre Texte selbst edieren können und müssen. (Die Plattform vergibt automatisch eine ISBN-Nummer und garantiert durch diese minimale Form der Verlagssimulation die Teilhabe am Literaturbetrieb als einem sozialen System.) Wie bei IKEA hat das zwei Seiten: Man kann auf der einen Seite die Kosten senken, indem man die Kund*innen die gekauften Möbel selbst zusammenbauen lässt, was natürlich Tischler*innen vom Markt verdrängt, die beim Preis nicht mithalten können. Aber andererseits erlaubt es auch vielen Menschen, die sich eine Küche von der Tischlerin oder dem Tischler nicht leisten könnten, eine ansprechende Küche zu kaufen.
Vielleicht interessieren uns die literarischen Texte einer KI, auch wenn sie in Zukunft noch so toll geschrieben sein werden, gar nicht besonders oder sie sind schlicht keine Konkurrenz für Autor*innen. So wie auch Schachprogramme das Schachspielen nicht verdrängt haben, sondern ganz im Gegenteil beim Schachtraining sinnvoll eingesetzt werden können. Nur das Schummeln bzw. den Betrug würden wir nicht verzeihen, wie wir auch beim Schach – zumal dort, wo es um Prestige und um Geld geht, wie etwa bei Weltmeisterschaften – nicht durch KI betrogen werden wollen. Und wir würden es auch einem Daniel Kehlmann nicht verzeihen, wenn wir dahinterkommen würden, dass seine Vermessung der Welt von einer KI geschrieben wurde (was natürlich nicht der Fall ist).
 
 
Wo können KI-Textgeneratoren sinnvoll sein?
 
Hochspannend sind von KI geschriebene Texte auf jeden Fall im Bereich des experimentellen, avantgardistischen Schreibens, bei dem KI eingesetzt wird, um Sprachmaterial kreativ umzugestalten. Die experimentelle Lyrik profitiert enorm von KI, vor allem auch, was die Schnittstellen mit der Bildenden Kunst betrifft. (Man denke nur an die Arbeiten von Allison Parrish, etwa an Ahe Thd Yearidy Ti Isa von 2019.) Wie in der Konzeptkunst geht es dabei mehr um die Idee und das Konzept, die Ausführung selbst ist in vielen Fällen weit weniger von Interesse. Ein neues Feld könnte sich möglicherweise im Bereich individualisierter und personalisierter Auftragstexte ergeben. So habe ich vor Jahren ein Gedicht bei einem Schriftsteller bestellt, was eine nennenswerte Summe Geld gekostet hat und mit längerer Wartezeit verknüpft war. Der Gedichtegenerator Eloquentron3000 erledigt denselben Auftrag in Sekundenschnelle. Bestimmte Angaben, zumindest stichwortartige, muss man in beiden Fällen vorab einspeisen.
Menschliche Autor*innen sind nun nicht nur langsam und teuer, sondern können vielleicht auch eine zunehmende Nachfrage nicht decken, wie auch eine rasant alternde Gesellschaft in Zukunft möglicherweise nicht mehr in der Lage sein wird, die nötigen Pflegekapazitäten für pflegebedürftige Menschen zur Verfügung zu stellen. Und so, wie es inzwischen künstliche Haustiere und Pflegeroboter gibt, die ihre Dienste anbieten, so werden in Zukunft vielleicht auch Textgeneratoren bestimmte Formen individualisierter geistig-emotionaler Zuwendung leisten. Die Frage, ob wir in so einer Welt leben wollen, stellt sich vielleicht gar nicht, denn möglicherweise müssen wir es, weil Arbeitskraft zu teuer oder nicht mehr verfügbar ist.
Die Frage nach der Qualität von Texten spielt, dies zum Abschluss, in den Debatten um KI und literarischem Schreiben eine wichtige Rolle, und sie ist besonders heikel, denn literarische Qualität ist nichts Normiertes und sehr stark vom Kontext abhängig. Bei der Frage, ob KI gute Texte oder sogar bessere als Menschen schreiben kann, vergisst man nur allzu oft, dass wir, wenn wir die Qualität von Literatur beurteilen, nicht nur den Text alleine beurteilen. Der gesamte Kontext, das gesamte Umfeld von Literatur spielt eine große Rolle bei der Frage, wie Texte wahrgenommen und beurteilt werden. Eine KI kann problemlos dadaistische Gedichte schreiben. Aber richtig interessant sind diese deshalb noch lange nicht. Interessant sind dadaistische Gedichte im Kontext des Ersten Weltkriegs, in dem sie kulturelle und politische Sprengkraft hatten. Und diese Sprengkraft hat wenig mit dem Text und viel mit den Umständen zu tun. Und für uns heute werden diese Gedichte interessant, wenn wir die Texte und ihre Umstände diskutieren und uns fragen, was sie über die Zeit des Ersten Weltkriegs aussagen. Und wenn wir sie mit unserer heutigen Zeit in Verbindung bringen. Bei der Frage, was uns Literatur sagt, geht es nicht alleine darum, wie ein Text aussieht, sondern auch um das Wissen der Leser*innen über Autor*innen, um das Erscheinungsbild von Büchern, um Werbung, um den Ort des Lesens in einer Gesellschaft, um Bildungskontexte usw. usf. Literatur steht immer in einem Kontext, und Qualitätsurteile bzw. die Frage, warum wir schreiben und lesen, hat immer mit Kontexten zu tun.
 
 
Martin Sexl ist Professor für Vergleichende Literaturwissenschaft an der Universität Innsbruck.

3.3.2023, Quelle: LiLiT

Nach oben scrollen