Der verwirrte Spielleiter N°58 – Ein AI-Experiment…

Um es kurz zu machen und das Wichtigste an den Anfang zu stellen – ich habe einfach mal zum Ausprobieren DnD 5e mit ChatGPT 4o als SL gespielt… und DAS war eine in der Tat ungewöhnliche Erfahrung. And here comes why! Bevor ich in den Teil einsteige allerdings noch ein paar wenige Kontext-Informationen vorweg: Ich nutze ChatGPT 4o schon seit einer Weile für berufliche Zwecke und auch einfach so zum rumexperimentieren. Es erschien mir nämlich sinnig, etwas über eine Technologie wissen zu wollen, die manche als dämlichen, nutzlosen Tech-Fetisch betrachten, andere als Doomsday-Maschine, die BWLler natürlich als Gelddrucker und wieder andere als das geilste Ding seit dem Buchdruck. Ob generative KI mittels Large Language Models tatsächlich die von McLuhan beschriebene Gutenberg-Galaxis endgültig zerstört hat, bleibt noch abzuwarten. Aber aus dem Alltag vieler Kreativer ist sie bereits nicht mehr wegzudenken. Und auch als Pädagoge kann man damit durchaus produktiven Quatsch anstellen. Aber als mein Gegenüber am Pen’n’Paper-Spieltisch…? Da hilft nur selbst ausprobieren. Die Erfahrung war interessant und tatsächlich alles andere als langweilig; und ich habe über den Pen’n’Paper-Chat mit GPT ein paar Aussagen zu treffen…

  • Die Regelmechaniken von DND 5e scheint GPT 4o zumindest weitgehend zu kennen, vergisst jedoch regelmäßig, dass das Würfeln zum Spiel dazu gehört. Man muss GPT 4o also regelmäßig daran erinnern, dass NICHT alles funktioniert, nur weil man es (gut?) beschrieben hat und die Maschine regelrecht auffordern, einem Würfe abzuverlangen. Und der sportliche Ehrgeiz verlangt natürlich, dass hier NICHT gefudged wird! (Versteht sich von selbst, oder?)
  • Die Korrekturen, die ich GPT 4o vornehmen ließ, wenn ich gemerkt habe, dass die Maschie es sich – und auch mir – zu leicht macht, wurden schnell und weitestgehend sauber in den Spielfluss implementiert. Trotzdem blieb das Gefühl, mit einem Lazy Gamemaster zu spielen, der lieber alles handweaved und die einzelnen Szenen bullshittet, um so etwas wie einen Spielfluss aufrecht zu erhalten. Doch dazu gleich noch etwas mehr.
  • Die Beschreibungen, welche GPT 4o verfasst, sind oft blumig, gelegentlich redundant, aber das LLM bemüht sich wenigstens redlich um den Versuch, dramatische Spannung durch stimmungsvollen Fluff zu unterstützen. Aber ja, Wiederholungen passieren dauernd, wenn man die Maschine nicht daran erinnert, dass es auch noch mehr Variationen bestimmter Themen gibt. Es wirkte ein bisschen so, als wenn die Maschie irgendwann mal Walter Ong (Buchreferenz unten) gelesen hätte, weil die Texte teilweise wirkten, wie die rein mündlich überlieferten Erzählungen der griechischen Antike; Überzeichnung von Merkmalen, Adjektiv-Überfluss, Dopplungen und so verstärkte Bilder waren als Mnemotechniken für die rein aus dem Gedächtnis rezitierenden Erzähler jener Zeit wichtig. Hier wirkte das des Öfteren ungewollt komisch.
  • Die Abenteuer, welche sich die Maschine ausdenkt, sind streckenweise sehr generisch und ein bisschen zu einfach. Man muss allerdings auch bedenken, dass die Maschine einerseits eine Lernkurve absolvieren muss, auf Material aus dem Netz zurückgreift (von dem bei weitem nicht alles gut ist) und von mir zumindest am Anfang nur recht wenig Kontextinformationen abseits der gewünschten Spielwelt, des Spielstils und der Charakterbeschreibung bekommen hatte, einfach weil ich neugierig war, was GPT 4o so zusammenbullshitten würde… Bald wusste ich, wenn du auf einer Mission bist, die urbane Informationsbeschaffung und Sabotage gegen irgendwelche Söldner beinhaltet, gibt’s in der ganzen Stadt plötzlich nur noch Lagerhäuser… Aber ich will ehrlich sein – ich habe von menschlichen SL (allerdings auch sehr unerfahrenen) schon schlechtere Szenarien serviert bekommen.
  • Die technische Reaktionszeit sinkt allerdings, je länger der Thread des Spiels wird deutlich und es kommt auch zu Bearbeitungsabbrüchen, was ein Neuladen des Threads notwendig macht. Bislang habe ich GPT 4o allerdings noch nicht dazu bekommen, den Thread durch technische Fehler komplett zu killen. Es wirkt so, als wenn die Maschine jedesmal den ganzen Thread noch mal von vorne durchgeht.

Natürlich habe ich dieses kleine Experiment zum Zwecke meiner eigenen Unterhaltung begonnen. Wenn ich jetzt allerdings so darüber nachdenke, drängt sich mir einmal mehr die Frage auf, welchen Sinn die Nutzung von Large Language Models wie GPT 4o überhaupt haben soll. Welchen Zweck ich damit verfolge, ist per Anwendungsfall klar: wenn ich das beruflich nutze, erstelle ich oft Grafiken für Präsentationen, ich lasse mir größere Datenmengen (Studien, Leitlinien, etc.) zum Überblick und/oder Vergleich zusammenfassen und wenn man etwas Handarbeit zum Feinschliff investiert, kan man sich auch für verschiedene Themengebiete Multiple-Choice-Fragenkataloge zusammenstellen lassen. GPT 4o schreibt dir theoretisch auch einen Unterrichtsverlaufsplan, wenn du die Maschine mit genügend Kontextinformationen fütterst. Man darf dann allerdings nicht mehr als Standardkost erwarten, weil die Maschhine das mit vernünftigem Methoden-Pluralismus nicht so drauf hat. Aber als Inspiration ist es manchmal ganz okay. Alles bisher genannte sind jedoch lediglich klar definierte Einsatzzwecke, bei denen eine bestimmte Partikularaufgabe aus einem Arbeitspaket an die Maschine delegiert wird, um Zeit und Nerven zu sparen. Und ich darf davon ausgehen, dass ich solche Handlungsoptionen nicht exklusiv nutze. Aber der Sinn dahinter, dass ist es doch, womit die Menschen hadern; wir fremdeln mit der Idee, dass ein Algorithmus in der Lage sein soll, eine Aufgabe zu erledigen, für die es bislang einen Menschen brauchte. Doch eigentlich ist das lediglich eine Weiterentwicklung. Einer der ersten Computer – Colossus – wurde in Großbritannien während des 2. Weltkrieges entwickelt, um die Codes der Enigma– und Lorenz-Maschinen zu knacken; weil Menschen viel zu lange gebraucht hätten, um dies zu tun. Man hatte ja eine zeitliche Dringlichkeit, weil es um laufende militärische Operationen ging. Konsequent weiter gedacht nutzen ich und viele andere Menschen auch heutzutage sogenannte KI-Anwendungen einfach nur, um bei der Arbeit Zeit zu sparen. Wie die Leute in Bletchley Park damals auch. Okay soweit.

Und jetzt habe ich KI einfach benutzt, um damit zu spielen? Ja klar – das tue ich doch auch, wenn ich irgendein x-beliebiges Videospiel an der Playse zocke. Oder was glaubt ihr, wie die Reaktionen eurer Gegner generiert werden. Dahinter steckt ein – zumeist zugegeben sehr einfach gestricktes – Small Reasoning Model, dass versucht (je nach eingestelltem Schwierigkeitsgrad, fall das Spiel so etwas hat) eine glaubwürdige, taktisch halbwegs sinnvolle Antwort auf mein Handeln als Spieler zu finden – und das bitte schnell! Ist im Kern das gleiche, wie ein LLM, nur dass man nicht das Gefühl hat, in der Maschine würde jemand sitzen und mit mir Konversation betreiben. Dem Einsatz von künstlicher Intelligenz – oder dessen, was wir heute darunter verstehen – einen Sinn zu geben, davon sind wir noch sehr weit entfernt. Was vermutlich daran liegt, dass viele Menschen nicht verstehen können, was in diesen Algorithmen passiert – und das die Ergebnisse bislang nicht viel mehr sind, als ein zufälliger, durch meine Eingaben in eine gewisse Richtung manipulierter Remix oder Mashup von Quellmaterial, dass im Internet zu finden ist – und das in den allermeisten Fällen von Menschen stammt. Letztlich ist ein großer Teil dessen, was KI heute alles kann und macht also nur geklaut. Das wird sich irgendwann ändern. Aber wie schnell und was daraus erwächst… keine Ahnung! Aber wir Menschen waren schon immer toll darin, Dinge zu entwickeln, weil wir GLAUBEN, damit ein (oft hoch individuelles) Problem zu lösen und dann einfach mal zu schauen, was man damit alles anstellen kann. Genau das passiert jetzt. Und ich habe mich zu einem Zeil davon gemacht, indem ich, von einer Mischung aus Neugier, forensischem Interesse und Spieltrieb motiviert die Maschine trainiere, als Spielleiter für Pen’n’Paper fungieren zu können. Ich bin mal gespannt, welchen Sinn ich darin finden werde. Euch einen schönen Start in die neue Woche.

  • Buchreferenz: Ong, Walter (1987, 2016): Oralität und Literalität. Die Technologisierung des Wortes. 2. Auflage. Wiesbaden: Springer Fachmedien, Kapitel 4.2, S. 31 ff.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert