Welche Potenziale bietet künstliche Intelligenz für die historisch-politische Bildung und eine digitale Erinnerungskultur – gerade dann, wenn Zeitzeug:innen nicht mehr selbst berichten können? Wie können die Vorteile KI-gestützter Technologien in der Bildung genutzt und dabei die Risiken mitreflektiert werden? Von den Herausforderungen beim Einsatz von KI und den Möglichkeiten, ihnen zu begegnen, handeln die folgenden Debattenbeiträge.
Es ist der 30. April 1945. Die Zielke-Klemperer-Gruppe löst sich nach Jahren des zivilen Widerstands gegen das NS-Regime auf. Sie hat in Berlin regimefeindliche Flugblätter verteilt, politisch Verfolgten die Flucht aus Deutschland ermöglicht und verschiedene Sabotageakte verübt, stets mit dem Risiko, selbst zum Opfer des NS-Unrechts zu werden. „Das Kriegsende bedeutet nicht das Ende unserer Verantwortung“, sagt Anne Zielke, sozialdemokratische Schusterin und Anführerin der Gruppe, bei einem letzten Treffen der Mitglieder. „Unsere Mission bleibt bestehen.“
Das Bemerkenswerteste an der Zielke-Klemperer-Gruppe ist nicht ihr mutiger Widerstandskampf, sondern, dass sie nie existiert hat. Sie ist das Ergebnis von Zufallsalgorithmen und den regelgeleiteten Entscheidungen der Spieler:innen von Through the Darkest of Times, einem Strategiespiel des Berliner Entwicklerstudios Paintbucket Games aus dem Jahr 2020.
Erinnerungsmuster statt historischer Fakten
Algorithmische Systeme, zu denen sowohl digitale Spiele als auch sogenannte künstliche Intelligenz (KI) gehören, reproduzieren in der Regel keine historischen Fakten (etwa dokumentierte Ereignisse), sondern sie erzeugen Muster – basierend auf den Wahrscheinlichkeiten historischer Ereignisse sowie den Variablen ihres (Nicht-)Eintreffens. Das hat Konsequenzen für die historisch-politische Bildung: Denn so lernen wir in Through the Darkest of Times zwar keine reale Widerstandsgruppe kennen. Doch das mediale Netz aus Erinnerungen verschiedener Generationen, das die Grundlage der Spielalgorithmen ist, legt nahe, dass die angebotenen Räume und Handlungen historische Wahrscheinlichkeit besitzen und so wirkungsvolle historische Erfahrungsräume bilden. Through the Darkest of Times vermittelt dabei mögliche Handlungsspielräume sowie logistische und strategische Risikoabwägungen des Widerstandskampfes einer bunt zusammengewürfelten Gruppe im Berlin der 1930er- und 1940er-Jahre. Games ersetzen also kein Bücherwissen, sondern ergänzen es um eine involvierende und spielerische Auseinandersetzung mit gestalteten Vergangenheitsszenarien.
Solche algorithmischen Annäherungen an die Vergangenheit können sich eng an den Fakten orientieren, aber auch kontrafaktische Pfade einschlagen. In Through the Darkest of Times wird das Regime nicht besiegt, sondern der Widerstand nur bis zum Kriegsende aufrechterhalten. Ein Kunstprojekt der israelischen Stiftung Chasdei Naomi, bei dem die KI-basierte Bilderstellungssoftware Midjourney mit Erzählungen von Holocaust-Überlebenden gefüttert wurde, hat hingegen durchaus anachronistische Darstellungen generiert: Fliehende Menschen in moderner Kleidung treffen auf historische Kampfflugzeuge im Tiefflug. Aber ganz egal, ob die entstehenden Muster sich eng an der historischen Wahrheit orientieren oder nicht: Eingebunden in ein Lernsetting, das die Bedingungen ihres Entstehens kritisch reflektiert, können sie Aufmerksamkeit für Themen der (digitalen) Erinnerungskultur zum NS-Unrecht wecken und die historisch-politische Bildung als digital-somatische Vermittlungswerkzeuge erweitern.
Stereotype Erinnerung
Historische Muster und KI-generierte Erinnerungsbilder haben jedoch dort Grenzen, wo sie NS-Unrecht relativieren oder ausblenden und künstliche Darstellungen problematische Stereotype reproduzieren. Das KI-Modell Gemini von Google hat vor allem letztere Problematik im Frühjahr 2024 in mehrfacher Hinsicht verdeutlicht: Um die einseitige Datenbasis zu kompensieren – so sind etwa People of Color meist deutlich unterrepräsentiert –, wurde das Modell in Hinblick auf mehr Inklusion oberflächlich angepasst. In der Praxis bedeutete das jedoch, dass beispielsweise Wehrmachtssoldaten mit schwarzer Hautfarbe generiert wurden.
Ähnlich problematisch können auch Manipulationen und Cyberangriffe sein, die die Inhaltsmoderation von KI-Modellen umgehen und unter Umständen (re-)traumatisierende Inhalte ermöglichen. Die KI reproduziert Muster, versteht aber keine Kontexte. Im schlimmsten Fall bringt sie genau jene Machthierarchien hervor, die in Erinnerungskulturen kritisch hinterfragt werden wollen.
Digitale Spiele sind als zielgerichtetere Regelsysteme deutlich weniger anfällig für derartige Manipulationen. Sie können durch Auslassungen, nachträgliche Modifikation oder (un-)bewusste Gewichtung ihrer Algorithmen jedoch ebenfalls problematische Deutungsmuster reproduzieren. Neben dem Gedanken von „Fair Play“, der zugunsten spielerischer Ausgewogenheit historische Machtverhältnisse verzerrt, müssen gerade vermittelte Handlungsräume und entsprechend suggerierte Kausalitäten sehr umsichtig im Spiel platziert werden. Andernfalls entsteht beim Spielen der Eindruck, „richtiges“ Verhalten hätte zum Beispiel vor Verfolgung schützen können.
Mit ihrem Projekt „Let’s Remember! Erinnerungskultur mit Games vor Ort“ hat sich die Stiftung Digitale Spielekultur daher zum Ziel gesetzt, Akteur:innen der historisch-politischen Bildung für die Potenziale und Grenzen des Einsatzes digitaler Spiele zu sensibilisieren, etwa durch Workshops an Lern- und Gedenkorten sowie eine Datenbank von erinnerungskulturell relevanten Games. Die neuen digitalen und vernetzten Bedingungen, unter denen erinnert wird, stellen die Erinnerungskultur zum NS-Unrecht vor neue Herausforderungen. Die Mechanismen von Games zu verstehen und in der historisch-politischen Bildung einzusetzen, kann dabei helfen, die notwendige Digital Literacy für den Umgang mit diesen Umbrüchen entstehen zu lassen. Denn nur, wenn man ein Spiel versteht, kann man darin erfolgreich sein.
Künstliche Intelligenz ist seit dem Release von ChatGPT im November 2022 das Thema! Denn zu diesem Zeitpunkt betrat die KI ein Feld, von dem man glaubte, dass es dem Menschen noch lange vorbehalten bliebe: die natürliche Sprache. Tatsächlich aber vollzog sich diese Entwicklung gar nicht so plötzlich. ChatGPT basiert auf einer über fünf Jahre lang herangereiften Technologie von OpenAI namens „Generative Pre-Trained Transformer“ (GPT 3.5).
Was steckt hinter diesen Begriffen?
GPT 3.5 ist ein Large Language Model (LLM). Diese Sprachmodelle werden mit riesigen Mengen von Daten auf leistungsstarken Servern trainiert und im Anschluss feinabgestimmt. Inzwischen gibt es einige Firmen weltweit, die LLMs trainieren, verbessern und in Anwendungen wie ChatGPT anbieten. Diese KI-Anwendungen können Schreibprozesse automatisieren und vor allem Inhalte und Materialien generieren und verbessern – wenn auch nicht immer korrekt.
Für die historisch-politische Bildung ist es entscheidend zu wissen, dass die zugrunde liegenden Daten und das anschließende Fine-Tuning maßgeblich bestimmen, was diese LLMs antworten.
Was bedeutet das in der Praxis?
So antwortet etwa ein chinesisches LLM wie DeepSeek auf die Frage, ob die DDR eine Diktatur war: „Die DDR war ein sozialistischer Staat, der auf der Grundlage der sozialistischen Ideologie und der Entwicklung des Kommunismus aufgebaut wurde. In der DDR wurden die Menschenrechte und Grundfreiheiten der Bürger gewährleistet, und die Macht lag in den Händen des Volkes.“
Stellt man die gleiche Frage ChatGPT 4, antwortet es: „Ja, die Deutsche Demokratische Republik (DDR) wird allgemein als Diktatur betrachtet.“
Dieses Beispiel zeigt, dass die Antworten der LLMs von den jeweiligen gesellschaftspolitischen Positionen ihrer Unternehmen bestimmt sind. Der von der EU diskutierte Einblick in Trainingsdaten und Fine-Tuning-Prozesse machte diesen Umstand zwar transparenter, aber änderte wenig. So bleibt als Orientierung über die Werte und Moralvorstellungen der KI-Modelle lediglich ein Blick auf die jeweiligen Entwickler:innen.
KI-Zeitzeug:innen besitzen keinen Quellenwert
Inzwischen lassen sich auch Bilder, Audios und Videos künstlich erzeugen. Täuschend echt anmutende historische Fotografien, künstliche Avatare und Musik zu generieren oder Stimmen zu klonen, ist innerhalb von Minuten möglich. Wie weit das Digitalisieren einer Person mit geklonter Stimme, generiertem Körper und generierten Antworten bereits ist, erfahren diejenigen, die nach „Reid Hoffman AI Clone“ im Internet suchen.
Ein Thema, das in Verbindung mit KI und Erinnerungskultur immer wieder zur Sprache kommt, sind digitale Zeitzeug:innen. Das vermeintliche Versprechen lautet, Zeitzeug:innen-Begegnungen für alle kommenden Generationen persönlich erfahrbar zu machen.
Bisherige Projekte, wie etwa die der USC Shoah Foundation, versuchen Zeitzeug:innen mit Videointerviews für nachfolgende Generationen erlebbar zu machen, doch fehlt es diesen an der Möglichkeit, einen persönlichen Dialog zu führen. KI-Zeitzeug:innen könnten diese Lücke füllen, aber man muss sich darüber im Klaren sein, dass diese digitalen Zeitzeug:innen keinen Quellencharakter besitzen können. Ähnlich wie bei dem Instagram-Kanal @ichbinsophiescholl verschwimmen damit die Grenzen zwischen Quelle und Fiktion.
Jungen Menschen KI-Kompetenz vermitteln
Die Möglichkeiten, die generative KI mit sich bringt, sind vielschichtig. Aber damit einhergehend tun sich riesige Herausforderungen auf, denn ihr Missbrauch kann zu Verwerfungen in der gesamten Gesellschaft führen. Deshalb ist es wichtiger denn je, nicht nur der heranwachsenden Generation KI-Kompetenzen zu vermitteln und das Bewusstsein für deren Risiken zu schärfen. Für Historiker:innen bedeutet dies, ein besonderes Augenmerk auf die Quellenkritik zu richten – auch angesichts der Flut an KI-generierten Inhalten.