Seit der Veröffentlichung von ChatGPT im November 2022 hat sich die Nutzung großer Sprachmodelle (LLMs) zu einem festen Bestandteil unseres digitalen Alltags entwickelt. Menschen verwenden diese Systeme, um Texte zu generieren, die von E-Mails über Blogbeiträge bis hin zu kreativer Literatur reichen. Doch mit der Ausbreitung solcher Modelle wächst auch die Sorge bei Wissenschaftlern und Entwicklern über ein tiefgreifendes Problem: den sogenannten Modellkollaps. Dieses Phänomen könnte die Leistungsfähigkeit zukünftiger KI-Systeme erheblich beeinträchtigen und stellt eine Herausforderung für die gesamte Branche dar. Der Begriff Modellkollaps beschreibt die Situation, in der ein KI-Modell zunehmend schlechter wird, weil seine Trainingsdaten mehr und mehr aus automatisch generierten Texten bestehen – also aus Texten, die von KI-Systemen selbst erstellt wurden, anstatt von Menschen.
Das kann dazu führen, dass sich die statistische Verteilung der Wörter und Phrasen in den Datensätzen von der natürlichen, von Menschen erstellten Sprache entfernt. Ein Modell, das auf solchen Daten trainiert wird, beginnt folglich, Inhalte zu erzeugen, die immer weniger sinnvoll und glaubwürdig sind. Große Sprachmodelle wie GPT arbeiten durch die Analyse riesiger Mengen an Textdaten, um Wahrscheinlichkeiten für Wörter oder Wortbausteine in einem gegebenen Kontext zu erlernen. Sie bestimmen, wie oft bestimmte Wörter in Kombination mit anderen vorkommen, wodurch sie anschließend neue Texte erzeugen können, die menschlicher Sprache stark ähneln. Das Grundprinzip basiert auf der Annahme, dass die Trainingsdaten die reale Welt und deren sprachliche Vielfalt möglichst präzise widerspiegeln.
Sobald aber maschinell generierte Texte einen signifikanten Anteil der Daten ausmachen, verschiebt sich diese Verteilung von Token, was die Modellgüte beeinträchtigen kann. Fachleute wie Sanmi Koyejo von der Stanford University betrachten Modellkollaps als ein statistisches Problem. Wenn die Trainingsdaten nicht mehr dem tatsächlichen menschlichen Sprachgebrauch entsprechen, gerät das Modell aus der Bahn. Die dabei entstehenden Texte könnten dann zunehmend zufällig und wenig kohärent wirken – das Prinzip von „Garbage in, garbage out“ gewinnt hier an Bedeutung. Yarin Gal von der Universität Oxford weist darauf hin, dass dieses Problem dadurch verschärft wird, dass generierte Daten immer nur ein Teil der ursprünglichen Datenmenge repräsentieren.
Mit jeder Iteration gehen seltener auftretende Ereignisse oder Sprachmuster verloren, was letztlich zu einer Verengung des Ausdrucks spektrums führt. Das Phänomen ist nicht auf Textmodelle beschränkt. Auch andere generative Modelle, etwa solche zur Bilderzeugung wie Dall-E, können darunter leiden. Ebenso betrifft es Varianten wie variationale Autoencoder oder Gaussian Mixture Modelle, die in einer Vielzahl von Anwendungen von Kundensegmentierung bis zu genetischer Analyse eingesetzt werden. Ein entscheidender Faktor ist die iterative Trainingsmethode, bei der das Modell auf den Ausgaben vorheriger Versionen aufbaut.
Wird dabei eine Rückkopplungsschleife aus maschinell erzeugten Daten generiert, potenziert sich die Gefahr des Modellkollapses. Es ist jedoch wichtig anzumerken, dass einzelne Einsätze von synthetischen Daten, etwa zur Ergänzung seltener medizinischer Bilddaten, nicht dasselbe Risiko bergen. Das Problem liegt vor allem in der sukzessiven und unkontrollierten Nutzung erzeugter Daten als stetiger Bestandteil neuer Trainingsdaten. In der Praxis wird der Modellkollaps durch eine Mischung aus menschlichen und synthetischen Texten abgemildert. Da viele automatisch erzeugte Inhalte nicht in vollem Umfang ins Netz gelangen und menschliche Beiträge weiterhin die Basis bilden, kommt es eher zu einer Datenakkumulation als zu einem vollständigen Austausch.
Obwohl dadurch der Verfall der Datenqualität abgemildert wird, führt die Vermischung auch zu einer verlangsamten Leistungssteigerung der Modelle. Yunzhen Feng vom Center for Data Science der New York University hebt hervor, dass dadurch der Ressourcenbedarf für Verbesserungen steigt, denn um das gleiche Leistungsniveau zu erreichen, sind mehr Daten und Rechenleistung erforderlich. Ein großes Problem für Entwickler besteht auch darin, synthetische von menschlichen Texten zu unterscheiden. Die Erkennung automatisch erzeugter Inhalte gestaltet sich als äußerst schwierig, da existierende Algorithmen dafür noch nicht ausgereift sind. Ohne eine sichere Identifikation wird es umso herausfordernder, die Trainingsdaten gezielt zu kuratieren und den Modellkollaps einzudämmen.
Die Qualitätssicherung und gezielte Kuratierung der synthetischen Daten werden daher als wichtige Gegenmaßnahmen gesehen. Nicht jeder generierte Text wird ins Internet gestellt, sodass bereits eine natürliche Selektion erfolgt. Darüber hinaus arbeiten Forscher an Methoden, bei denen KIs selbst die Qualität ihrer Texte bewerten und nur die besten Ausgaben in den Trainingspool gelangen. Dies ähnelt dem Verfahren des Reinforcement Learnings mit menschlichem Feedback (RLHF), bei dem Modelle durch Rückmeldungen zu optimalen Resultaten angeleitet werden. Die Kombination verschiedener Modelle zur Bewertung und die Einbeziehung menschlicher Gutachter erhöhen die Wirksamkeit dieses Ansatzes maßgeblich.
Neben der unmittelbaren Qualitätsproblematik stellt sich auch die Frage, wie die Verknappung neuer, menschlich erzeugter Trainingsdaten die Entwicklung künftiger Modelle beeinflussen wird. Forscher beim Epoch AI Institut prognostizieren, dass zwischen 2026 und 2032 der weltweite Vorrat an neuem, originärem Textmaterial zur KI-Ausbildung erschöpft sein könnte. Sollte dies eintreten, würde die weitere Entwicklung von Sprachmodellen ins Stocken geraten. Dabei könnten gezielt hochwertig kuratierte synthetische Daten den Weg zu einer neuen Form der Verbesserung ebnen – eine Art positiver Kreislauf, bei dem Modelle immer bessere Daten erzeugen und daraus wiederum leistungsfähigere Nachfolgemodelle entstehen. Eine Herausforderung im Kontext des Modellkollapses liegt außerdem in der möglichen Verzerrung und Diskriminierung von Minderheiten.
Da die Verteilung synthetischer Daten tendenziell die dominierenden Gruppen widerspiegelt und besonders seltene Sprachmuster verloren gehen, droht eine Form des gesellschaftlichen Ausschlusses oder der sprachlichen Auslöschung weniger repräsentierter Gruppen. Deyi Yang von Stanford weist darauf hin, dass Forschungsarbeiten zu diesem Thema noch unzureichend sind und die mangelnde Transparenz bei Trainingsdaten die Analyse erschwert. Ungeachtet dieser Risiken sieht Yarin Gal den Modellkollaps nicht als unmittelbar drohendes Desaster, sondern als eine wichtige Herausforderung, die Entwickler und Unternehmen im Blick behalten müssen. Eine bewusste und kontrollierte Datenakquise und Trainingspraxis kann verhindern, dass KI-Modelle unmerklich auf ihre eigenen automatischen Texte zurückgreifen und so in eine Abwärtsspirale geraten. Der Modellkollaps bei GPT und ähnlichen LLMs offenbart, wie komplex und empfindlich die Entwicklung künstlicher Intelligenz wirklich ist.