Die rasante Entwicklung im Bereich der Künstlichen Intelligenz, insbesondere durch fortschrittliche Sprachmodelle wie GPT-3, eröffnet neue Möglichkeiten für die automatisierte Erzeugung von Texten auf nahezu menschlichem Niveau. Diese technologische Revolution verändert nicht nur die Art und Weise, wie Inhalte erstellt werden, sondern hat auch tiefgreifende Auswirkungen auf die Verbreitung und Manipulation von Informationen im Internet. Das 2021 vom Center for Security and Emerging Technology veröffentlichte Forschungspapier „Truth, Lies, and Automation: How Language Models Could Change Disinformation“ analysiert die Rolle von Sprachmodellen in modernen Desinformationskampagnen und zeigt auf, welche Risiken und Herausforderungen durch die Automatisierung von Lügen entstehen. Disinformation, also die gezielte Verbreitung von falschen oder irreführenden Informationen, war über Jahrtausende hinweg eine zutiefst menschliche Tätigkeit. Historisch gesehen haben Akteure komplexe Strategien verwendet, um gezielt Zwietracht zu säen, die öffentliche Meinung zu manipulieren und gesellschaftliche Spaltungen zu vertiefen.
Ein bekanntes Beispiel aus der jüngeren Vergangenheit ist die russische Einflussnahme auf die US-Präsidentschaftswahl, bei der hunderte Menschen gemeinsam operierten, um bestehenden gesellschaftlichen Unmut und Polarisierung auszunutzen. Traditionell erfolgte diese Arbeit durch Menschen, die Nachrichten, Kommentare und andere Inhalte eigenhändig verfassten. Doch mit der Einführung mächtiger KI-gestützter Sprachmodelle, die in der Lage sind, überzeugende und glaubwürdige Texte zu generieren, stellt sich die Frage, ob und wie diese Technologie den Prozess der Desinformation automatisieren und damit exponentiell ausweiten kann. GPT-3, entwickelt von OpenAI, ist eines der leistungsstärksten Sprachmodelle dieser Art. Es basiert auf einem enormen neuronalen Netzwerk, das mit etwa einer Billion Wörtern menschlichen Textes trainiert wurde und dadurch gelernt hat, Muster und Strukturen in der Sprache zu erkennen und neue Texte zu generieren, die wie von Menschen verfasst wirken.
Diese Fähigkeit hat bereits journalistisches Interesse geweckt, da GPT-3 auf Anfrage Artikel verfassen, Meinungsbeiträge nachbauen und sogar Internet-Memes kreieren kann. In der Studie wurde untersucht, ob diese Eigenschaften auch für die Generierung von Desinformation genutzt werden könnten. Grundlegend für die Effektivität von GPT-3 in disinformationellen Szenarien ist das Zusammenspiel von Mensch und Maschine. Sprachmodelle wie GPT-3 produzieren ihre besten Ergebnisse, wenn sie von menschlichen Operatoren sorgfältig angesteuert und redaktionell begleitet werden. Dies bedeutet, dass zwar nicht jeder Schritt menschlicher Arbeit ersetzt wird, aber die produktive Effizienz und Reichweite von disinformationellen Kampagnen durch den Einsatz der KI deutlich gesteigert werden kann.
So lassen sich moderate bis hochwertige Botschaften in viel größerem Maßstab erzeugen als zuvor. Die Untersuchung differenzierte sechs zentrale Aufgaben, die in modernen Desinformationskampagnen häufig vorkommen, um die Leistungsfähigkeit von GPT-3 zu bewerten. Dazu gehörten das Wiederholen und Variieren von Narrativen (beispielsweise das Leugnen des Klimawandels), die Ausarbeitung längerer Geschichten im Sinne einer bestimmten Weltsicht, das Umarbeiten von Nachrichtenartikeln aus neuer Perspektive, das Erfinden neuer Verschwörungserzählungen, das gezielte Ansprechen bestimmter Bevölkerungsgruppen und schließlich die direkte Beeinflussung von Meinungen. Auffällig ist, dass GPT-3 in vielen Fällen auch ohne große menschliche Eingriffe überzeugende und passende Texte liefern kann, insbesondere bei kürzeren und repetitiven Inhalten. Für komplexere Manipulationen und Persuasion ist die menschliche Kombination mit KI umso wichtiger.
Besonders problematisch ist die Fähigkeit von GPT-3, bestehende Vorurteile, Stereotype und sogar rassistische Sprache in seinen Texten zu reproduzieren, was speziell bei gezielten Angriffen auf bestimmte Zielgruppen die ethische Dimension verschärft. So kann eine „Mensch-Maschine“-Kooperation glaubwürdige und persuasive Botschaften in Minuten verfassen, die soziale Spaltungen vertiefen oder Handlungen anstoßen können. Die Studie zeigte sogar, dass bereits kurze, durch GPT-3 erstellte Botschaften politische Meinungen verändern konnten, indem sie gezielt auf die Einstellungen der Empfänger eingingen. Trotz dieser demonstrierten Fähigkeiten hat GPT-3 auch seine Grenzen. Das Modell ist etwa durch die Qualität und die Voreingenommenheiten der Trainingsdaten eingeschränkt und produziert nicht immer fokussierte oder kohärente Narrative.
In der Praxis können solche Unzulänglichkeiten jedoch eher vernachlässigt werden, da Desinformationskampagnen oft von der schieren Menge, Wiederholung und Emotionalisierung leben, nicht unbedingt von inhaltlicher Präzision. Die potenzielle Nutzung von Sprachmodellen für automatisierte Desinformationskampagnen ist technisch durchaus machbar, vor allem für besonders technisch versierte Akteure und Nationen wie China oder Russland. Stimmen Ressourcen und Absichten überein, könnten diese Staaten die nötige Rechenleistung aufbringen, um Modelle ähnlich oder noch leistungsfähiger als GPT-3 zu trainieren, und diese für großflächige Propaganda einzusetzen. Dies wirft eine Reihe von Sicherheitsfragen auf und erschwert die bisherige Abwehrstrategie, die hauptsächlich auf die Identifikation menschlicher Akteure setzt. Eine der größten Herausforderungen bei der Eindämmung automatisierter Desinformation ist, dass die maschinell generierten Texte kaum von menschlichen Inhalten zu unterscheiden sind, was eine Detektion allein auf Basis des Texthinhalts erschwert.
Effektivere Gegenmaßnahmen zielen daher auf die Infrastruktur, die zur Verbreitung der Botschaften genutzt wird, etwa Fake-Accounts in sozialen Netzwerken oder automatisierte Bot-Netzwerke. Durch die Zerstörung dieser Verbreitungswege könnten die Effekte der automatisierten Inhalte eingedämmt werden. Die Risiken der Automatisierung in Desinformationskampagnen eröffnen zudem eine neue Debatte über ethische Richtlinien und technische Beschränkungen im Umgang mit KI-Sprachmodellen. OpenAI und andere Entwickler arbeiten kontinuierlich daran, Missbrauchsmöglichkeiten zu begrenzen, beispielsweise durch Zugangsbeschränkungen und Monitoringsysteme. Dennoch bleibt die Unsicherheit groß, wie sich die Technologie weiterentwickeln wird und welche Gegenstrategien in einem globalen und vielschichtigen Informationsumfeld wirklich wirksam sein können.
Es ist wichtig festzuhalten, dass die Aussichten auf eine durch automatische Desinformation geprägte Zukunft zwar plausibel sind, aber keineswegs unausweichlich. Der menschliche Faktor bleibt entscheidend, sowohl im Hinblick auf den Willen zur Manipulation als auch bei der Fähigkeit zum Widerstand gegen Desinformation. Bildung, Medienkompetenz und institutionelle Resilienz sind daher Schlüsselfaktoren, um der beschleunigten Verbreitung von Lügen entgegenzuwirken. Die Entwicklung von Sprachmodellen wie GPT-3 stellt eine bedeutende technologische Veränderung dar, die das Potenzial hat, die Dynamiken von Wahrheit und Täuschung im digitalen Zeitalter grundlegend zu verschieben. Die Forschung des Center for Security and Emerging Technology zeigt deutlich, dass wir es nicht mehr nur mit manueller Desinformation zu tun haben, sondern zunehmend mit einer komplexen Mensch-Maschine-Kooperation, die neue Formen von Lügen und Manipulation ermöglicht.
Angesichts dieser Entwicklungen ist ein ganzheitlicher Ansatz notwendig, der technologische Innovation, politische Regulierung und gesellschaftliche Wachsamkeit vereint, um die Integrität öffentlicher Diskurse zu schützen.