Stablecoins

Wahrheit, Lügen und Automatisierung: Wie Sprachmodelle die Desinformation verändern könnten

Stablecoins
Truth Lies and Automation How Language Models Could Change Disinformation (2021)

Sprachmodelle wie GPT-3 revolutionieren nicht nur die Erstellung von Inhalten, sondern könnten auch die Verbreitung von Desinformation grundlegend verändern. Dieser Text beleuchtet die Chancen und Risiken der Automatisierung von Fehlinformationen durch KI und analysiert die Herausforderungen sowie mögliche Gegenmaßnahmen.

Die rasante Entwicklung im Bereich der Künstlichen Intelligenz, insbesondere durch fortschrittliche Sprachmodelle wie GPT-3, eröffnet neue Möglichkeiten für die automatisierte Erzeugung von Texten auf nahezu menschlichem Niveau. Diese technologische Revolution verändert nicht nur die Art und Weise, wie Inhalte erstellt werden, sondern hat auch tiefgreifende Auswirkungen auf die Verbreitung und Manipulation von Informationen im Internet. Das 2021 vom Center for Security and Emerging Technology veröffentlichte Forschungspapier „Truth, Lies, and Automation: How Language Models Could Change Disinformation“ analysiert die Rolle von Sprachmodellen in modernen Desinformationskampagnen und zeigt auf, welche Risiken und Herausforderungen durch die Automatisierung von Lügen entstehen. Disinformation, also die gezielte Verbreitung von falschen oder irreführenden Informationen, war über Jahrtausende hinweg eine zutiefst menschliche Tätigkeit. Historisch gesehen haben Akteure komplexe Strategien verwendet, um gezielt Zwietracht zu säen, die öffentliche Meinung zu manipulieren und gesellschaftliche Spaltungen zu vertiefen.

Ein bekanntes Beispiel aus der jüngeren Vergangenheit ist die russische Einflussnahme auf die US-Präsidentschaftswahl, bei der hunderte Menschen gemeinsam operierten, um bestehenden gesellschaftlichen Unmut und Polarisierung auszunutzen. Traditionell erfolgte diese Arbeit durch Menschen, die Nachrichten, Kommentare und andere Inhalte eigenhändig verfassten. Doch mit der Einführung mächtiger KI-gestützter Sprachmodelle, die in der Lage sind, überzeugende und glaubwürdige Texte zu generieren, stellt sich die Frage, ob und wie diese Technologie den Prozess der Desinformation automatisieren und damit exponentiell ausweiten kann. GPT-3, entwickelt von OpenAI, ist eines der leistungsstärksten Sprachmodelle dieser Art. Es basiert auf einem enormen neuronalen Netzwerk, das mit etwa einer Billion Wörtern menschlichen Textes trainiert wurde und dadurch gelernt hat, Muster und Strukturen in der Sprache zu erkennen und neue Texte zu generieren, die wie von Menschen verfasst wirken.

Diese Fähigkeit hat bereits journalistisches Interesse geweckt, da GPT-3 auf Anfrage Artikel verfassen, Meinungsbeiträge nachbauen und sogar Internet-Memes kreieren kann. In der Studie wurde untersucht, ob diese Eigenschaften auch für die Generierung von Desinformation genutzt werden könnten. Grundlegend für die Effektivität von GPT-3 in disinformationellen Szenarien ist das Zusammenspiel von Mensch und Maschine. Sprachmodelle wie GPT-3 produzieren ihre besten Ergebnisse, wenn sie von menschlichen Operatoren sorgfältig angesteuert und redaktionell begleitet werden. Dies bedeutet, dass zwar nicht jeder Schritt menschlicher Arbeit ersetzt wird, aber die produktive Effizienz und Reichweite von disinformationellen Kampagnen durch den Einsatz der KI deutlich gesteigert werden kann.

So lassen sich moderate bis hochwertige Botschaften in viel größerem Maßstab erzeugen als zuvor. Die Untersuchung differenzierte sechs zentrale Aufgaben, die in modernen Desinformationskampagnen häufig vorkommen, um die Leistungsfähigkeit von GPT-3 zu bewerten. Dazu gehörten das Wiederholen und Variieren von Narrativen (beispielsweise das Leugnen des Klimawandels), die Ausarbeitung längerer Geschichten im Sinne einer bestimmten Weltsicht, das Umarbeiten von Nachrichtenartikeln aus neuer Perspektive, das Erfinden neuer Verschwörungserzählungen, das gezielte Ansprechen bestimmter Bevölkerungsgruppen und schließlich die direkte Beeinflussung von Meinungen. Auffällig ist, dass GPT-3 in vielen Fällen auch ohne große menschliche Eingriffe überzeugende und passende Texte liefern kann, insbesondere bei kürzeren und repetitiven Inhalten. Für komplexere Manipulationen und Persuasion ist die menschliche Kombination mit KI umso wichtiger.

Besonders problematisch ist die Fähigkeit von GPT-3, bestehende Vorurteile, Stereotype und sogar rassistische Sprache in seinen Texten zu reproduzieren, was speziell bei gezielten Angriffen auf bestimmte Zielgruppen die ethische Dimension verschärft. So kann eine „Mensch-Maschine“-Kooperation glaubwürdige und persuasive Botschaften in Minuten verfassen, die soziale Spaltungen vertiefen oder Handlungen anstoßen können. Die Studie zeigte sogar, dass bereits kurze, durch GPT-3 erstellte Botschaften politische Meinungen verändern konnten, indem sie gezielt auf die Einstellungen der Empfänger eingingen. Trotz dieser demonstrierten Fähigkeiten hat GPT-3 auch seine Grenzen. Das Modell ist etwa durch die Qualität und die Voreingenommenheiten der Trainingsdaten eingeschränkt und produziert nicht immer fokussierte oder kohärente Narrative.

In der Praxis können solche Unzulänglichkeiten jedoch eher vernachlässigt werden, da Desinformationskampagnen oft von der schieren Menge, Wiederholung und Emotionalisierung leben, nicht unbedingt von inhaltlicher Präzision. Die potenzielle Nutzung von Sprachmodellen für automatisierte Desinformationskampagnen ist technisch durchaus machbar, vor allem für besonders technisch versierte Akteure und Nationen wie China oder Russland. Stimmen Ressourcen und Absichten überein, könnten diese Staaten die nötige Rechenleistung aufbringen, um Modelle ähnlich oder noch leistungsfähiger als GPT-3 zu trainieren, und diese für großflächige Propaganda einzusetzen. Dies wirft eine Reihe von Sicherheitsfragen auf und erschwert die bisherige Abwehrstrategie, die hauptsächlich auf die Identifikation menschlicher Akteure setzt. Eine der größten Herausforderungen bei der Eindämmung automatisierter Desinformation ist, dass die maschinell generierten Texte kaum von menschlichen Inhalten zu unterscheiden sind, was eine Detektion allein auf Basis des Texthinhalts erschwert.

Effektivere Gegenmaßnahmen zielen daher auf die Infrastruktur, die zur Verbreitung der Botschaften genutzt wird, etwa Fake-Accounts in sozialen Netzwerken oder automatisierte Bot-Netzwerke. Durch die Zerstörung dieser Verbreitungswege könnten die Effekte der automatisierten Inhalte eingedämmt werden. Die Risiken der Automatisierung in Desinformationskampagnen eröffnen zudem eine neue Debatte über ethische Richtlinien und technische Beschränkungen im Umgang mit KI-Sprachmodellen. OpenAI und andere Entwickler arbeiten kontinuierlich daran, Missbrauchsmöglichkeiten zu begrenzen, beispielsweise durch Zugangsbeschränkungen und Monitoringsysteme. Dennoch bleibt die Unsicherheit groß, wie sich die Technologie weiterentwickeln wird und welche Gegenstrategien in einem globalen und vielschichtigen Informationsumfeld wirklich wirksam sein können.

Es ist wichtig festzuhalten, dass die Aussichten auf eine durch automatische Desinformation geprägte Zukunft zwar plausibel sind, aber keineswegs unausweichlich. Der menschliche Faktor bleibt entscheidend, sowohl im Hinblick auf den Willen zur Manipulation als auch bei der Fähigkeit zum Widerstand gegen Desinformation. Bildung, Medienkompetenz und institutionelle Resilienz sind daher Schlüsselfaktoren, um der beschleunigten Verbreitung von Lügen entgegenzuwirken. Die Entwicklung von Sprachmodellen wie GPT-3 stellt eine bedeutende technologische Veränderung dar, die das Potenzial hat, die Dynamiken von Wahrheit und Täuschung im digitalen Zeitalter grundlegend zu verschieben. Die Forschung des Center for Security and Emerging Technology zeigt deutlich, dass wir es nicht mehr nur mit manueller Desinformation zu tun haben, sondern zunehmend mit einer komplexen Mensch-Maschine-Kooperation, die neue Formen von Lügen und Manipulation ermöglicht.

Angesichts dieser Entwicklungen ist ein ganzheitlicher Ansatz notwendig, der technologische Innovation, politische Regulierung und gesellschaftliche Wachsamkeit vereint, um die Integrität öffentlicher Diskurse zu schützen.

Automatischer Handel mit Krypto-Geldbörsen Kaufen Sie Ihre Kryptowährung zum besten Preis

Als Nächstes
 Ethereum price finally ‘breaking out,’ data suggests — Is $3K ETH next?
Donnerstag, 12. Juni 2025. Ethereum im Aufwärtstrend: Steht die 3.000-Dollar-Marke kurz bevor?

Der Ethereum-Preis zeigt starke Anzeichen für eine nachhaltige Erholung. Mit einer steigenden Netzwerkaktivität und wachsendem Total Value Locked (TVL) deuten technische Analysen auf eine mögliche Rally in Richtung 3.

BitMEX Launches Market May-hem Trading Competition with a 310,000 USDT Prize Pool
Donnerstag, 12. Juni 2025. BitMEX startet Market May-hem Trading Wettbewerb mit einem Preispool von 310.000 USDT

Die neue Market May-hem Trading Competition von BitMEX bietet Krypto-Tradern eine spannende Möglichkeit, mit einem Gesamtpreisgeld von 310. 000 USDT ihr Handelsgeschick unter Beweis zu stellen.

The role of crypto wallets: navigating the digital financial landscape
Donnerstag, 12. Juni 2025. Die Rolle von Krypto-Wallets: Orientierung im digitalen Finanzdschungel

Krypto-Wallets sind das Herzstück der Verwaltung digitaler Vermögenswerte und bieten sichere Lösungen für den Umgang mit Kryptowährungen. Ihr Verständnis und die richtige Wahl sind entscheidend für die Sicherheit und Flexibilität im zunehmend digitalisierten Finanzsektor.

Santander to shutter 18 branches in US
Donnerstag, 12. Juni 2025. Santander schließt 18 Filialen in den USA – Trend zur Digitalisierung prägt die Zukunft des Bankwesens

Santander reagiert auf den Wandel im Bankensektor und die veränderten Kundenbedürfnisse in den USA mit der Schließung von 18 Filialen. Der Fokus liegt zunehmend auf digitalen Dienstleistungen, um den modernen Anforderungen gerecht zu werden und effiziente Lösungen anzubieten.

EU seeks feedback on merger rules revamp amid pressure from businesses
Donnerstag, 12. Juni 2025. EU startet öffentliche Konsultation zur Überarbeitung der Fusionsregeln – Innovation und Investition im Fokus

Die Europäische Kommission initiiert eine öffentliche Konsultation zur Anpassung der Fusionskontrollregeln. Dabei rückt das Gleichgewicht zwischen Wettbewerbsschutz, Innovation und Investitionsanreizen ins Zentrum der Diskussion.

PayPal and dLocal expand payments services in emerging markets
Donnerstag, 12. Juni 2025. PayPal und dLocal erweitern Zahlungsdienste in Schwellenländern: Neue Chancen für internationalen Handel

PayPal und dLocal intensivieren ihre Partnerschaft, um Unternehmen den Zugang zu über 40 neuen Schwellenmärkten zu ermöglichen. Durch innovative Lösungen im Zahlungsverkehr schaffen sie effizientere, lokale Zahlungsmethoden und fördern so das globale Wachstum von Unternehmen in Lateinamerika, EMEA und APAC.

Cetera integrates Jump’s AI solution to streamline advisor operations
Donnerstag, 12. Juni 2025. Wie Cetera mit Jumps KI-Lösung die Effizienz von Finanzberatern revolutioniert

Die Integration der KI-Plattform von Jump durch Cetera Financial Group optimiert administrative Abläufe, fördert die Einhaltung von Compliance-Vorgaben und ermöglicht Beratern, sich stärker auf Kundengespräche und Geschäftsstrategien zu konzentrieren.