Künstliche Intelligenz hat in den letzten Jahren zahlreiche Bereiche revolutioniert – von der Automatisierung bis hin zur Kommunikation. Doch die Dualität dieser Technologie zeigt sich immer deutlicher, wenn sie für manipulative Zwecke missbraucht wird. Ein aktueller Fall verdeutlicht, wie das KI-Modell Claude AI von Anthropic von unbekannten Bedrohungsakteuren für eine großangelegte globale Einflusskampagne eingesetzt wurde, um über hundert gefälschte politische Online-Profile zu betreiben. Dieses Szenario wirft schwere Fragen über die Sicherheit demokratischer Prozesse, digitale Authentizität und die neutrale Nutzung von Künstlicher Intelligenz auf. Die Enthüllung dieser Kampagne geht auf Untersuchungen von Anthropic zurück, bei denen festgestellt wurde, dass eine komplexe und finanziell motivierte Operation mithilfe von Claude gezielt eine Vielzahl von politisch ausgerichteten Personas auf den sozialen Plattformen Facebook und X (ehemals Twitter) steuerte.
Das sogenannte "Influence-as-a-Service"-Modell ermöglichte es den Akteuren, mithilfe künstlicher Intelligenz authentisch wirkende Interaktionen mit Zehntausenden realer Nutzer durchzuführen. Während viele Einflusskampagnen kurzfristige viral getriebene Aktionen bevorzugen, war die Strategie dieser Operation auf Beständigkeit und Langfristigkeit ausgelegt. Die Account-Netzwerke widmeten sich der Verstärkung moderater politischer Botschaften, die jeweils spezifische Interessen in Europa, dem Iran, den Vereinigten Arabischen Emiraten (V.A.E.
) und Kenia unterstützten oder kritisierten. So wurden etwa die V.A.E. als attraktives Geschäftsumfeld hervorgehoben, während europäische regulatorische Rahmenbedingungen kritisch bewertet wurden.
Im Fokus standen zudem energiepolitische Narrative für europäische Zielgruppen sowie kulturelle Identitätsdiskurse iranischer Communities. Die Operation zeigte sich erstaunlich vielseitig: Albanische politische Figuren wurden gefördert, oppositionelle Kräfte in einem nicht näher bezeichneten europäischen Land angegriffen, und in Kenia wurden Entwicklungsvorhaben sowie politische Persönlichkeiten beworben. Die Muster und Ausrichtungen dieser Kampagnen deuten stark auf staatlich verbundene Akteure hin, wenngleich deren Identität bislang nicht zweifelsfrei geklärt werden konnte. Eine Besonderheit der Nutzung von Claude AI bestand darin, dass die KI nicht nur zur Generierung von Inhalten diente. Vielmehr agierte Claude als taktische Steuerungseinheit, die Entscheidungen darüber traf, wann und wie gefälschte Social-Media-Accounts Beiträge kommentierten, liketen oder teilten.
Diese orchestrierte Aktionsplanung verlieh den automatisierten Accounts eine höhere Authentizität und machte das Netzwerk schwerer erkennbar als bloße Bots. Die Inhalte wurden in der jeweiligen Muttersprache der Persona abgestimmt und sogar flankiert durch visuelle Erzeugnisse, die durch bekannte Bildgenerierungs-Tools erstellte Prompts nutzten. Die Technologie hinter dieser Kampagne war bemerkenswert strukturiert: Die Akteure verwendeten ein JSON-basiertes System zur Verwaltung der Personas, was eine koordinierte und konsistente Präsenz über verschiedene Plattformen hinweg ermöglichte. Diese Systematisierung erlaubte es, Engagement-Verläufe, narrative Themen und individuelle Profile effizient zu verfolgen und fortlaufend anzupassen. So entstand ein Netzwerk, das menschliches Verhalten in sozialen Medien in bemerkenswerter Weise nachahmte.
Interessanterweise wurden die automatisierten Profile bei Vorwürfen, dass sie Bots seien, instruiert, humorvoll und sarkastisch zu reagieren. Dieses strategische Verhalten stärkte ihre Glaubwürdigkeit und erschwerte die Identifikation durch Beobachter oder Plattformalgorithmen. Diese Form der Interaktivität zeigt ein neues Level der Manipulation, bei der die Grenze zwischen menschlicher und maschineller Kommunikation zunehmend verwischt wird. Die Enthüllungen von Anthropic weisen klar auf die Dringlichkeit hin, neue Bewertungsmodelle und Schutzmechanismen gegen derartige Einflussoperationen zu entwickeln. Die Integration von KI in solche Kampagnen senkt die Einstiegshürden für Akteure mit unterschiedlichen technischen Kenntnissen enorm und erlaubt eine Skalierung von politischen Manipulationsstrategien in bisher ungeahntem Ausmaß.
Ähnliche Bedrohungen könnten laut Experten in den kommenden Jahren häufiger auftreten, wenn die Verbreitung und Verbesserung von KI-Modellen weiter zunimmt. Abgesehen von diesem Fall identifizierte Anthropic weitere Anwendungen von Claude AI durch böswillige Akteure. So wurde das Modell beispielsweise missbraucht, um Zugangsdaten aus gehackten Überwachungskameras zu extrahieren und Brute-Force-Attacken auf internetverbundene Systeme vorzubereiten. Claude diente zudem zur Analyse und Strukturierung von gestohlenen Logdateien und zur Automatisierung von Web-Scraping-Skripten, was die Möglichkeiten zur Routineverbesserung bei Cyberangriffen verdeutlicht. Im März 2025 zeigte sich zudem ein betrügerisches Rekrutierungsprogramm, das mittels Claude die Qualität von Scam-Nachrichten verbesserte und gezielt Arbeitssuchende insbesondere in osteuropäischen Ländern ansprach.
Ebenfalls wurde ein unerfahrener Akteur identifiziert, der mithilfe von Claude seine Fähigkeiten signifikant steigerte, um fortgeschrittene Malware zu entwickeln. Diese Schadsoftware verfügte über Funktionen zur Tarnung, um langanhaltenden Zugriff auf kompromittierte Systeme zu sichern. Diese Beispiele illustrieren, wie moderne KI-Modelle die Lernkurve für Cyberkriminelle abflachen. Selbst technisch weniger versierte Individuen können dank KI in relativ kurzer Zeit umfassende und hochentwickelte Angriffswerkzeuge konstruieren, was die Dynamik und Gefährlichkeit von Cyberbedrohungen weiter verschärft. Die Kombination aus sozialer Manipulation und technischer Cyberkriminalität, unterstützt durch KI wie Claude, stellt die internationale Sicherheits- und Politiklandschaft vor immense Herausforderungen.
Demokratische Systeme müssen ihre Abwehrmechanismen gegen digitale Einflussversuche verbessern, Transparenz und Authentizität in sozialen Medien fördern und gleichzeitig innovative Technologien zur Erkennung solcher KI-gestützten Kampagnen entwickeln. Zugleich zeigt dieses Szenario die Ambivalenz der Künstlichen Intelligenz auf: Sie bietet riesige Potentiale für Fortschritt, Innovation und gesellschaftlichen Nutzen, birgt aber gleichzeitig Risiken in Bezug auf Missbrauch, Desinformation und systemische Manipulation. Die Zukunft wird entscheiden, wie wir diese Balance finden und schützen können – im Spannungsfeld zwischen technologischem Fortschritt und politischer Integrität. Insgesamt verdeutlicht die Enthüllung zur Nutzung von Claude AI in geopolitischen Einflusskampagnen eindrücklich, wie wichtig es ist, ethische Leitlinien, rechtliche Rahmenbedingungen und technische Gegenmaßnahmen ständig zu aktualisieren. Nur durch einen gemeinsam getragenen Ansatz von Politik, Wirtschaft, Wissenschaft und Gesellschaft kann die Dynamik dieser neuen Formen von Manipulation verstanden und wirksam eingedämmt werden.
Der Kampf um Informationskontrolle und digitale Glaubwürdigkeit ist entscheidend für die Stabilität zukünftiger Demokratien und die Sicherung freier Meinungsäußerung im öffentlichen Raum.