Im ersten Quartal des Jahres 2025 hat Meta, weltweit bekannt als Betreiber von Facebook und Instagram, bedeutende Schritte unternommen, um koordinierte Einflussoperationen zu unterbinden, die sich gezielt gegen Nutzer in Rumänien, Aserbaidschan und Taiwan richteten. Diese verdeckten Kampagnen wurden von ausländischen Akteuren initiiert, die über gefälschte Profile und manipulierte Inhalte versuchten, die öffentliche Meinung zu beeinflussen und politische Diskurse zu steuern. Die Aktivitäten stammen dabei aus verschiedenen Ländern, darunter Iran, China und Rumänien selbst, was die globale Dimension und Komplexität digitaler Desinformationsstrategien verdeutlicht. Die Strategie der Täuschung beruhte im Wesentlichen darauf, ein Netzwerk von falschen Accounts, sogenannten Fake-Personas, zu schaffen, die als lokale Bürgerinnen und Bürger auftraten. Im Fall von Rumänien umfasste das Netzwerk 658 Facebook-Accounts, 14 Facebook-Seiten und zwei Instagram-Accounts.
Diese Profile posteten überwiegend in rumänischer Sprache und verbreiteten Inhalte zu Sport, Reisen und lokalen Nachrichten, um Authentizität zu simulieren und später politischen Einfluss zu nehmen. Besonders auffällig war, dass eine der Seiten etwa 18.300 Follower hatte, was eine beachtliche Reichweite darstellt. Die Betreiber der Desinformationskampagne nutzten verschiedene Plattformen wie TikTok, X (ehemals Twitter) und YouTube, neben den eigenen Meta-Diensten, um ihre Reichweite zu maximieren. Durch das Kommentieren von Beiträgen bekannter Politiker und Nachrichtenorganisationen versuchten sie, ihre Fake-Profile als glaubwürdige Informationsquellen zu etablieren.
Trotz dieser Maßnahmen blieben die meisten Kommentare weitgehend unbeachtet von echten Nutzergruppen, was jedoch keine Abschreckung für die Täter darstellte. Ein äußerst relevantes Merkmal dieser Netzwerke war der Einsatz ausgeklügelter Sicherheitspraktiken, auch bekannt als Operation Security (OpSec). So verwendeten die Täter Proxy-Server und verschiedene IP-Verschleierungstechniken, um ihre wahre Herkunft zu kaschieren und Identifikationsversuche zu erschweren. Solche Methoden verdeutlichen, wie professionell und systematisch diese Manipulationskampagnen mittlerweile agieren. Zudem wurde gezielt über aktuelle Ereignisse berichtet, wie etwa die Wahlen in Rumänien, um das Vertrauen der Nutzer auszunutzen und Einfluss auf politische Prozesse zu nehmen.
Bei der zweiten bedeutenden Einflussoperation, die Meta stoppen konnte, handelte es sich um eine iranisch gesteuerte Kampagne mit Fokus auf aserbaidschanischsprachige Zielgruppen in Aserbaidschan und der Türkei. Hier waren 17 Facebook-Accounts, 22 Facebook-Seiten und 21 Instagram-Profile involviert. Das Ziel war es, über ähnlich wie in Rumänien aktivierte Fake-Profile gesellschaftliche Debatten zu prägen – mit thematischem Fokus auf den Nahost-Konflikt, insbesondere die Israel-Hamas-Auseinandersetzung, sowie auf Kritik an der US-amerikanischen Politik, darunter Präsident Joe Biden. Interessanterweise legten diese Accounts ein weibliches Frontbild an, indem sie sich als Journalistinnen und pro-palästinensische Aktivistinnen ausgaben. Die Kampagne setzte dabei beliebte Hashtags wie #palestine, #gaza oder #starbucks ein, um virale Aufmerksamkeit zu generieren und sich in bestehende Online-Diskussionen einzuschleusen.
Besonders heikel war die Verwendung künstlicher Interaktionen, indem die Konten ihre eigenen Beiträge kommentierten, um deren Popularität künstlich zu erhöhen. Der Ursprung dieser Kampagne wird der bekannten Bedrohungsgruppe Storm-2035 zugeschrieben, die bereits zuvor von Microsoft im Zusammenhang mit iranischen Einflussoperationen gegen US-Wählergruppen beschrieben wurde. Storm-2035 nutzt gezielte Polarisierung, etwa zu Themen wie LGBTQ-Rechte und den israelisch-palästinensischen Konflikt, um gesellschaftlichen Zwist zu schüren. Selbst OpenAI verschärfte daraufhin seine Sicherheitsmaßnahmen, nachdem bekannt wurde, dass Storm-2035 ChatGPT-Accounts für die Generierung manipulativer Inhalte missbrauchte. Die dritte große Einflussoperation, die Meta aufdeckte, stammt aus China und richtete sich gegen Nutzer in Myanmar, Taiwan und Japan.
Hier wurden auf Facebook 157 Accounts, 19 Seiten, eine Gruppe sowie 17 Instagram-Profile stillgelegt. Auffällig ist, dass die Täter KI-Technologien verwendeten, um Profilbilder zu generieren und so täuschend echte Fake-Accounts zu erstellen, ein sogenanntes "Account Farming". Die chinesischen Netzwerke bestehen aus mehreren Teilclustern, die Inhalte hauptsächlich in den Sprachen Englisch, Burmesisch, Mandarin und Japanisch verbreiteten. Dabei fokussierten sie sich auf aktuelle Nachrichten und gesellschaftspolitische Themen in den jeweiligen Zielländern. In Myanmar wurden etwa Beiträge veröffentlicht, die ein Ende des bewaffneten Konflikts forderten, zugleich jedoch zivilen Widerstand kritisierten und die Militärjunta unterstützten.
In Japan setzten die Kampagnen vor allem auf Kritik an der japanischen Regierung und deren militärische Zusammenarbeit mit den USA, was potenziell nationalistische Gefühle und anti-amerikanische Einstellungen verstärken sollte. In Taiwan wiederum wurden gezielt Behauptungen über Korruption von Politikern und Militärs gestreut, begleitet von Facebook-Seiten, die angeblich anonyme Beiträge veröffentlichten. Dies diente dem Ziel, eine scheinbar authentische Debatte zu suggerieren und das Vertrauen der Bevölkerung in politische Institutionen zu untergraben. Diese Erkenntnisse werfen ein Schlaglicht auf die zunehmende Komplexität und internationale Vernetzung von digitalen Einflusskampagnen. Die Täter nutzen nicht nur die Möglichkeiten sozialer Netzwerke aus, sondern kombinieren technische Täuschung mit psychologischer Manipulation.
Die Verbreitung über verschiedene Plattformen erschwert zudem die Erkennung und Bekämpfung dieser Aktivitäten. Für Nutzer und Gesellschaften ist es daher essenziell, digitale Medienkompetenz zu stärken und kritisch gegenüber Informationen aus dem Internet zu sein. Die Warnungen von Meta und anderen Technologieunternehmen verdeutlichen, dass Fake-Profile und manipulierte Inhalte keine harmlose Erscheinung sind, sondern gezielte politische und gesellschaftliche Folgen haben können. Unternehmen wie Meta investieren massiv in Erkennungstechnologien, KI-gestützte Analyseverfahren und enge Kooperationen mit staatlichen Stellen sowie unabhängigen Experten, um solche Einflussoperationen frühzeitig zu identifizieren und zu stoppen. Dennoch bleibt es ein stetiger Wettlauf gegen immer raffiniertere Täuschungsversuche, die sich dynamisch weiterentwickeln.
Die vorliegenden Fälle zeigen auch, dass Desinformation nicht nur in Ländern mit autokratischen Regierungen stattfindet, sondern auch innerstaatlich und grenzüberschreitend orchestriert wird. Daher ist eine internationale Zusammenarbeit im Bereich Cybersicherheit und Medienethik von großer Bedeutung, um die Integrität demokratischer Prozesse zu schützen und die Gesellschaft gegen digitale Manipulation zu wappnen. Abschließend lässt sich sagen, dass die Bekämpfung von Einflussoperationen wie den von Meta aufgedeckten nicht nur technische Herausforderungen mit sich bringt, sondern auch eine gesamtgesellschaftliche Aufgabe darstellt. Aufklärung, Bildung und ein gesundes digitales Bewusstsein sind der beste Schutz gegen die wachsende Bedrohung durch Fake-Personas und Desinformation im digitalen Zeitalter.