Meta, der Mutterkonzern von Facebook und Instagram, befindet sich erneut inmitten einer heftigen Kontroverse um Datenschutz und die Nutzung von europäischen Nutzerdaten für die Weiterbildung künstlicher Intelligenz. Im Zentrum des Streits steht die Frage, ob das Unternehmen dabei gegen die strengen Vorschriften der europäischen Datenschutz-Grundverordnung (DSGVO) verstößt. Die jüngsten Pläne, AI-Modelle mit den Daten von EU-Bürgern zu trainieren, haben zu massiver Kritik von Datenschutzaktivisten geführt, die Meta illegale Praktiken vorwerfen. Besonders hervorzuheben ist die Rolle von Max Schrems und seiner Organisation noyb (None Of Your Business), die bereits mehrfach rechtliche Schritte gegen Meta eingeleitet haben und nun erneut gegen die neuen Initiativen vorgehen wollen. Kern des Konflikts ist die datenschutzrechtliche Grundlage, auf die Meta seine Datenerhebung stützt.
Das Unternehmen argumentiert, dass es eine sogenannte "Legitimate Interest"-Rechtsgrundlage gemäß Artikel 6 Absatz 1 der DSGVO nutzt, welche es erlaubt, personenbezogene Daten ohne ausdrückliche Zustimmung zu verarbeiten, sofern diese Verarbeitung gerechtfertigte Interessen verfolgt und keine überwiegenden Rechte der Betroffenen verletzt. Meta behauptet, dass der Einsatz europäischer Nutzerdaten zur Verbesserung seiner KI-Modelle ein solches berechtigtes Interesse darstellt, da dadurch die Künstliche Intelligenz kulturell besser auf die europäischen Nutzer abgestimmt und dadurch insgesamt nützlicher wird. Noyb widerspricht dieser Argumentation entschieden. Die Organisation hat Meta per Unterlassungsschreiben dazu aufgefordert, die Datennutzung künftig ausschließlich auf einer expliziten Opt-in-Basis zu gestatten – also dass Nutzer aktiv und hunderprozentig informiert ihr Einverständnis geben müssen, bevor ihre Beiträge und Kommentare für AI-Training verarbeitet werden. Noyb kritisiert, dass Meta die Verarbeitung der personenbezogenen Daten ohne ausdrückliche Zustimmung durchführen will, obwohl für Werbezwecke bereits von der sogenannten "Legitimate Interest"-Rechtsgrundlage auf explizites Opt-in umgestellt werden musste.
Dieses Vorgehen wurde als unzulässig eingestuft, und Meta hat sich im Jahr 2023 verpflichtet, die Zustimmung seiner Nutzer für Werbezwecke explizit einzuholen. Nun wird seitens Noyb darauf aufmerksam gemacht, dass es sich bei den aktuellen Vorgaben von Meta für das AI-Training jedoch de facto um denselben Fall handelt – wobei lediglich die Werbezwecke durch KI-Trainingszwecke ersetzt wurden. Die aufgeworfene Frage ist, wie Meta ein berechtigtes Interesse nachweisen kann, überall und umfassend personenbezogene Daten von Beiträgen der vergangenen zwanzig Jahre zu sammeln – vom einzelnen Nutzer. Diese Vorgehensweise wirkt für Datenschützer nicht nur unverhältnismäßig, sondern auch komplett unnötig, insbesondere da bereits eine kleine Teilmenge der Nutzer mit Einwilligung ausreicht, um KI-Modelle für die europäischen Sprachen zu trainieren. Wichtig ist in dem Zusammenhang auch die juristische Geschichte von Max Schrems gegen Meta.
Der bekannte österreichische Datenschutzaktivist hat mit noyb bereits mehrfach gesetzliche Vorschriften durchgesetzt. Unter anderem zwang er Meta 2023 dazu, seine Datenverarbeitungsprozesse für zielgerichtete Werbeanzeigen grundlegend zu überarbeiten, da die Nutzung der legitimierten Interessen als Rechtsgrundlage laut dem Europäischen Gerichtshof (EuGH) nicht angreifbar war. Schrems sieht in den jetzigen Vorstößen Meta’s für das KI-Training deshalb eine klare Wiederholung desselben Fehlers, nur in einer anderen Verpackung. Die politische Dimension ist dabei nicht zu unterschätzen. Während die EU-Kommission und der Europäische Datenschutzausschuss (EDPB) zu einem gewissen Grad anerkennen, dass Daten sozialer Netzwerke unter bestimmten strengen Vorgaben für KI-Forschung genutzt werden könnten, besteht zwischen den Datenschützern und den großen Technologieunternehmen ein erheblicher Dissens darüber, wie diese Vorgaben konkret angewandt und kontrolliert werden.
Meta argumentiert, dass die im Dezember 2024 veröffentlichte Meinung des EDPB ihnen im Kern recht gibt und das Vorgehen der Datenerhebung legitimiert, gleichzeitig wirft der Konzern den Datenschutzaktivisten vor, Innovationen zu verhindern und die Entwicklung der KI in Europa zu behindern. Dieser Vorwurf von Meta steht im direkten Gegensatz zum Unbehagen vieler Bürger und Datenschützer, die den Schutz persönlicher Daten über Wirtschaftsvorteile stellen. Der Konflikt verdeutlicht die zunehmende Spannung zwischen technologischem Fortschritt und Datenschutzprinzipien in der EU. Die Frage bleibt dabei, wie Unternehmen wie Meta Innovationsfortschritt gewährleisten möchten, ohne dabei die Privatsphäre der Nutzer zu gefährden. Die Situation hat bereits mehreren europäischen Datenschutzbehörden Anlass gegeben, den Fall zu prüfen.
Gleichzeitig stehen gerichtliche Klagen und mögliche Sammelklagen gegen Meta im Raum, die dem Konzern empfindliche Strafen und Schadensersatzzahlungen in Milliardenhöhe einbringen könnten. Noyb beziffert mögliche Schadensersatzforderungen bei über 200 Milliarden Euro, wenn jeder betroffene europäische Nutzer nur einen symbolischen nichtmateriellen Schaden geltend macht. Besonders brisant wird der Fall vor dem Hintergrund anderer KI-Anbieter, die ohne Zugang zu umfangreichen sozialen Mediendaten erfolgreiche Modelle entwickelt haben. Die Organisationen weisen darauf hin, dass OpenAI oder französische Startups wie Mistral keine privaten Social-Media-Daten für KI-Training verwenden und dennoch auf dem Markt mithalten können. Daraus schließen Kritiker, dass Meta’s umfassende Datenstrategie auch eine Frage der Größenordnung und Marktmacht ist – und nicht zwingend eine technologische Notwendigkeit.
Nutzer in der EU befinden sich daher in einer ambivalenten Situation: Einerseits profitieren sie von den innovativen Diensten der Meta-Plattformen, die durch KI weiter verbessert werden könnten. Andererseits besteht ein berechtigter Schutzanspruch auf ihre persönlichen Daten, kommentare oder Beiträge nicht ohne hinreichende Einwilligung zu Forschungszwecken verwendet zu sehen. Die Debatte ist auch ein Spiegelbild der wachsenden Sensibilität gegenüber digitaler Privatsphäre und den Grenzen der Einwilligung in einem Zeitalter großer datengetriebener Plattformen. Im Fokus zukünftiger Entwicklungen steht, wie die Gesetzgeber und Aufsichtsbehörden die Balance zwischen technologischer Entwicklung und Datenschutz gestalten. Für Meta könnte ein Präzedenzfall entstehen, der nicht nur die eigenen Geschäftsmodelle beeinflusst, sondern auch das regulatorische Umfeld für KI auf europäischem Boden prägt – mit weitreichenden Folgen für andere globale Tech-Konzerne.
Abschließend lässt sich sagen, dass der Streit um die Verwendung europäischer Nutzerdaten für KI-Modelltrainings bei Meta exemplarisch ist für die Herausforderungen der Digitalisierung im Spannungsfeld zwischen Datenschutz und Innovation. Die kommenden Monate werden entscheidend sein, ob es Meta gelingt, die DSGVO-Anforderungen einzuhalten und gleichzeitig ambitionierte KI-Projekte in Europa voranzutreiben – oder ob die EU durch konsequente Rechtsdurchsetzung neue Maßstäbe in puncto digitale Privatsphäre setzen wird.