Der konservative Aktivist Robby Starbuck hat kürzlich eine Klage gegen Meta eingereicht, den Mutterkonzern von Facebook und Instagram, weil die künstliche Intelligenz des Unternehmens falsche und verleumderische Aussagen über ihn verbreitet haben soll. Die Klage, die am Dienstag vor dem Superior Court in Delaware eingereicht wurde, fordert eine Entschädigung in Höhe von mehr als fünf Millionen US-Dollar und zieht die Aufmerksamkeit auf die wachsenden Bedenken hinsichtlich der Verantwortlichkeit von Technologieunternehmen im Zeitalter der KI auf sich. Starbuck ist vor allem dafür bekannt, sich gegen Diversity- und Inklusionsprogramme (DEI) in Unternehmen zu positionieren. Im August 2024 stellte er fest, dass die KI von Meta falsche Behauptungen über ihn verbreitet hatte, darunter die unbelegte Aussage, er sei Teilnehmer am Sturm auf das Kapitol in Washington D.C.
am 6. Januar 2021 gewesen. Starbuck selbst betont, er habe sich zum fraglichen Zeitpunkt in Tennessee aufgehalten und sei weder an der Randalierung beteiligt gewesen, noch sei er jemals strafrechtlich belangt worden. Darüber hinaus behauptet die KI von Meta fälschlicherweise, er habe ein Verbrechen zugegeben und sei ein Holocaust-Leugner. Der Konflikt begann, als ein Motorrad-Händler, der Starbucks kritische Haltung gegenüber den dortigen „woken“ DEI-Richtlinien nicht teilte, einen Screenshot der Meta-KI-Aussagen veröffentlichte, um Starbuck öffentlich anzugreifen.
Diese falschen Informationen hatten für den Aktivisten schwerwiegende persönliche und berufliche Konsequenzen. Neben der Beschädigung seines Rufes sieht er auch die Sicherheit seiner Familie gefährdet. Trotz wiederholter Kontaktversuche und Bitten an Meta, die falschen Informationen zu korrigieren, fühlte sich Starbuck von der Reaktion des Unternehmens enttäuscht. Meta habe zwar versucht, das Problem durch ein Blacklisting seines Namens zu lösen, jedoch ohne den Kern des Problems wirklich anzugehen, da der Name weiterhin in Nachrichtenartikeln genannt wird und das System somit wieder gezielt falsche Informationen ausspielt. Meta hat in einer Stellungnahme erklärt, dass man kontinuierlich an der Verbesserung seiner KI-Modelle arbeite und bereits Updates veröffentlicht habe.
Joel Kaplan, Meta’s Chief Global Affairs Officer, entschuldigte sich öffentlich für das unakzeptable Verhalten der KI und kündigte an, eng mit dem Produktteam zusammenzuarbeiten, um die Ursachen zu ermitteln und Lösungen zu finden. Trotz dieser Schritte bleibt die Frage nach der Verantwortung und Haftung von Tech-Riesen bei fehlerhaften oder diffamierenden KI-Ergebnissen oft ungeklärt und wird verstärkt von Juristen, Politikern und der Öffentlichkeit diskutiert. Diese Klage reiht sich ein in eine Reihe von Fällen, in denen Personen gegen KI-Unternehmen vorgehen, weil ihre Chatbots falsche, diffamierende oder anderweitig schädliche Informationen über sie verbreitet haben. Ein prominenter Vorfall im Jahr 2023 betraf einen konservativen Radiomoderator aus Georgia, der OpenAI verklagte, nachdem ChatGPT fälschlicherweise behauptet hatte, er sei in einen Betrug verwickelt. Solche Fälle werfen grundlegende Fragen darüber auf, wie die Rechte von Individuen im Kontext KI-gestützter Inhalte geschützt werden können und welche Sorgfaltspflichten Unternehmen erfüllen müssen.
Juristen wie James Grimmelmann, Professor für Digital- und Informationsrecht an der Cornell Tech und Cornell Law School, betonen, dass Technologieunternehmen durchaus haftbar gemacht werden können für falsche Informationen, die ihre KI-Systeme generieren. Ein simpler Haftungsausschluss reiche nicht aus, um Firmen vor Schadenersatzforderungen zu schützen. Auch wenn Tech-Konzerne argumentieren, sie könnten nicht jede Aussage der KI überwachen, darf dies nicht als Freibrief für Nachlässigkeit dienen. Die Herausforderung besteht darin, die Balance zu finden zwischen der Weiterentwicklung der Technologie und dem Schutz der Rechte von Personen, die Ziel falscher oder schädlicher AI-Ausgaben sind. Robby Starbuck fordert in seiner Klage umfassende Transparenz, verbesserte Qualitätskontrollen und den Rückzug falscher Aussagen.
Er warnt zudem davor, dass nicht nur er selbst, sondern jede Person, darunter auch politische Kandidaten, Opfer solcher falschen KI-Aussagen werden könne. Die Verbreitung von Fehlinformationen durch KI-Systeme könne potenziell Wahlergebnisse beeinflussen und das demokratische Vertrauen gefährden. Die Situation offenbart die Problematik, die mit großen Sprachmodellen und KI-Chatbots einhergeht: Sie können nicht nur hilfreiche und innovative Dienste bieten, sondern auch ernsthaften Schaden durch sogenannte Halluzinationen anrichten – also die Generierung völlig fiktiver und falscher Inhalte. Trotz aller Algorithmen und Updates gelingt es bisher nicht zuverlässig, solche Fehler vollständig zu verhindern. Der Fall Starbuck gegen Meta wirft somit ein Schlaglicht auf eine zentrale Debatte unserer Zeit: Wie viel Verantwortung tragen Unternehmen für die Inhalte, die künstliche Intelligenzen generieren? Sind sie verpflichtet, alle Ausgaben vorab zu prüfen? Und was passiert, wenn die Systeme Fehler machen, die das Leben Einzelner nachhaltig beeinträchtigen? Gleichzeitig unterstreicht der Fall auch die Bedeutung eines rechtlichen Rahmens, der mit den technologischen Entwicklungen Schritt hält.
Während die KI-Branche ohne Einschränkungen Innovationen vorantreibt, müssen gesetzliche Mechanismen sicherstellen, dass Grundrechte und Persönlichkeitsrechte geschützt werden. Im internationalen Vergleich ist das US-Recht hier in Bewegung, der europäische Rechtsrahmen etwa durch die Datenschutzgrundverordnung (DSGVO) und die geplante KI-Verordnung bringt bereits strengere Vorgaben mit sich. Starbucks Klage könnte ein Präzedenzfall werden, der signalisiert, dass die Ära der KI ohne klare Haftungsregeln unwahrscheinlich ist. Auch die öffentliche Wahrnehmung von Meta und vergleichbaren Unternehmen leidet, wenn solche Vorfälle nicht transparent und effektiv adressiert werden. Das Risiko von Reputationsschäden und finanziellen Forderungen steigt.
Für die Nutzerinnen und Nutzer digitaler Plattformen bedeutet der Fall zudem, dass man KI-Aussagen künftig noch kritischer hinterfragen sollte. Die Faszination für neue Technologien darf nicht darüber hinwegtäuschen, dass Fehlfunktionen und Desinformation auch aus automatisierten Quellen kommen können. Eine reflektierte Nutzung und aufgeklärte Medienkompetenz gewinnen weiter an Bedeutung. Abschließend zeigt der Rechtsstreit zwischen Robby Starbuck und Meta exemplarisch, wie Demokratie, Rechtsprechung und Technologie miteinander verwoben sind und wie wichtig es ist, Standards und Regeln zu definieren, die sowohl Innovation als auch Schutz gewährleisten. Die kommenden Monate und Jahre werden zeigen, wie die Justiz diese Herausforderung meistert und welche Konsequenzen sich für die gesamte Tech-Branche ergeben.
Bis dahin bleibt der Fall ein Musterbeispiel für die Risiken und Chancen der künstlichen Intelligenz im gesellschaftlichen Kontext.