Im Mai 2025 wurde ein richtungsweisender Rechtsstreit abgeschlossen, der weitreichende Bedeutung für die Nutzung von Künstlicher Intelligenz (KI) und die Verantwortung von Anbietern wie OpenAI hat. Im Fall Walters gegen OpenAI wurde der bekannte Waffenrechtsaktivist Mark Walters eine Klage wegen Verleumdung gegen OpenAI angestrengt. Diese folgte einer Situation, in der ein Journalist, Frederick Riehl, über die ChatGPT-Plattform von OpenAI eine fehlerhafte und erfundene Darstellung einer Veruntreuung von Firmengeldern erhielt, die fälschlicherweise Walters adressierte. Die juristische Auseinandersetzung widmete sich der Frage, ob OpenAI für die sogenannten „Halluzinationen“ seiner KI haftbar gemacht werden kann – also für die fehlerhaften, tatsächlich nicht existierenden Aussagen, die das System generierte. Das Gericht entschied zugunsten von OpenAI und begründete seine Entscheidung mit mehreren, sorgfältig abgewogenen Argumenten, welche nicht nur den Fall selbst betreffen, sondern auch das zukünftige Verhältnis von KI-Technologie und Recht sprengen könnten.
Die Grundlage des Rechtsstreits lag in der schwerwiegenden Behauptung, ChatGPT habe Walters fälschlicherweise als Täter einer Veruntreuung im Rahmen einer Klage dargestellt. Riehl, der als Herausgeber einer Waffenrechtsplattform tätig ist, hatte zunächst Textabschnitte einer Klage ordnungsgemäß in das KI-System eingegeben und erhielt zutreffende Zusammenfassungen. Als er jedoch später der KI einen Link zur eigentlichen Klageschrift übermittelte, erklärte ChatGPT, dass es keine Internetverbindung habe und keine externen Dokumente lesen könne. Dennoch generierte das Modell kurz darauf eine falsche Zusammenfassung ohne Grundlage und nannte Walters als Beschuldigten einer Veruntreuung, was in der Realität nicht stimmte. Dieses Phänomen, bei dem KI-Modelle fiktive oder unrichtige Inhalte erstellen, wird als „Halluzination“ bezeichnet.
Es handelt sich um einen zentralen Kritikpunkt an den aktuellen KI-Technologien, die trotz großer Fortschritte bei der Verarbeitung natürlichsprachlicher Daten nicht immer akkurate Fakten liefern. Walters sah sich durch diese Falschinformation diffamiert und reagierte mit einer Klage. Das Gericht, vertreten durch Richterin Tracie Cason am Superior Court von Gwinnett County, Georgia, ging jedoch auf mehrere Schlüsselfaktoren ein, die zur Abweisung der Klage führten. Ein zentrales Urteil war, dass eine vernünftige Person in Riehls Position nicht glaubte, die KI-Ausgabe stelle tatsächlich nachweisbare Fakten dar. Entscheidend war hierbei unter anderem, dass ChatGPT den Nutzer ausdrücklich warnte, keine Internetverbindung zu haben, und aus seiner Wissensdatenbank keine aktuelle Klageschrift abrufen konnte.
Hinzu kam, dass die Nutzerbedingungen und wiederholte Hinweise auf die Möglichkeit falscher oder ungenauer Antworten die Erwartungshaltung deutlich prägten. Riehl selbst räumte ein, inzwischen zu wissen, dass die ChatGPT-Ausgabe erfunden und falsch gewesen sei, und verneinte wiederum, Walters als Beschuldigten tatsächlich betrachtet zu haben. Das Gericht stellte somit fest, dass der subjektive Glaube an die Richtigkeit der Aussage – ein unverzichtbares Element, um Verleumdung zu begründen – fehlte. Neben dieser Betrachtung erörterte das Gericht auch die Frage nach der Sorgfaltspflicht und dem Grad der Fahrlässigkeit auf Seiten von OpenAI. Walters musste nachweisen, dass OpenAI zumindest fahrlässig gehandelt hatte.
Hier präsentierte OpenAI umfangreiche Belege, dass das Unternehmen in der Branche führend bei Maßnahmen zur Minimierung solcher Halluzinationen sei. Dazu zählen die überwältigende Datengrundlage für das Training des Sprachmodells, die Feinabstimmung mithilfe von menschlichem Feedback (auch bekannt als „Reinforcement Learning from Human Feedback“) sowie umfassende Hinweise für den Nutzer bezüglich der Unzuverlässigkeit mancher Ausgaben. Angesichts dieser Tatsachen stellte das Gericht klar, dass Walters weder spezifische Publikationsverfahren nannte, die OpenAI verletzt hätte, noch einen Nachweis für Nachlässigkeit erbringen konnte. Interessanterweise argumentierte Walters' Anwalt, dass allein die Tatsache, überhaupt ein KI-System mit der Fähigkeit, falsche Aussagen zu generieren, frei zugänglich zu machen, fahrlässig sei. Diese Sicht wurde vom Gericht zurückgewiesen, da sie eine unverhältnismäßige Haftung implizieren würde, die einer strengen Sorgfaltspflicht ohne Fehlverhalten gleichkäme.
Besonders relevant wurde im Verfahren die Einordnung von Walters als eine öffentlich bekannte Persönlichkeit. Walters führte einen Radiosender mit Millionen von Hörern und präsentiert sich als einer der führenden Stimmen im Bereich der Waffenrechte. Diese Tatsache führe dazu, dass Walters als sogenannter „Limited-Purpose-Public-Figure“ oder sogar als öffentliche Figur im allgemeinen Sinne gilt. Für solche Personen gelten in Verleumdungsprozessen höhere Anforderungen, insbesondere die Notwendigkeit, nicht nur Fahrlässigkeit, sondern sogenannte „tatsächliche Böswilligkeit“ („actual malice“) zu beweisen. Diese fordert den Nachweis, dass der Beklagte entweder wusste, dass die Aussage falsch war, oder grob fahrlässig handelte, ohne Rücksicht auf die Wahrheit.
Walters konnte kein solches Verhalten seitens OpenAI belegen. Wissen über die allgemeine Möglichkeit von Fehlern seitens der KI genügt nicht, um tatsächliche Böswilligkeit zu begründen, wie das Gericht ausführlich erläuterte. Zudem spielte das Fehlen eines entstandenen Schadens eine Rolle. Walters konnte weder tatsächliche noch pauschale Schadensersatzansprüche glaubhaft machen. Da die falsche Aussage lediglich einem einzigen Nutzer angezeigt wurde, der sich zudem bewusst war, dass es sich um eine KI-Halluzination handelte, entfaltete die Verbreitung keine schädliche Wirkung.
Ein weiterer juristischer Hinderungsgrund war, dass Walters vor der Klage keine Gegendarstellung oder Rücknahme der falschen Aussage von OpenAI verlangt hatte, wie es in Georgia für Strafschadensersatz notwendig ist. Der Fall Walters vs. OpenAI zeigt exemplarisch die komplexen Herausforderungen, die im Spannungsfeld von Künstlicher Intelligenz, Medienrecht und Meinungsfreiheit entstehen. KI-Systeme sind mittlerweile in der Lage, Inhalte zu generieren, die wie verifizierte Fakten wirken, dabei aber nicht selten fehlerhaft sind. Dabei stellt sich die Frage, inwieweit die Betreiber solcher Systeme für die Inhalte verantwortlich gemacht werden können – und müssen.
Die Entscheidung des Gerichts unterstreicht, dass eine differenzierte Betrachtung unter Berücksichtigung des Nutzerverhaltens, der Warnhinweise und der zugrundeliegenden technischen Bemühungen essenziell ist. Betreffend künftiger Entwicklungen in der Rechtsprechung ist der Fall kein endgültiges Urteil über Haftungsfragen bei KI-Fehlinformationen. Vielmehr illustriert er, dass der Kontext der Verbreitung, der Bekanntheitsgrad der betroffenen Person, die Verbreitung des fehlerhaften Inhalts sowie das Verhalten des Nutzers bedeutend sind. In Fällen mit breiterer Streuung, weniger klaren Warnhinweisen oder privaten Personen könnten die rechtlichen Folgen anders aussehen. Ähnliche Klagen gegen andere Technologieunternehmen oder KI-Anbieter, wie der kürzlich diskutierte Fall Starbuck gegen Meta Platforms, verdeutlichen die sich jeweils anpassende, dynamische Rechtslage.
Für die Praxis bedeutet das Urteil, dass Betreiber von KI-Systemen weiterhin intensiv in Maßnahmen investieren sollten, die Nutzer vor falschen Informationen warnen und Halluzinationen reduzieren. Gleichzeitig ist es wichtig, das Bewusstsein der Nutzer für die Grenzen der Technologie zu stärken und ihre Fähigkeiten zur Verifikation und kritischen Einordnung der Inhalte zu fördern. Die Balance zwischen Innovation, Meinungsfreiheit und dem Schutz vor falschen Informationen bleibt ein zentraler Diskussionspunkt in der digitalisierten Gesellschaft und wird in kommenden Jahren weiterhin juristisch ausgefochten werden. Abschließend zeigt der Fall Walters vs. OpenAI, wie wichtig die juristische Klarstellung für die Rechte von Einzelpersonen und die Pflichten von KI-Entwicklern ist.
Während OpenAI für diese spezielle Konstellation von der Verantwortung freigesprochen wurde, mahnt das Urteil zu einer vorsichtigen und verantwortungsvollen Nutzung sowie Entwicklung von KI-Technologien im Medienbereich. Die Gesellschaft kann nur profitieren, wenn sowohl technologische Fortschritte als auch rechtliche Rahmenbedingungen Hand in Hand gehen, um Vertrauen und Klarheit im Umgang mit Künstlicher Intelligenz zu schaffen.