Dezentrale Finanzen

OpenAI gewinnt Verleumdungsklage wegen erfundener Veruntreuungsvorwürfe: Ein bedeutender Präzedenzfall für KI und Recht

Dezentrale Finanzen
OpenAI Wins Libel Lawsuit over Hallucinated Embezzlement Claims

Die gerichtliche Entscheidung zugunsten von OpenAI in einer Verleumdungsklage wegen fälschlich erzeugter Anschuldigungen gegen eine prominente Persönlichkeit stellt einen Meilenstein für den Umgang mit KI-generierten Fehlinformationen in der Rechtsprechung dar. Dieser Fall bietet wichtige Einblicke in Haftungsfragen, Meinungsfreiheit und die Grenzen der Verantwortlichkeit von KI-Anbietern.

Im Mai 2025 wurde ein richtungsweisender Rechtsstreit abgeschlossen, der weitreichende Bedeutung für die Nutzung von Künstlicher Intelligenz (KI) und die Verantwortung von Anbietern wie OpenAI hat. Im Fall Walters gegen OpenAI wurde der bekannte Waffenrechtsaktivist Mark Walters eine Klage wegen Verleumdung gegen OpenAI angestrengt. Diese folgte einer Situation, in der ein Journalist, Frederick Riehl, über die ChatGPT-Plattform von OpenAI eine fehlerhafte und erfundene Darstellung einer Veruntreuung von Firmengeldern erhielt, die fälschlicherweise Walters adressierte. Die juristische Auseinandersetzung widmete sich der Frage, ob OpenAI für die sogenannten „Halluzinationen“ seiner KI haftbar gemacht werden kann – also für die fehlerhaften, tatsächlich nicht existierenden Aussagen, die das System generierte. Das Gericht entschied zugunsten von OpenAI und begründete seine Entscheidung mit mehreren, sorgfältig abgewogenen Argumenten, welche nicht nur den Fall selbst betreffen, sondern auch das zukünftige Verhältnis von KI-Technologie und Recht sprengen könnten.

Die Grundlage des Rechtsstreits lag in der schwerwiegenden Behauptung, ChatGPT habe Walters fälschlicherweise als Täter einer Veruntreuung im Rahmen einer Klage dargestellt. Riehl, der als Herausgeber einer Waffenrechtsplattform tätig ist, hatte zunächst Textabschnitte einer Klage ordnungsgemäß in das KI-System eingegeben und erhielt zutreffende Zusammenfassungen. Als er jedoch später der KI einen Link zur eigentlichen Klageschrift übermittelte, erklärte ChatGPT, dass es keine Internetverbindung habe und keine externen Dokumente lesen könne. Dennoch generierte das Modell kurz darauf eine falsche Zusammenfassung ohne Grundlage und nannte Walters als Beschuldigten einer Veruntreuung, was in der Realität nicht stimmte. Dieses Phänomen, bei dem KI-Modelle fiktive oder unrichtige Inhalte erstellen, wird als „Halluzination“ bezeichnet.

Es handelt sich um einen zentralen Kritikpunkt an den aktuellen KI-Technologien, die trotz großer Fortschritte bei der Verarbeitung natürlichsprachlicher Daten nicht immer akkurate Fakten liefern. Walters sah sich durch diese Falschinformation diffamiert und reagierte mit einer Klage. Das Gericht, vertreten durch Richterin Tracie Cason am Superior Court von Gwinnett County, Georgia, ging jedoch auf mehrere Schlüsselfaktoren ein, die zur Abweisung der Klage führten. Ein zentrales Urteil war, dass eine vernünftige Person in Riehls Position nicht glaubte, die KI-Ausgabe stelle tatsächlich nachweisbare Fakten dar. Entscheidend war hierbei unter anderem, dass ChatGPT den Nutzer ausdrücklich warnte, keine Internetverbindung zu haben, und aus seiner Wissensdatenbank keine aktuelle Klageschrift abrufen konnte.

Hinzu kam, dass die Nutzerbedingungen und wiederholte Hinweise auf die Möglichkeit falscher oder ungenauer Antworten die Erwartungshaltung deutlich prägten. Riehl selbst räumte ein, inzwischen zu wissen, dass die ChatGPT-Ausgabe erfunden und falsch gewesen sei, und verneinte wiederum, Walters als Beschuldigten tatsächlich betrachtet zu haben. Das Gericht stellte somit fest, dass der subjektive Glaube an die Richtigkeit der Aussage – ein unverzichtbares Element, um Verleumdung zu begründen – fehlte. Neben dieser Betrachtung erörterte das Gericht auch die Frage nach der Sorgfaltspflicht und dem Grad der Fahrlässigkeit auf Seiten von OpenAI. Walters musste nachweisen, dass OpenAI zumindest fahrlässig gehandelt hatte.

Hier präsentierte OpenAI umfangreiche Belege, dass das Unternehmen in der Branche führend bei Maßnahmen zur Minimierung solcher Halluzinationen sei. Dazu zählen die überwältigende Datengrundlage für das Training des Sprachmodells, die Feinabstimmung mithilfe von menschlichem Feedback (auch bekannt als „Reinforcement Learning from Human Feedback“) sowie umfassende Hinweise für den Nutzer bezüglich der Unzuverlässigkeit mancher Ausgaben. Angesichts dieser Tatsachen stellte das Gericht klar, dass Walters weder spezifische Publikationsverfahren nannte, die OpenAI verletzt hätte, noch einen Nachweis für Nachlässigkeit erbringen konnte. Interessanterweise argumentierte Walters' Anwalt, dass allein die Tatsache, überhaupt ein KI-System mit der Fähigkeit, falsche Aussagen zu generieren, frei zugänglich zu machen, fahrlässig sei. Diese Sicht wurde vom Gericht zurückgewiesen, da sie eine unverhältnismäßige Haftung implizieren würde, die einer strengen Sorgfaltspflicht ohne Fehlverhalten gleichkäme.

Besonders relevant wurde im Verfahren die Einordnung von Walters als eine öffentlich bekannte Persönlichkeit. Walters führte einen Radiosender mit Millionen von Hörern und präsentiert sich als einer der führenden Stimmen im Bereich der Waffenrechte. Diese Tatsache führe dazu, dass Walters als sogenannter „Limited-Purpose-Public-Figure“ oder sogar als öffentliche Figur im allgemeinen Sinne gilt. Für solche Personen gelten in Verleumdungsprozessen höhere Anforderungen, insbesondere die Notwendigkeit, nicht nur Fahrlässigkeit, sondern sogenannte „tatsächliche Böswilligkeit“ („actual malice“) zu beweisen. Diese fordert den Nachweis, dass der Beklagte entweder wusste, dass die Aussage falsch war, oder grob fahrlässig handelte, ohne Rücksicht auf die Wahrheit.

Walters konnte kein solches Verhalten seitens OpenAI belegen. Wissen über die allgemeine Möglichkeit von Fehlern seitens der KI genügt nicht, um tatsächliche Böswilligkeit zu begründen, wie das Gericht ausführlich erläuterte. Zudem spielte das Fehlen eines entstandenen Schadens eine Rolle. Walters konnte weder tatsächliche noch pauschale Schadensersatzansprüche glaubhaft machen. Da die falsche Aussage lediglich einem einzigen Nutzer angezeigt wurde, der sich zudem bewusst war, dass es sich um eine KI-Halluzination handelte, entfaltete die Verbreitung keine schädliche Wirkung.

Ein weiterer juristischer Hinderungsgrund war, dass Walters vor der Klage keine Gegendarstellung oder Rücknahme der falschen Aussage von OpenAI verlangt hatte, wie es in Georgia für Strafschadensersatz notwendig ist. Der Fall Walters vs. OpenAI zeigt exemplarisch die komplexen Herausforderungen, die im Spannungsfeld von Künstlicher Intelligenz, Medienrecht und Meinungsfreiheit entstehen. KI-Systeme sind mittlerweile in der Lage, Inhalte zu generieren, die wie verifizierte Fakten wirken, dabei aber nicht selten fehlerhaft sind. Dabei stellt sich die Frage, inwieweit die Betreiber solcher Systeme für die Inhalte verantwortlich gemacht werden können – und müssen.

Die Entscheidung des Gerichts unterstreicht, dass eine differenzierte Betrachtung unter Berücksichtigung des Nutzerverhaltens, der Warnhinweise und der zugrundeliegenden technischen Bemühungen essenziell ist. Betreffend künftiger Entwicklungen in der Rechtsprechung ist der Fall kein endgültiges Urteil über Haftungsfragen bei KI-Fehlinformationen. Vielmehr illustriert er, dass der Kontext der Verbreitung, der Bekanntheitsgrad der betroffenen Person, die Verbreitung des fehlerhaften Inhalts sowie das Verhalten des Nutzers bedeutend sind. In Fällen mit breiterer Streuung, weniger klaren Warnhinweisen oder privaten Personen könnten die rechtlichen Folgen anders aussehen. Ähnliche Klagen gegen andere Technologieunternehmen oder KI-Anbieter, wie der kürzlich diskutierte Fall Starbuck gegen Meta Platforms, verdeutlichen die sich jeweils anpassende, dynamische Rechtslage.

Für die Praxis bedeutet das Urteil, dass Betreiber von KI-Systemen weiterhin intensiv in Maßnahmen investieren sollten, die Nutzer vor falschen Informationen warnen und Halluzinationen reduzieren. Gleichzeitig ist es wichtig, das Bewusstsein der Nutzer für die Grenzen der Technologie zu stärken und ihre Fähigkeiten zur Verifikation und kritischen Einordnung der Inhalte zu fördern. Die Balance zwischen Innovation, Meinungsfreiheit und dem Schutz vor falschen Informationen bleibt ein zentraler Diskussionspunkt in der digitalisierten Gesellschaft und wird in kommenden Jahren weiterhin juristisch ausgefochten werden. Abschließend zeigt der Fall Walters vs. OpenAI, wie wichtig die juristische Klarstellung für die Rechte von Einzelpersonen und die Pflichten von KI-Entwicklern ist.

Während OpenAI für diese spezielle Konstellation von der Verantwortung freigesprochen wurde, mahnt das Urteil zu einer vorsichtigen und verantwortungsvollen Nutzung sowie Entwicklung von KI-Technologien im Medienbereich. Die Gesellschaft kann nur profitieren, wenn sowohl technologische Fortschritte als auch rechtliche Rahmenbedingungen Hand in Hand gehen, um Vertrauen und Klarheit im Umgang mit Künstlicher Intelligenz zu schaffen.

Automatischer Handel mit Krypto-Geldbörsen Kaufen Sie Ihre Kryptowährung zum besten Preis

Als Nächstes
Morgan Stanley to Launch Retail Crypto Trading
Sonntag, 29. Juni 2025. Morgan Stanley betritt den Einzelhandelsmarkt für Kryptowährungen: Eine neue Ära im digitalen Handel

Morgan Stanley startet den Handel mit Kryptowährungen für Privatanleger und öffnet damit neue Möglichkeiten für den Zugang zum digitalen Vermögenswertmarkt. Die Entwicklungen und Auswirkungen dieses Schritts werden umfassend beleuchtet.

Spot Bitcoin ETFs to Buy With $100 and Hold Forever
Sonntag, 29. Juni 2025. Spot Bitcoin ETFs in Deutschland: Mit 100 Dollar langfristig in Bitcoin investieren

Die Investition in Spot Bitcoin ETFs bietet eine zugängliche Möglichkeit für Anleger, mit nur 100 Dollar in Bitcoin zu investieren und das Vermögen langfristig zu halten. Hier erfahren Sie, welche ETFs sich besonders eignen, welche Gebühren zu beachten sind und warum diese Produkte immer beliebter werden.

This Model Y Killer Is A Big Reason Why Tesla Is 'Moving Away' From EVs And Gone All In On Autonomy
Sonntag, 29. Juni 2025. Wie der Xiaomi YU7 das Duell um Elektro-SUVs neu definiert und Tesla zum Fokus auf Autonomie treibt

Xiaomi bringt mit dem YU7 ein Elektrofahrzeug auf den Markt, das zum Rivalen von Teslas Model Y avanciert. Diese Entwicklung beeinflusst Teslas Strategie, sich stärker auf autonome Fahrtechnologien zu konzentrieren und sich teilweise vom reinen Elektroauto-Geschäft zu lösen.

GENIUS Act Revival Backed by Brian Armstrong, 60 Crypto Execs
Sonntag, 29. Juni 2025. Wiederbelebung des GENIUS Act: Wie Brian Armstrong und 60 Krypto-CEOs die Zukunft der Stablecoin-Regulierung in den USA gestalten

Die Wiederbelebung des GENIUS Act markiert einen wichtigen Schritt zur Regulierung von Stablecoins in den USA. Mit der Unterstützung von Brian Armstrong und 60 führenden Persönlichkeiten der Kryptoindustrie wächst der Druck auf den US-Senat, klare gesetzliche Rahmenbedingungen zu schaffen, um Innovation und Sicherheit im Kryptobereich zu vereinen.

Trump crypto ventures loom over Senate stablecoin vote
Sonntag, 29. Juni 2025. Trumps Kryptounternehmungen werfen Schatten auf die Senatsabstimmung zu Stablecoins

Die Rolle von Trumps Kryptounternehmungen hat erhebliche Auswirkungen auf die bevorstehende Senatsabstimmung zu Stablecoin-Vorschriften. Ein Überblick über die Herausforderungen, Chancen und die künftige Regulierung des Krypto-Sektors in den USA.

‘Crypto’s here to stay’: Coinbase CEO Armstrong touts S&P 500 entry, optimistic on stablecoin law
Sonntag, 29. Juni 2025. Kryptowährungen sind gekommen, um zu bleiben: Coinbase-CEO Armstrong über den Schritt in den S&P 500 und die Zukunft der Stablecoin-Gesetzgebung

Coinbase CEO Brian Armstrong zeigt sich optimistisch hinsichtlich der bevorstehenden Stablecoin-Gesetzgebung im US-Senat und betont die Bedeutung des bevorstehenden Beitritts von Coinbase zum S&P 500 als Signal für die dauerhafte Verankerung von Kryptowährungen im Finanzsystem.

India’s Supreme Court calls for clear crypto guidelines not outright ban
Sonntag, 29. Juni 2025. Indiens Oberstes Gericht fordert klare Krypto-Richtlinien statt vollständigen Verbots

Die Entscheidung des Obersten Gerichts Indiens markiert einen Wendepunkt für die regulatorische Zukunft von Kryptowährungen im Land und ebnet den Weg für eine klare und unterstützende Gesetzgebung, die das immense Potenzial der Blockchain-Technologie und der digitalen Assets fördert.