Die fortschreitende Digitalisierung und der Einzug von Künstlicher Intelligenz (KI) verändern die Arbeitswelt fundamental – auch im juristischen Bereich. Insbesondere bei der Recherche und Erstellung von Schriftsätzen setzen immer mehr Anwälte auf AI-gestützte Tools, um umfangreiche Daten schnell aufzubereiten. Doch der Fall der jüngsten Sanktionen gegen zwei renommierte Anwaltskanzleien verdeutlicht, welche Risiken unkontrollierter Einsatz von AI-Technologien mit sich bringen kann. Denn die Verwendung von fehlerhaften oder schlicht erfundenen Rechtsquellen, so genannte AI-Halluzinationen, können nicht nur das Vertrauen in die juristische Arbeit erschüttern, sondern auch weitreichende Konsequenzen für die beteiligten Anwaltskanzleien nach sich ziehen. Die Thematik wirft zahlreiche Fragen auf: Wie entstehen solche Halluzinationen, was waren die entscheidenden Fehler im konkreten Fall und welche Lehren sollten Juristen daraus ziehen, um sowohl ethische als auch rechtliche Standards einzuhalten? Im Folgenden wird der Fall detailliert betrachtet und in den größeren Kontext der sich entwickelnden Beziehung zwischen Recht und Künstlicher Intelligenz eingeordnet.
Das Gerichtsszenario, auf das wir eingehen, bezeichnete den Vorfall als „kollektive Katastrophe“, bei der zwei Anwaltsfirmen, eine davon mit über 1700 Anwälten und eine kleinere Kanzlei mit rund 45 Mitarbeitern, gemeinsam in einen Fehler verwickelt waren. Trotz der exzellenten Reputation beider Kanzleien kam es zur Einreichung eines Schriftsatzes mit zahlreichen erdachten sowie inkorrekten juristischen Zitationen und Zitaten. Auffallend daran war, dass die Fehler maßgeblich auf eine unsachgemäße Nutzung von AI basierten Recherchetools zurückzuführen waren – ein Ergebnis, das sowohl die Rechtswissenschaft als auch die Praxis aufrüttelt. Ausgangspunkt der Problematik war das Verhalten eines Anwalts namens Mr. Copeland, der bei der kleineren Kanzlei tätig ist.
Er verwendete diverse AI-Werkzeuge, um ein Recherche-„Outline“ für eine ergänzende Schriftsatzstellung zu generieren. Dieses von der KI erstellte Konzept enthielt jedoch etwa neun völlig falsche Rechtsquellen oder Zitate, darunter auch fiktive Gerichtsentscheidungen, die in Wirklichkeit gar nicht existierten. Dieses dokumentierte AI-Fehlverhalten wird als klassische AI-Halluzination bezeichnet – ein Phänomen, bei dem KI-Modelle glaubwürdig klingende Informationen produzieren, die faktisch aber nicht korrekt sind. Die weiteren juristischen Mitarbeiter der größeren Kanzlei übernahmen diese KI-generierten Inhalte in ihren Schriftsatz, ohne sie sorgfältig zu prüfen oder das AI-Ursprungsmaterial offenzulegen. Diese mangelnde interne Kommunikation und die unzureichende Kontrolle führten schließlich zu einer gerichtlichen Sanktion im Umfang von über 31.
000 US-Dollar gegen die beiden Kanzleien. Das Gericht stellte emphatisch heraus, dass eine derartige Vorgehensweise unprofessionell und potenziell irreführend für den gerichtlichen Entscheidungsprozess sei. Ebenso kritisierte es das bewusste Unterlassen einer fristgerechten Offenlegung der Nutzung von AI bei der Erstellung der Schriftsätze. Selbst nach einer ersten Rückmeldung des Gerichts zu zwei bereits identifizierten Fehlern wurde lediglich ein überarbeiteter Schriftsatz eingereicht – der aber noch immer mehrere weiteren KI-basierten Falschinformationen enthielt. Die Verteidigung argumentierte zwar, dass alle Fehler unabsichtlich passiert seien und man die Verantwortung voll übernommen habe.
Auch der involvierte Anwalt Mr. Copeland zeigte Reue. Doch das Gericht warnte daraufhin ausdrücklich vor der Leichtfertigkeit beim Einsatz von KI-Technologien in sensiblen juristischen Kontexten. Dieser Fall illustriert auf dramatische Weise den Zwiespalt, den moderne Juristen heute zu bewältigen haben: Einerseits eröffnen AI-Tools bemerkenswerte Effizienzgewinne, indem sie Daten automatisch durchforsten und Aufbereitungen in kürzester Zeit ermöglichen. Andererseits bergen sie Risiken aufgrund fehlender Verlässlichkeit, da viele AI-Modelle nicht permanent auf Faktenprüfung optimiert sind und somit „Halluzinationen“ produzieren können.
Besonders im Rechtswesen, wo Vertrauen in akkurate und nachvollziehbare Quellen essenziell ist, stellen falsche juristische Angaben eine schwerwiegende Gefährdung der Prozessergebnisse dar und schaden gegebenenfalls auch Mandanten. Die rechtlichen Grundlagen für Sanktionen ergaben sich im Wesentlichen aus den Regelwerken der US-amerikanischen Federal Rules of Civil Procedure, die unter anderem in den Paragraphen 11 und 37 den ordnungsgemäßen Umgang mit gerichtlichen Einreichungen fordern. Eine grobe oder fahrlässige Falschdarstellung von Rechtsquellen wird hierbei als Verstoß gegen diese Grundsätze eingestuft. Darüber hinaus hat das Gericht auch auf seine damit verbundene inhärente Befugnis zur Verhängung von Sanktionen hingewiesen, um Missbrauch von Prozesshandlungen zu verhindern. Bemerkenswert ist, dass das Gericht in seinem Urteil zugleich betonte, dass keine zusätzlichen individuellen Disziplinarmaßnahmen gegen die beteiligten Anwälte verhängt werden.
Die Entschuldigungen wurden als aufrichtig erachtet, und es wurde angenommen, dass eine Veröffentlichmachung des Vorfalls und die finanziellen Sanktionen ausreichend seien, um eine Wiederholung zu vermeiden. Dieses differenzierte Urteil zeigt, dass Gerichte nicht nur bestrafen, sondern auch im Blick haben, wie solche Fälle in Zukunft professionell verhindert werden können. Für die gesamte Anwaltschaft bedeutet der Fall eine deutliche Warnung. Die kontrollierte und transparente Verwendung von AI-Technologien wird künftig unverzichtbar sein. Es reicht nicht aus, die Vorteile von intelligenten Analysewerkzeugen zu nutzen, ohne darüber hinaus eine gründliche und kritische Prüfung der Ergebnisse vorzunehmen.
Denn allein die technische Unterstützung kann niemals die qualifizierte juristische Begleitung und Bewertung ersetzen. Wer dagegen fahrlässig handelt, riskiert nicht nur den Verlust von Mandantenvertrauen, sondern nun auch handfeste juristische Sanktionen. Gerade in komplexen Fällen mit mehreren beteiligten Kanzleien ist eine präzise Kommunikation und Verantwortungszuweisung erforderlich, damit niemand unbeabsichtigt in Fehler verfällt. Der Fall ist daher auch ein Lehrbeispiel dafür, wie die Integration innovativer Technologien in traditionellen Berufsfeldern mit Bedacht und Verantwortung erfolgen muss. Zusätzlich zeigt die Auseinandersetzung mit AI-Halluzinationen, dass weitere Entwicklungen im Bereich der KI-Modelle notwendig sind – vor allem hinsichtlich der verbesserten Nachprüfbarkeit und Transparenz.