In einem bemerkenswerten Fall, der die Verbindung von Recht und moderner Technologie beleuchtet, erlebte der Anwalt von Tim Burke eine öffentliche Rüge durch eine US-Bundesrichterin. Anlass war die Einreichung eines rechtlichen Antrags, der mithilfe von künstlicher Intelligenz (KI) erstellt wurde und zahlreiche gravierende Fehler, falsche Zitate und falsche Rechtsbehauptungen enthielt. Diese Ungenauigkeiten führten dazu, dass der Richter den Antrag aus dem Gerichtsverfahren strich und die Anwälte zu einer Korrektur aufforderte. Das Ereignis wirft ein Schlaglicht auf die Herausforderungen und Gefahren beim Einsatz von KI im juristischen Umfeld, insbesondere wenn menschliche Kontrolle fehlt oder vernachlässigt wird. Das Verfahren rund um Tim Burke, einen in den USA bekannten Medienberater, ist ohnehin komplex und kontrovers.
Burke wird in einem Bundesverfahren beschuldigt, Videos – darunter nicht ausgestrahlte Aufnahmen von Fox News – ohne Erlaubnis erlangt und verbreitet zu haben. Die Staatsanwaltschaft wirft ihm vor, in private Computersysteme eingedrungen zu sein, um an diese Inhalte zu gelangen. Burke und seine Anwälte hingegen argumentieren, dass die Videos durch öffentlich zugängliche Zugangsdaten gefunden wurden und dass Burke als Journalist handelte, der Materialien von öffentlichem Interesse veröffentlichte. Dabei berufen sie sich auf das Recht auf freie Meinungsäußerung gemäß dem Ersten Verfassungszusatz der USA. Die aktuellen Entwicklungen erhielten besondere Aufmerksamkeit, weil der von Burkes Anwaltskanzlei eingereichte Antrag zur Abweisung einiger Anklagepunkte mit Hilfe von KI-Technologie gestemmt wurde.
Konkret nutzte Mark Rasch, Burkes leitender Anwalt und ehemaliger Bundesstaatsanwalt mit Expertise im Bereich Cyberkriminalität, diverse KI-Tools einschließlich der Pro-Version von ChatGPT, um juristische Recherchen zu beschleunigen und die Eingabe zu formulieren. Trotz seiner umfangreichen Erfahrung kam es zu einer gefährlichen Fehldiagnose, denn der daraus resultierende Text enthielt Zitate aus fiktiven Urteilen, falsche Interpretationen von Rechtsgrundlagen und mehrere gravierende Fehlzitate aus echten Gerichtsurteilen. Die vorsitzende Richterin Kathryn Kimball Mizelle reagierte prompt auf das offensichtliche Versäumnis. In ihrer schriftlichen Anordnung stellte sie fest, dass der Antrag „erhebliche Fehldarstellungen und Falschzitate von vermeintlich relevanten Urteilen und Rechtsgrundlagen“ enthalte. Die Richterin hob besonders ein Zitat aus einem Urteil des 11.
Berufungsgerichts (United States v. Ruiz, 2001) hervor, das im Antrag fälschlicherweise verwendet wurde. Dieses Zitat existierte weder in der angegebenen Quelle noch wurde es durch den Fall gestützt. Zusätzlich wurden mindestens sieben weitere Zitate falsch oder an die falsche Instanz angeheftet, was die Glaubwürdigkeit des Textes massiv untergrub. Die Richterin gab den Anwälten Gelegenheit, einen überarbeiteten und rechtlich korrekten Antrag einzureichen, jedoch unter der ausdrücklichen Anweisung, einen Bericht vorzulegen, der erläutert, wie es zu diesen Fehlern kommen konnte.
Daraufhin übernahm Mark Rasch die volle Verantwortung, entschuldigte sich beim Gericht, seinem Kollegen Michael Maddux sowie bei seinem Mandanten wegen der Mängel. Die Erklärung der Verteidigung führte unter anderem Zeitdruck und geografische Distanz zwischen den beiden Anwälten als Mitursachen an. Maddux, der in Maryland ansässig ist, hatte den Antrag vor der Einreichung nicht mehr gegenlesen können, was die Problematik verschärfte. Richterin Mizelle verzichtete zwar auf Strafmaßnahmen, warnte jedoch eindringlich vor künftigen Fehlern. Sie betonte, dass sorgfältige juristische Recherche und Prüfung von einem Menschen ausgeführt werden müsse.
Dies sei essenziell, um die Qualität und Verlässlichkeit von Gerichtsdokumenten zu sichern – ein Prinzip, das trotz zunehmender Automatisierung in der Anwaltschaft unverzichtbar bleibt. Der Fall illustriert eine weitverbreitete Problematik: Die Integration von künstlicher Intelligenz im Rechtswesen bringt Fortschritte, birgt aber auch Risiken durch Fehlinterpretationen, erfundene Fakten und Ungenauigkeiten. Laut einer Umfrage der Thomson Reuters Gesellschaft nutzen bereits über 60 Prozent der Anwälte in den USA regelmäßig KI-Tools zur Recherche und Textgenerierung. Gleichzeitig steigt jedoch die Anzahl gerichtlich beanstandeter Dokumente mit KI-generierten Fehlern. Ähnliche Vorfälle wurden bereits in anderen Bundesstaaten registriert.
So wurde Anfang des Jahres eine bekannte Anwaltskanzlei in Florida gerügt und mit einer Geldstrafe belegt, nachdem in einem von ihr verfassten Schreiben acht fiktive Fälle zitiert wurden. Ein kalifornischer Richter ordnete kürzlich Zahlungen in Höhe von 31.000 US-Dollar an, nachdem von ihm entdeckte KI-generierte Fehlinformationen in eingereichten Schriftsätzen festgestellt wurden. Juraprofessorin Maura Grossman, die sowohl im Bereich Rechtswissenschaft als auch Informatik tätig ist, betont, dass der KI-Einsatz an sich nicht das Problem darstelle. Vielmehr sei es die unreflektierte und ausschließliche Verlassnahme auf diese Werkzeuge, die zu Fehlentscheidungen und Fehlern führe.