Im Bundesstaat Alabama sorgt ein Vorfall im Justizsystem für Aufsehen, der weitreichende Fragen zum Umgang mit Künstlicher Intelligenz (KI) im juristischen Kontext aufwirft. Eine von der Staatsregierung bezahlte Anwaltskanzlei reichte Beweismittel und Schriftsätze mit gefälschten Fallzitaten ein, die mithilfe von KI-Tools erstellt wurden und sich später als nicht existent herausstellten. Dieses Ereignis illustriert die wachsende Problematik rund um den Einsatz von KI bei der juristischen Recherche und Verteidigung sowie die potenziellen Folgen für Rechtsprechung und ethische Standards in der Rechtswissenschaft. Der Kernfall betrifft den Gefangenen Frankie Johnson, der mehrfach in einer Haftanstalt nahe Birmingham, Alabama, Opfer schwerer Gewalt wurde. Über drei dokumentierte Angriffe hinweg erlitt Johnson mehrere Messerstiche, zum Teil sogar während er von Justizvollzugsbeamten beaufsichtigt wurde.
Die Schwere der Anschuldigungen gegen das Gefängnispersonal und die Bedingungen innerhalb der Haftanstalt führten zu einer Klage gegen das Justizministerium Alabamas und verbundenen Behörden wegen unterlassener Schutzmaßnahmen, Überfüllung und Missmanagements. Um die Verteidigung der Anklagepunkte zu unterstützen, engagierte das Justizministerium die renommierte Anwaltskanzlei Butler Snow, die seit Jahren umfangreiche Verträge mit dem Bundesstaat zur Verteidigung von Strafvollzugseinrichtungen innehat. Die Kanzlei wurde für ihre Expertise im Bereich des strafrechtlichen und zivilrechtlichen Verfahrens gelobt, insbesondere durch den Leiter der Praxisgruppe für verfassungsrechtliche und zivilrechtliche Litigationsfragen, William Lunsford. Doch die Situation geriet ins Wanken, als im Rahmen der Auseinandersetzungen in Johnsons Fall herauskam, dass eine Juristin beziehungsweise ein Jurist der Kanzlei ChatGPT, ein KI-Chatbot, für die Recherche von Fallzitaten verwendet hatte. Dabei wurden Dokumente eingereicht, die zahlreiche Fallbeispiele enthielten, die sich bei genauerer Prüfung jedoch als erfunden beziehungsweise von der KI „halluziniert“ herausstellten.
Der Richter Anna Manasco, welche die Verhandlung leitete, erkannte die Schwere des Verstoßes. Sie benannte die bereits existierenden, vergleichsweise milden Sanktionen anderer Gerichte gegen KI-generierte Fehlinformationen als unzureichend und kündigte an, härtere Maßnahmen zu prüfen. Die Kanzlei zeigte sich reumütig und kündigte an, die interne Überprüfung der Vorgänge zu intensivieren. Dieses Szenario ist kein Einzelfall: Weltweit mehren sich Berichte über KI-Halluzinationen im juristischen Bereich, weshalb bereits mehr als 100 Fälle identifiziert wurden, in denen falsche oder nicht existente Referenzen von KI-Tools in Gerichtsakten aufgetaucht sind. Die Problematik wird durch die immer weitere Verbreitung solcher Technologien und die zunehmende Nutzung von KI in der Rechtsberatung verschärft.
In sozialen Medien und Fachkreisen wird intensiver diskutiert, wie der Einsatz von KI künftig geregelt werden muss, um die Integrität und Zuverlässigkeit juristischer Entscheidungen zu gewährleisten. Experten betonen, dass Juristinnen und Juristen bei der Verwendung von KI sorgfältig bleiben und die Ergebnisse ihres Systems immer eigenständig überprüfen müssen. Das Erkennen und Vermeiden von sogenannter „Halluzination“ – also das Generieren von Fakten, die in Wirklichkeit nicht existieren – ist eine essentielle Herausforderung, die bislang noch kaum vollständig gelöst ist. Der Fall Butler Snow offenbart auch strukturelle Fragen: Warum wurde eine derart kritische Arbeit überhaupt einem KI-Einsatz überlassen? Gibt es Einsparungsdruck oder Zeitnot, die zum Schnellschuss mit unzureichender Verifizierung führten? Und wie gut sind die Kontrollmechanismen innerhalb der Kanzlei und des Justizministeriums, das hohe Summen für die Verteidigung dieser Gefängnisfälle zur Verfügung stellt? Darüber hinaus steht die Frage im Raum, wie die Öffentlichkeit und die betroffenen Parteien Vertrauen in ein System entwickeln können, in dem grundlegende Fakten potenziell auf fehlerhaften KI-Ausgaben basieren. Vor allem in Fällen, die den Menschenrechten und schwerwiegenden Missständen wie in Alabama gewidmet sind, ist die Glaubwürdigkeit der Rechtsvertretung von enormer Bedeutung.
Die Konsequenzen für Butler Snow könnten neben Sanktionen vor Gericht auch Reputationsschäden und eine strenge interne Überarbeitung bedeuten. Anwälte müssen sich künftig intensiver mit den Grenzen und Risiken digitaler Hilfsmittel auseinandersetzen. Die Debatte zeigt auch, dass die Justiz insgesamt sich an das Zeitalter der Digitalisierung anpassen muss, was neben Chancen auch große Herausforderungen bedeutet. In Alabama ist die Situation angespannt, da die verwendete Kanzlei weiterhin von der Staatsanwaltschaft bevorzugt eingesetzt wird. Einige Abgeordnete kritisieren die Höhe der Ausgaben für die Verteidigung des Justizsystems, das ohnehin von vielen Seiten als marode eingestuft wird.
Das jüngste Ereignis mit den falschen KI-Zitaten facht diese Diskussionen zusätzlich an und hinterlässt ein Gefühl von Skepsis gegenüber der Juristischen Betreuung durch privatwirtschaftliche Unternehmen bei staatlichen Themen. Es liegt auf der Hand, dass die Nutzung von KI-Technologien im Rechtswesen auch in Deutschland, Europa und weltweit aufwachsend Aufmerksamkeit erlangt und diskutiert wird. Gerade durch die Geschwindigkeit, mit der KI-Lösungen wachsen und die Verfügbarkeit großer Datenmengen erleichtert wird, ist die Versuchung groß, solche Instrumente als zeit- und kostensparende Lösung einzusetzen. Allerdings verlangt es Sorgfalt und professionelle Verantwortung, sicherzustellen, dass digitale Rechercheergebnisse nicht blind übernommen werden. Ein ausgewogenes Verhältnis aus digitaler Unterstützung und menschlicher Kontrolle ist essenziell.