Künstliche Intelligenz (KI) hat in den letzten Jahren enorm an Bedeutung gewonnen und hält zunehmend Einzug in unterschiedlichste Lebensbereiche. Besonders die Nutzung von großen Sprachmodellen, sogenannten Large Language Models (LLMs) wie ChatGPT, stellt einen bedeutenden Fortschritt dar. Diese Systeme können Texte verstehen, generieren und auf Anfragen fast menschlich reagieren. Ein zentraler Anwendungsbereich, der immer mehr Beachtung findet, ist die rechtliche Beratung – eine Domäne, die traditionell von Experten durchgeführt wird und mit hohen Anforderungen an Genauigkeit und Verlässlichkeit verbunden ist. Doch eine aktuelle Studie aus Großbritannien offenbart eine überraschende Tendenz: Menschen tendieren eher dazu, rechtlichen Rat von ChatGPT zu vertrauen als von professionellen Anwälten, insbesondere wenn sie nicht wissen, wer die Antwort gegeben hat.
Diese Erkenntnis wirft nicht nur spannende Fragen zur Wahrnehmung von KI auf, sondern stellt auch Herausforderungen für den Umgang mit digitalen Hilfsmitteln in sensiblen Bereichen wie dem Rechtssystem dar. Die Studie der Universität Southampton führte drei Experimente mit insgesamt 288 Teilnehmern durch, um das Vertrauen in rechtliche Ratschläge zu untersuchen. Dabei bekamen Probanden verschieden formulierte Empfehlungen, ohne immer zu wissen, ob diese von einem menschlichen Anwalt oder von ChatGPT stammten. Das Ergebnis war eindeutig: Gerade wenn die Herkunft der Beratung nicht offengelegt wurde, waren die Menschen eher bereit, den von der KI generierten Empfehlungen zu vertrauen und darauf zu handeln. Dieses Vertrauen lag sogar höher als beim juristischen Rat eines tatsächlichen Experten.
Interessanterweise zeigte sich, dass selbst bei Offenlegung der Quelle das Vertrauen in ChatGPT ähnlich hoch war wie in den Anwalt. Die KI nutzte dabei oftmals komplexere und elaboriertere Sprache, was möglicherweise einen Eindruck von Kompetenz und Präzision erzeugte. Anwälte hingegen tendierten dazu, einfachere und verständlichere Formulierungen zu wählen, die aber länger waren. Diese Differenz in der Ausdrucksweise könnte einen Einfluss darauf haben, wie Nutzer die Qualität der Beratung wahrnehmen, und legt nahe, dass die Art der Kommunikation eine entscheidende Rolle für das Vertrauen spielt. Jedoch birgt die Nutzung von KI in der Rechtberatung erhebliche Risiken, die nicht ignoriert werden dürfen.
Sprachmodelle wie ChatGPT erzeugen gelegentlich sogenannte „Halluzinationen“ – das sind inhaltliche Fehler oder falsche Informationen, die trotzdem mit großer Überzeugung präsentiert werden. Dieses Problem führt dazu, dass Nutzer möglicherweise falsche rechtliche Schlussfolgerungen ziehen oder Handlungsempfehlungen befolgen, die problematisch sein können. Vor allem in Rechtsstreitigkeiten oder bei Vertragsgestaltungen können fehlerhafte Auskünfte schwerwiegende Konsequenzen haben, von finanziellen Verlusten bis hin zu rechtlichen Nachteilen. Die Schwierigkeit, zwischen echter und KI-generierter Rechtsberatung zu unterscheiden, wurde ebenfalls im dritten Experiment der Studie getestet. Dabei erreichten die Teilnehmer eine Trefferquote von durchschnittlich 59 Prozent – nur geringfügig besser als Zufall.
Diese geringe Unterscheidbarkeit erhöht die Gefahr, dass Menschen unkritisch KI-Antworten vertrauen und diese als Rechtmäßigkeitsgarantie ansehen, obwohl sie doch nur eine maschinelle Prognose oder ein Musterergebnis darstellen. Angesichts dieser Entwicklungen ist eine Regulierung von KI-Systemen im rechtlichen Kontext unumgänglich. Bereits die EU plant mit dem AI Act verbindliche Vorschriften, die unter anderem vorsehen, dass KI-generierte Texte eindeutig als solche erkennbar sein müssen. So soll der gesetzliche Rahmen dazu beitragen, Transparenz zu gewährleisten und Nutzer davor schützen, unbeabsichtigt Falschinformationen als rechtsverbindliche Aussagen zu interpretieren. Gleichzeitig ist die Regulierung aber nur ein Baustein in einem umfassenderen Ansatz.
Der zweite wesentliche Pfeiler ist die Förderung von KI-Literacy – also das Verständnis und die kritische Bewertung von KI-gestützten Angeboten und deren Grenzen. Allgemeinbildung im Umgang mit Künstlicher Intelligenz ist notwendig, damit Verbraucher bewusster und selbstsicherer mit automatisierten Systemen umgehen können. Menschen sollten lernen, die Herkunft von Informationen zu hinterfragen und ihre Rechtmäßigkeit gegen vertrauenswürdige Quellen zu prüfen. Gerade in Bereichen mit hohen Risiken, wie der Rechtsprechung, ist eine Doppelverifizierung oder Beratung durch zertifizierte Fachkräfte unverzichtbar. Es zeichnet sich ab, dass KI-basierte Tools wie ChatGPT hervorragend dafür geeignet sind, erste Orientierungshilfen zu bieten.
Beispielsweise können Nutzer herausfinden, in welchem Rechtsgebiet ihr Problem liegt, welche grundlegenden Optionen sie haben oder welche vergleichbaren Fälle existieren. Dies kann als Startpunkt für weitere Recherchen oder für den Dialog mit einem Anwalt dienen. Allerdings sollten Entscheidungen mit potenziell tiefgreifenden Konsequenzen niemals ausschließlich auf KI-basierte Antworten gestützt werden. Nicht zuletzt führt die Studie zu einer grundsätzlichen Reflexion über den Stellenwert und das Vertrauen gegenüber menschlichen Experten in einer von Technologie geprägten Welt. Dass künstliche Intelligenz oft als glaubwürdiger empfunden wird als reale Menschen, könnte mit unterschiedlichen Faktoren zusammenhängen: der scheinbaren Objektivität der Maschine, der Gewandtheit und Ausdrucksstärke im Text, oder auch der Erwartung, dass eine KI umfassenderes Wissen bündelt.