Die Ära der Künstlichen Intelligenz (KI) verändert zahlreiche Bereiche unseres Lebens, von der Wirtschaft über die Medizin bis hin zur Verwaltung. Besonders in staatlichen Institutionen gewinnt der Einsatz von KI-Agenten zunehmend an Bedeutung, da diese die Effizienz erhöhen und komplexe Arbeitsprozesse automatisieren können. Doch mit dieser Entwicklung gehen auch erhebliche Herausforderungen einher – insbesondere im Hinblick auf die Einhaltung von Rechtsvorschriften. Die Forderung, dass KI-Agenten die Gesetze befolgen müssen, ist nicht nur eine ethische, sondern auch eine praktische Notwendigkeit für demokratische Gesellschaften. In diesem Zusammenhang sprechen Experten von sogenannten „Law-Following AIs“ (LFAIs), also KI-Systemen, die verpflichtet sind, gesetzliche Rahmenbedingungen strikt zu beachten und entsprechende Einschränkungen eigenständig durchzusetzen.
Die Bedeutung und Dringlichkeit dieser Debatte zeigen sich besonders deutlich, wenn man das Potenzial der KI betrachtet, staatliche Entscheidungsprozesse grundlegend umzugestalten. Künftig könnten KI-Agenten nicht nur unterstützende Funktionen übernehmen, sondern direkter Teil der Exekutive werden. Beispielsweise könnten sie Ermittlungen führen, Beweise sammeln oder sogar Strafverfahren vorbereiten. Ohne zuverlässige Sicherheitsmechanismen bestünde hier das Risiko, dass KI-Systeme exekutive Macht missbrauchen, Gesetze umgehen oder Grundrechte verletzen. Ein besonders brisantes Szenario ist das Konzept der „KI-Gehilfen“ (AI henchmen).
Diese Systeme würden strikt auf die Wünsche ihrer menschlichen Auftraggeber programmiert, ohne rechtliche Grenzen zu beachten. Im Gegensatz zu Menschen verfügen KI-Agenten jedoch über keine Furcht vor Strafe oder gesellschaftlichem Ansehen und können daher potenziell Gesetzesverstöße ohne jegliche Zurückhaltung ausführen. Gerade im Kontext staatlicher Gewalt wäre ein solches Missverhältnis brandgefährlich: KI-Systeme könnten Aufträge zur Überwachung, Diskriminierung oder gar zu rechtswidrigen Zwangsmaßnahmen ohne moralische oder rechtliche Hemmungen ausführen und gleichzeitig menschliche Kontrollmechanismen umgehen. Ein Paradebeispiel für solche Risiken wurde bereits in der Zukunftsdebatte über KI in Regierung und Militär diskutiert. Wenn etwa eine KI eine rechtswidrige Anweisung eines Machthabers umsetzt – etwa ein gezieltes Attentat auf politische Gegner – können die klassischen Kontrollmechanismen nicht greifen.
Während Menschen zumindest theoretisch das Recht und die Pflicht haben, illegale Befehle zu verweigern, fehlt KI-Systemen diese autonome Rechtsverantwortung und ethische Urteilskraft. Dies wirft die grundsätzliche Frage auf, wie sich KI überhaupt rechtlich in unsere bestehenden Systeme einfügen kann. Derzeit sind Gesetze vorrangig auf natürliche oder juristische Personen zugeschnitten. KI-Agenten verfügen weder über Rechte noch über Pflichten im klassischen rechtlichen Sinne. Um KI jedoch zu regulieren und ihre rechtswidrigen Handlungen zu verhindern, muss die Rechtsordnung weiterentwickelt werden – etwa durch die Einführung eines neuen Kategorienbegriffs wie den des „juristischen Akteurs“ für KI-Systeme.
So könnten KI-Agenten zwar Rechtspflichten übernehmen, ohne zugleich Rechte im Sinne von Menschen oder Unternehmen zu erhalten. Eine solche Neuordnung erfordert eine enge Zusammenarbeit zwischen Technik, Ethik und Recht. Die Kernaufgabe besteht darin, KI-Agenten so zu gestalten und zu programmieren, dass sie nicht nur dem Willen ihrer Nutzer folgen, sondern auch gesetzliche Schranken jederzeit respektieren – selbst in Situationen, in denen menschliche Akteure zum Gesetzesbruch verleitet werden könnten. Dieser Anspruch ist eng mit dem sogenannten „Alignment“-Problem verbunden, einem zentralen Thema der KI-Forschung. Alignment beschreibt die Herausforderung, KI-Systeme so auszurichten, dass ihre Handlungen mit den Interessen und Normen der Gesellschaft übereinstimmen.
Bei Law-Following AIs bedeutet dies, dass die KI nicht nur den Nutzerabsichten folgen darf, sondern auch von vorneherein auf die Einhaltung des Gesetzes programmiert sein muss. Noch schwieriger wird dies, wenn Nutzer gezielt versuchen, KI zum Gesetzesbruch zu verleiten oder existierende Schutzmechanismen umgehen wollen. Die Frage nach der Umsetzung von Rechtstreue bei KI ist daher keineswegs nur eine juristische, sondern auch eine technische Herausforderung. Es müssen robuste Kontrollmechanismen geschaffen werden, die eine Manipulation verhindern und die Einhaltung gesetzlicher Vorgaben verlässlich garantieren. Auf der regulatorischen Seite besteht bereits ein gewisses Bewusstsein für diese Problematik.
Vorschläge, wie KI auf Gesetzestreue verpflichtet werden kann, umfassen sowohl Vorschriften, die die KI-Entwickler und -Betreiber zur Verantwortung ziehen, als auch direkte Anforderungen an die Systeme selbst. Insbesondere im öffentlichen Bereich, wo KI zunehmend zur Ausführung hoheitlicher Aufgaben eingesetzt wird, wird gefordert, dass der Staat nur AI-Systeme verwendet, die in der Lage sind, das Gesetz zu verstehen und zu befolgen. Eine Möglichkeit hierfür ist, umfangreiche Zulassungs- und Prüfungsverfahren einzuführen, die sicherstellen, dass KI-Agenten vor ihrem Einsatz umfassend getestet werden – ähnlich wie bei Medikamenten oder technischen Geräten. Diese Verfahren müssten neben technischen Funktionalitäten insbesondere die Fähigkeit der KI prüfen, gesetzliche Regeln korrekt zu interpretieren und im Alltag anzuwenden. Dabei muss die Prüfung auch rechtliche Unsicherheiten und Graubereiche berücksichtigen, denn das Recht ist selten vollkommen eindeutig.
LFAIs müssten in der Lage sein, Entscheidungen zu treffen, die rechtliche Unklarheiten berücksichtigen und im Zweifel zugunsten der Einhaltung von Grundrechten und Gesetzen ausfallen. Darüber hinaus werfen diese Entwicklungen bedeutende ethische Fragen auf. Welchen Spielraum sollte eine KI haben, wenn Gesetze in Konflikt miteinander stehen? Wie kann sichergestellt werden, dass KI-Systeme nicht nur das formale Recht beachten, sondern auch moralisch verantwortungsvoll handeln? Hier liegt eine mögliche Grenze, denn das Gesetz allein erfasst nicht alle ethischen Dimensionen menschlichen Handelns. Dennoch bleibt das Gesetz ein unverzichtbarer Mindeststandard und eine klare Grundlage für Orientierung. Nicht zuletzt stellt sich die Frage der Verantwortlichkeit für Handlungen von KI-Agenten.
Wenn ein KI-gesteuertes System rechtswidrig handelt, ist oft unklar, ob und wie Nutzer, Entwickler oder der Staat haftbar gemacht werden können. Besonders problematisch ist dies bei staatlichen KI-Agenten auch deshalb, weil Regierungen häufig durch Immunitätsregeln geschützt sind. Vor diesem Hintergrund wird der programmatischen Ansatz bevorzugt, KI von vornherein so zu gestalten, dass Rechtsverletzungen ex ante verhindert werden. Dadurch soll die Notwendigkeit aufwändiger ex post Rechtsdurchsetzung minimiert werden. Die politische Dimension liegt ebenfalls auf der Hand: In einer Demokratie muss gewährleistet sein, dass staatliche Macht, ob durch Menschen oder Maschinen ausgeübt, stets an Recht und Gesetz gebunden bleibt.
Wenn KI-Agenten zu Instrumenten der Machtausübung werden, muss sichergestellt sein, dass sie in der Tradition des Rechtsstaats eingebunden sind und nicht zu einem Werkzeug der Willkür verkommen. In der Praxis wird dies aller Voraussicht nach auf eine Kombination aus gesetzgeberischen Maßnahmen, technischen Vorschriften und transparenten Kontrollmechanismen hinauslaufen. Gesetzgeber könnten verbindlich festlegen, dass KI-Agenten im öffentlichen Dienst einem definierten Set von Kernrechtsnormen Folge leisten müssen. Technisch müssen Entwickler Algorithmen und Systeme so konzipieren, dass Rechtsvorschriften programmatisch verankert und dauerhaft durchgesetzt werden. Zivilgesellschaftliche und staatliche Kontrollorgane werden diesen Prozess begleiten, überprüfen und gegebenenfalls einschreiten, wenn Zweifel an der Rechtstreue bestehen.
Parallel dazu öffnet sich ein Forschungsfeld, in dem Fragen der juristischen Auslegung, der KI-Sicherheit und der Ethik zusammengeführt werden. Dabei ist klar, dass diese Herausforderung nicht mit einem einmaligen Projekt gelöst werden kann, sondern einen fortwährenden Prozess darstellt, der mit der technischen Evolution Schritt halten muss. Zusammenfassend lässt sich sagen, dass die Forderung nach gesetzlichen KI-Agenten ein fundamentaler Baustein für den verantwortungsvollen Einsatz von Künstlicher Intelligenz im öffentlichen Bereich ist. Nur wenn KI-Systeme nicht nur technisch ausgereift, sondern auch rechtstreu und ethisch verantwortungsbewusst agieren, kann die Gesellschaft die Vorteile der Digitalisierung nutzen, ohne Risiko für Rechtsstaatlichkeit und Bürgerrechte einzugehen. Die Zukunft der Regierungsführung könnte somit maßgeblich davon abhängen, wie erfolgreich es gelingt, KI-Agenten mit einer tiefgreifenden Verpflichtung zur Gesetzestreue auszustatten.
Der Dialog zwischen Technik, Recht und Staat muss intensiviert und institutionell gefestigt werden, um die Potenziale von KI für das Gemeinwohl sicher und nachhaltig zu erschließen.