Seit der Einführung von ChatGPT durch OpenAI vor gut zwei Jahren hat sich die öffentliche Debatte rund um Künstliche Intelligenz (KI) massiv ausgeweitet. Während die Medien viele Schlagzeilen über den vermeintlichen Aufstieg der sogenannten Allgemeinen Künstlichen Intelligenz (AGI) veröffentlichen, offenbart sich eine ganz andere Wirklichkeit, die abseits von Science-Fiction-Spekulationen von enormer Relevanz ist. KI, insbesondere in Form von großen Sprachmodellen (Large Language Models, LLMs), repräsentiert heute mehr eine Revolution der digitalen Bürokratie als eine tatsächliche maschinelle Intelligenz. Dabei wird ihr wahres Potenzial und ihre Gefahr häufig verkannt, weil der Fokus auf der Illusion von „Intelligenz“ liegt und weniger auf ihren bürokratischen Funktionen und der Ausweitung von Datenkontrolle. Large Language Models sind im Kern nichts weiter als gigantische Matrizen von Werten, die Worte repräsentieren.
Ihre Trainingsdaten umfassen Billionen von Tokens – einzelne Worte, Satzzeichen, Buchstaben und Zahlen –, die das Ergebnis von Milliarden von Dollar an Investitionen und dem über Jahrzehnte gewachsenen Internet bilden. Diese Kolosse der Datenverarbeitung vermögen menschliche Sprache zu imitieren, Texte zu generieren und auf Fragen zu antworten, was bei Nutzern oft den Eindruck entstehen lässt, es handele sich um echte Ingenuität. Doch jegliche Intelligenz, wie wir sie bei Menschen kennen, besitzen sie nicht. Stattdessen sind sie raffinierte Werkzeuge, die Wort- und Datenstrukturen miteinander verbinden, und damit eine neue Ebene der digitalen Bürokratie erschaffen. Die große Herausforderung liegt darin, diese Fähigkeit nicht mit echter Denkfähigkeit zu verwechseln – ein Fehler, den man als „Performancefallacy“ bezeichnen kann.
Die Leistungsfähigkeit von LLMs in Benchmark-Tests und deren sprachliche Ausdrucksstärke sind beeindruckend, jedoch ein unzureichender Nachweis für echte Intelligenz. Historisch gesehen wurde immer wieder Vorstellungskraft mit tatsächlicher Intelligenz verwechselt. Beispielsweise führte die Fähigkeit von IBM’s Deep Blue im Jahr 1997, Weltmeister im Schach zu schlagen, nicht zu der Annahme, die Maschine sei intelligent. Ebenso ist AlphaGo, das 2015 im Go-Spiel triumphierte, kein Zeichen für eine echte AGI. Der eigentliche Durchbruch bei LLMs liegt in ihrer Fähigkeit, die Lücke zwischen Zahlen und Sprache zu schließen.
Bürokratie basiert traditionsgemäß auf der Verarbeitung von Daten – also Zahlen, Tabellen, Formularen – und deren Übersetzung in verständliche Sprache, Berichte und Entscheidungen. Spreadsheets sind das klassische Werkzeug hierfür, doch ihre Funktionen bleiben bis heute beschränkt, da sie Zahlen manipulieren können, aber den Sinn der in ihnen gespeicherten Informationen meist dem menschlichen Verstand überlassen. LLMs erweitern dieses Spektrum indem sie es ermöglichen, Datentabellen semantisch zu interpretieren und in natürlicher Sprache darzustellen – fast wie eine universelle Übersetzungsmaschine zwischen Daten und Worten. Dieses neue Verhältnis von Sprache und Daten birgt ein enormes Potenzial für die digitale Verwaltung, bringt aber auch neue Risiken mit sich. Denn wo immer mehr Prozesse automatisiert und durch solche KI-Tools ersetzt werden, verändert sich die Art und Weise, wie Macht in Organisationen und Staaten ausgeübt wird.
Elon Musks Projekt der „Department of Governmental Efficiency“ (DOGE) ist ein Beispiel für die Verschmelzung von AI-gestützter Bürokratie und heiß umstrittener Politik. Dort wird offenbar, wie sich KI-Systeme als Mittel einsetzen lassen, um föderale Verwaltungsprozesse zu optimieren – oder auch, um Zahlungen zu kontrollieren, ganze Abteilungen zu „löschen“ oder politische Gegner auszuschalten. Die eingeführte Automatisierung greift dabei tief in persönliche und gesellschaftliche Rechte ein, ohne dass ein ausreichender demokratischer Kontrollrahmen gegeben wäre. Die bisherige Euphorie über die Automatisierung vieler Büroarbeitsplätze durch KI überdeckt oft die Realität, dass diese Systeme nicht autonom intelligent sind, sondern weiterhin menschliche Entscheidungen und Interpretationen benötigen. Es handelt sich um eine Erweiterung der traditionellen Verwaltung, die gleichzeitig menschliche Kontrolle erleichtert und gleichzeitig entmachtet – je nachdem, wie und von wem die Technologie eingesetzt wird.
Digitale Datenkultur hat sich so in eine noch größere, global verwobene Form verwandelt, in der Milliarden von Details kontinuierlich erfasst, ausgewertet und gedeutet werden müssen. Wichtig ist anzuerkennen, dass diese „Spreadsheets in Hyperdrive“ uns vor neue räumliche und ethische Herausforderungen stellen. Die Beziehung zwischen Zahlen und Worten – zwischen Daten und Bedeutung – ist schon immer zentral in der Organisation moderner Gesellschaften gewesen. KI fungiert hier als eine Art sphärische Weiterentwicklung eines Werkzeugs, das wir jahrzehntelang nutzten, um mit diesen Datenmengen umgehen zu können. Doch diese neue Stufe ist nicht neutral.
Sie verändert sowohl den Zugang zu Informationen als auch den Handlungsspielraum von Menschen. Allein die schiere Menge an bereits existierenden Datensätzen, ihre digitale Archivierung und Verknüpfung mit Algorithmen, ermöglicht völlig neue Überwachungs- und Steuerungsformen – von der individuellen Verhaltensvorhersage bis hin zu dunklen Manipulationen durch gezielte Eingriffe in Systeme. Unternehmen wie Palantir zeigen, wohin diese Entwicklungen führen können, wenn sie sich mit staatlichen Sicherheitsapparaten verbinden. Der Übergang von einem datenbasierten Bürokratienetzwerk hin zu einer KI-steuerbaren Allmacht im Verborgenen birgt enorme Gefahren für Demokratien, Rechtstaatlichkeit und den Schutz der Privatsphäre. Diese zunehmende Verschmelzung von digitalen Datenströmen und KI bedeutet, dass Kontrolle längst nicht mehr allein über Wahlen oder politische Meinungsbildung ausgeübt wird.
Wer die „Tabellen“ verwaltet, also die Systeme, die unsere Daten speichern, verarbeiten und daraus Entscheidungen ableiten, besitzt eine machtvolle Schlüsselposition. Das macht die vermeintlich unscheinbarste aller Technologien, die Tabellenkalkulation, zum zentralen Werkzeug der Gegenwart und Zukunft. Die Konsequenz ist, dass wir eine Neubewertung unseres Verhältnisses zu Technologie benötigen – fern von reinen Innovationsmythen und den Trugbildern echter oder künstlicher Intelligenz. Vielmehr muss der Fokus darauf liegen, wie diese Systeme funktionieren, welche kulturellen und politischen Implikationen sie haben und wie wir demokratische Kontrolle und wissenschaftliche Analyse stärken können. Den digitalen Bürokratien darf keine undurchsichtige Machtbasis entstehen, die soziale Verträge aushebelt und Privilegien unsichtbar zementiert.
Das beginnende Zeitalter der KI ist somit weniger das Zeitalter einer neuen denkenden Maschine als vielmehr der nächste Entwicklungsschritt in der Evolution der Bürokratie. Eine intelligente Gesellschaft wird nicht jene sein, die einfach mehr Automatisierung zulässt, sondern jene, die sich aktiv mit den Grenzen, Risiken und Möglichkeiten ihrer Daten und Systeme auseinandersetzt. Große Sprachmodelle sind kulturelle Technologien, die Sprache und Daten zu einer neuen Form kombinieren. Sie sind keine Genies, sondern riesige Bibliotheken menschlicher Kultur – leistungsfähig darin, Muster zu erkennen und zu replizieren, aber ohne echtes kreatives oder bewusste Intelligenz. Das Verständnis dieser Differenz ist entscheidend, um die gesellschaftlichen Folgen einordnen und gestalten zu können.
Unsere digitale Zukunft wird geprägt sein von der Frage, wie wir mit der Zunahme der unüberschaubaren Datenmengen umgehen, wie die Schnittstellen von Algorithmus und Mensch gestaltet werden und wie Macht kontrolliert wird, die sich aus der technischen Überlegenheit ergibt. Die „Tabellenherrscher“ sind hier keine mystischen Wesen, sondern mechanische Systeme, deren Verwaltung und Einsatz wieder eine praktische, politische und ethische Aufgabe für uns alle ist.