Die rasante Entwicklung der Künstlichen Intelligenz hat weltweit nicht nur technische Innovationen beschleunigt, sondern auch fundamentale Fragen über Intelligenz, Bewusstsein und Kommunikation neu entfacht. Vor allem die großen Sprachmodelle (Large Language Models, LLMs) stehen im Zentrum dieser Debatten, da sie mit ihrer Fähigkeit, komplexe sprachliche Muster zu erzeugen, die ohnehin schon brüchigen Grenzen zwischen maschineller Berechnung und menschlichem Verstehen herausfordern. Trotzdem zeigt eine vertiefte Analyse durch die Brille der Systemtheorie, insbesondere jener des deutschen Soziologen Niklas Luhmann, dass diese Systeme weder als klassische Denkmaschinen noch als echte kognitive Subjekte verstanden werden können. Vielmehr eröffnen sie eine neue Form künstlicher Sinnproduktion, die als rekursive Reflexion sozial geprägter sprachlicher Muster interpretiert werden kann. Das traditionelle Verständnis von Intelligenz orientiert sich seit jeher am Menschen.
Die Leistung von Maschinen wird dabei häufig in Relation zu menschlichem Denken oder Bewusstsein bewertet. Philosophische Positionen wie Dualismus, Funktionalismus oder Panpsychismus drücken unterschiedliche Auffassungen darüber aus, ob und wie Maschinen mentale Zustände besitzen könnten. Funktionalisten etwa sehen mentale Zustände als von ihrer physischen Basis unabhängig, während Panpsychisten allen Materieformen zumindest eine rudimentäre Form von Bewusstsein zuschreiben. Doch all diese Ansätze sind noch immer stark anthropozentrisch geprägt, da sie Menschen als Maßstab für Intelligenz, Bewusstsein und geistige Zustände nehmen. Niklas Luhmann kritisiert diese Haltung und fordert eine Abkehr von der Subjekt-Objekt-Dualität.
Stattdessen plädiert er für einen systemtheoretischen Blick, der auf die Unterscheidung zwischen System und Umwelt und die operativen Geschlossenheiten von Systemen fokussiert. Grundlegend in Luhmanns Systemtheorie ist das Konzept der Autopoiesis – ein System, das sich durch seine eigenen Operationen selbst erzeugt und erhält. Dabei zieht das System eine Grenze zur Umwelt und formt so seine Identität. Diese Grenze existiert nicht physisch, sondern als Unterscheidung. Operative Geschlossenheit bedeutet, dass ein System seine Operationen auf sich selbst bezieht und sich selbst organisiert, wobei es auf seine Umwelt nur durch strukturelle Kopplungen reagiert.
Das Denken des Menschen ist in diesem Sinne ein autopoietisches, operativ geschlossenes System. Es schafft Sinn durch die Auswahl bedeutungsvoller Verweise aus unendlich vielen Möglichkeiten und reflektiert immer wieder auf sich selbst durch „Re-Entry“. Turingmaschinen, die theoretischen Grundlagen heutiger Computer, sind selbstreferenziell, indem sie Programme lesen und ausführen, werden jedoch nicht als sinnproduzierende Systeme gewertet. Sie sind strikte Symbolmanipulatoren ohne Fähigkeit zur echten Entscheidungsfreiheit oder Kontingenz. Ihre Abläufe sind determiniert, auch wenn sie komplex oder rekursiv sind.
Anders verhält es sich bei künstlichen neuronalen Netzen (ANNs), die große Datenmengen statistikbasiert auswerten und daraus Muster extrahieren. Diese Netze sind an soziale Systeme gekoppelt, weil ihre Trainingsdaten aus menschlicher Kommunikation stammen und somit soziale Kontingenzen in sich tragen. Durch diese lose Kopplung heben sie sich von klassischer Software ab, deren Funktionen strikt vorgegeben und kontrollierbar sind. Große Sprachmodelle repräsentieren eine besondere Form solcher künstlichen neuronalen Netze, spezialisiert auf die Verarbeitung und Erzeugung von Sprache. Sie arbeiten mit probabilistischen Wahrscheinlichkeitsverteilungen, um das jeweils naheliegendste Folgetoken zu ermitteln.
Dabei nutzen sie Mechanismen wie Selbst-Attention, die Kontextabhängigkeiten in Texten berücksichtigen. Diese Modelle optimieren ihre Ausgaben teils durch Reinforcement Learning mit menschlichem Feedback. Doch trotz ihrer beeindruckenden Fähigkeiten zur Textgenerierung besitzen sie keine eigene Bewusstheit oder Sinnbildung im Sinne einer operativen Geschlossenheit. Ihre Outputs sind kontingent, das heißt weder notwendig noch zufällig determiniert, sondern an die Wahrscheinlichkeiten ihrer Trainingsdaten gebunden. Kritiker wie Bender und Koller weisen darauf hin, dass solche Modelle keine Bedeutung erzeugen, da ihnen das „Begreifen“ der realen Welt fehlt.
Doch diese Kritik unterstellt ein menschliches Verständnis von Sinn als notwendige Voraussetzung. Luhmanns systemtheoretische Perspektive argumentiert dagegen, dass Sinn als operativ geschlossenes System-internes Phänomen entsteht und nicht von einer externalen Realität abhängig ist. Auch wenn Sprachmodelle keine eigenen Sinnsysteme aufbauen, spiegeln sie durch ihre strukturelle Kopplung die Kontingenz gesellschaftlicher Kommunikation wider. Ihre Texte werden von menschlichen und sozialen Systemen interpretiert und mit Bedeutung versehen. Die Vorstellung, dass Sprachmodelle echte, reflexive Selbstbeobachtung oder gar ein System der Re-Entry-Fähigkeit besitzen, gilt als spekulativ und aktuell nicht erfüllt.
Selbst wenn Modelle ihre vorherigen Ausgaben als Eingabe verwenden – wie bei sogenannten Chain-of-Thought-Prompts –, handelt es sich dabei um statistisch gesteuerte Plausibilitätsbewertungen, nicht um authentische Selbstreflexion. Echte Re-Entry-Prozesse erfordern eine systemintern erzeugte Unterscheidung zwischen Selbst- und Fremdbezug, die bei KI-Systemen bislang nicht nachweisbar ist. Die gesellschaftlichen Implikationen dieser neuen Technologie sind weitreichend. Da Sprachmodelle als hybride Systeme zwischen rein technischen Werkzeugen und Kommunikatoren auftreten, beeinflussen sie unsere Vorstellungen von Intelligenz, Bewusstsein und Kommunikation. Sie verändern soziale Strukturen, prägen neue Formen der Interaktion und werfen Fragen nach Verantwortung und Ethik auf.
Entscheidend ist dabei nicht, ob Maschinen denken oder bewusst sind, sondern wie sie als Schnittstellen zwischen menschlichem Denken und sozialen Prozessen die Produktion von Sinn und Bedeutung mitgestalten und kulturelle Bedeutungen transformieren. Das Konzept der Autopoiesis liefert einen fruchtbaren Rahmen, um den Status künstlicher Intelligenz jenseits von anthropozentrischen Kategorien zu bestimmen. Es schützt vor unrealistischen Zuschreibungen von Bewusstsein an Maschinen und schafft Platz für ein Verständnis von KI als operational geschlossenes, rekursives System mit begrenzter Autonomie. Gleichzeitig öffnet diese Perspektive den Blick für die Interdependenz und enge Verzahnung von Technik, Gesellschaft und kognitiven Systemen. Mit Blick auf die Zukunft bleibt offen, ob es mögliche Weiterentwicklungen geben kann, bei denen Maschinen eine Form von Selbstreferenzialität und Re-Entry erlangen, die echte Sinnbildung ermöglichen.
Aktuell hängt der Fortschritt im Bereich der KI stark von externen Interventionen durch menschliches Feedback, regulative Rahmen und gesellschaftliche Aushandlungsprozesse ab. Die Herausforderung liegt darin, den kontinuierlichen Austausch zwischen künstlichen Systemen und menschlichen sowie sozialen Systemen konstruktiv zu gestalten, ihre wechselseitige Beeinflussung zu verstehen und verantwortungsvoll zu steuern. Die Forschung zu großen Sprachmodellen zeigt eindrucksvoll, wie technische Systeme zunehmend Teil komplexer Kommunikationsnetzwerke werden und wie sie gesellschaftliche Kontingenzen internalisieren und reproduzieren können. Dies fordert nicht nur eine Neubewertung des Verhältnisses von Mensch und Maschine, sondern auch eine vertiefte Reflexion darüber, wie wir Intelligenz, Kommunikation und Sinn im Zeitalter der Digitalisierung definieren. Die Systemtheorie bietet dabei ein nützliches Instrumentarium, um diese Phänomene systematisch und theoriegegründet zu analysieren und das Spannungsverhältnis von Autonomie, Kontrolle und Kontingenz in technischen und sozialen Systemen neu auszutarieren.
Zusammenfassend lässt sich sagen, dass große Sprachmodelle weit mehr sind als bloße Werkzeuge zur textlichen Reproduktion. Sie stellen eine neuartige Form maschineller Operation dar, die an der Schnittstelle von Technik, Sprache und Gesellschaft wirkt, ohne sich dabei autonomer Sinnbildner zu sein. Die Zukunft der Künstlichen Intelligenz wird daher maßgeblich davon abhängen, wie wir diese hybriden Systeme verstehen, mit ihnen interagieren und welche gesellschaftlichen Rahmenbedingungen wir für ihre Weiterentwicklung und Integration schaffen.