Die Welt hat in den letzten Jahren einen rapiden Fortschritt in der künstlichen Intelligenz erlebt, insbesondere bei großen Sprachmodellen wie ChatGPT. Diese KI-Systeme haben die Fähigkeit, menschenähnliche Texte zu generieren, basierend auf Wahrscheinlichkeiten und statistischer Relevanz, oft aber ohne zwingende Bindung an Fakten oder Wahrheit. Interessanterweise zeigen sich hier Parallelen zu den Kommunikationsmustern des aktuellen Präsidenten der Vereinigten Staaten, der mit einer Art algorithmischem Generieren von Antworten arbeitet, das sich stark mit den typischen Eigenheiten von KI-Halluzinationen vergleichen lässt. Die Begrifflichkeit „Halluzination“ im Zusammenhang mit KI beschreibt die Fähigkeit von Sprachmodellen, überzeugend klingende, aber faktisch falsche oder erdachte Informationen zu produzieren. Diese Tendenz ist kein Fehler, sondern eine Konsequenz der Konstruktion solcher Modelle, die auf Wahrscheinlichkeiten beruhen und darauf optimiert sind, plausibel zu klingen.
Es geht also nicht um Wissen, sondern um das Nachahmen von Mustern, die im Trainingsdatensatz enthalten sind. Übertragen auf die Kommunikation des Präsidenten fällt auf, dass auch seine Antworten häufig nicht auf verifizierbaren Fakten basieren, sondern vielmehr auf einem Muster des Plausibel-Klingens ohne präzise Wahrhaftigkeit. So werden Fragen oft nicht konkret beantwortet, stattdessen werden allgemeine, teilweise zusammenhangslose Behauptungen oder Ablenkungen genutzt, um eine selbst vorteilhafte Darstellung zu erzeugen. Die Fakten spielen eine untergeordnete Rolle, die Rhetorik und das Ziel, das Publikum in bestimmter Weise zu beeindrucken oder zu beeinflussen, stehen im Fokus. Dieser Kommunikationsstil ist gekennzeichnet durch das Konfident-Agieren trotz fehlendem Sachwissen, die Vermeidung von Verantwortung und das Ablehnen von Kritik.
Typisch sind auch häufige Schuldzuweisungen an andere und das Wiederholen eingängiger Schlagwörter oder Floskeln, die den gewünschten Eindruck von Stärke, Erfolg und Unfehlbarkeit vermitteln sollen. Dieser Mechanismus entspricht in vieler Hinsicht der Art, wie ein KI-Modell eine Antwort auf eine gestellte Frage generiert: Ein Satz folgt dem anderen, eine plausible Narrative wird erzeugt – unabhängig davon, ob die Informationen stimmen oder nicht. Die politische Bedeutung dieses Phänomens ist vielfältig. Zum einen stellt die Parallele zwischen der menschlichen und KI-gestützten Kommunikation eine Aufforderung dar, die eigene Glaubwürdigkeit und das Vertrauen in öffentliche Personen und Institutionen kritisch zu hinterfragen. Die Erkenntnis, dass auch eine reale Person oft ähnlichen „halluzinatorischen“ Mustern folgt wie die künstliche Intelligenz, sollte Medien, Wissenschaft und Öffentlichkeit dazu bringen, sorgsamer mit getätigten Aussagen umzugehen und Fakten stärker einzufordern.
Zum anderen offenbart sich ein neues Verständnis von politischer Inszenierung, in der nicht mehr der Faktengehalt, sondern die kommunikative Wirkung im Zentrum steht. Die Politik wird so zu einer Bühne des Präsentierens und Überzeugens, bei der die Wahrheit immer mehr hinter rhetorischen Strategien zurücktritt. Dies führt zu einer Polarisierung in der Gesellschaft, da objektive Maßstäbe zunehmend an Bedeutung verlieren, während Emotionen und Identifikation mit bestimmten Personen oder Narrativen dominieren. Der Umstand, dass KI-Modelle meist als Experimente und Dienstleistungen verstanden werden, während ein Präsident reale Folgen mit seinen Worten und Entscheidungen herbeiführt, macht die Beobachtung noch eindrücklicher. Wo bei KI das Vertrauen in ihren Output stets mit Vorsicht behandelt wird, wird in der politischen Arena oft ein anderes Maß angelegt: Aussagen werden teils unkritisch als Absichten oder Wahrheiten interpretiert, was erhebliche Auswirkungen auf demokratische Prozesse und gesellschaftliches Zusammenleben haben kann.
Aus journalistischer Sicht ist die Analogie zwischen KI-Halluzinationen und der Kommunikationsweise von Politikern auch eine Einladung an die Medien, neue Strategien im Umgang mit solchen Aussagen zu entwickeln. Es genügt nicht, Falschaussagen nur als solche zu brandmarken, vielmehr muss der systemische Mechanismus, der hinter diesen rhetorischen Mustern steckt, verstanden und aufgedeckt werden. Die Fragen müssen so gestellt werden, dass sie klare und überprüfbare Antworten erzwingen oder die Ausweichmanöver sichtbar werden. Neben der politischen und medialen Dimension wirft das Phänomen auch ethische und gesellschaftliche Fragen zur Nutzung von KI selbst auf. Wenn Menschen teilweise schon vorgefertigte Rollen oder Verhaltensmechanismen übernehmen, die sich mit den Mustern eines Sprachmodells decken, wird die Abgrenzung zwischen Mensch und Maschine unschärfer.
Es entsteht die Frage, wie viel Authentizität und Wahrhaftigkeit wir in öffentlichen Diskursen überhaupt erwarten können, wenn Kommunikation mehr und mehr zu einer Simulation wird. Ein weiterer Aspekt ist die Rolle der Anhänger solcher Kommunikationsformen. Viele Menschen sind empfänglich für Aussagen, die klare, wenn auch nicht wahrheitsgemäße, Botschaften senden und so einfache Lösungen oder Feindbilder bieten. Dieses Bedürfnis wird von den „halluzinierenden“ Antworten ideal befriedigt, da sie die subjektiven Erwartungen, Vorurteile oder Hoffnungen bedienen, ohne sich durch komplexe oder unangenehme Wahrheiten einschränken zu lassen. Im Kontrast dazu stehen die Herausforderungen und Risiken bei der Verwendung von KI in öffentlichen und privaten Räumen.