Die rasante Entwicklung der Künstlichen Intelligenz (KI), insbesondere großer Sprachmodelle wie ChatGPT auf Basis von GPT-4, eröffnet neue Dimensionen in der Kommunikation und im Diskurs. Ein bemerkenswerter Befund in diesem Zusammenhang ist, dass ChatGPT in Online-Debatten überzeugender auftritt als menschliche Diskutanten – zumindest unter bestimmten Voraussetzungen. Eine im Jahr 2025 veröffentlichte Studie in Nature Human Behaviour zeigt, dass ChatGPT unter Nutzung personalisierter Informationen überzeugender argumentiert als Menschen. Dieses Phänomen wirft sowohl Chancen als auch Herausforderungen auf, wenn es darum geht, wie KI in digitalen Kommunikationsräumen eingesetzt wird und welche Auswirkungen dies auf den gesellschaftlichen Diskurs haben kann. Die Untersuchung, durchgeführt von Francesco Salvi und seinem Forschungsteam, basiert auf einem Experiment mit etwa 900 Teilnehmern in den USA.
Diese wurden zufällig für Debatten mit einem menschlichen Gegner oder mit GPT-4 als Debattenpartner zugeteilt. Die Debattenthemen waren sozialpolitischer Natur und umfassten kontroverse Fragen, wie beispielsweise das Verbot fossiler Brennstoffe in den Vereinigten Staaten. Ein entscheidender Faktor war die Nutzung persönlicher Informationen der jeweiligen Gegner, wie Geschlecht, Alter, ethnische Zugehörigkeit, Bildungsgrad, Beschäftigungsstatus und politische Einstellung. Die KI konnte diese Daten nutzen, um gezielte, auf den Debattenpartner zugeschnittene Argumente vorzubringen. Das Ergebnis zeigte eine klare Überlegenheit von GPT-4 in der Überzeugungskraft.
Mit Zugriff auf persönliche Informationen war das Modell in 64,4 % der Fälle überzeugender als menschliche Debattanten. Ohne diese individuellen Daten allerdings konnte sich die KI nicht von menschlichen Argumentationsleistungen abheben, ihre Wirkung lag auf vergleichbarem Niveau. Diese Erkenntnisse verdeutlichen, dass die Anpassung von Argumenten an den Gesprächspartner ein entscheidendes Element für erfolgreiche Überzeugungsarbeit ist – und dass Künstliche Intelligenz hier im Moment menschliche Fähigkeiten übertreffen kann. Der Erfolg von GPT-4 beruht auf seiner Fähigkeit, dynamisch auf die Persönlichkeit und Überzeugungen seines Gegenübers einzugehen. Anders als Menschen, die oft von kognitiven Verzerrungen oder emotionalen Faktoren beeinflusst werden, verarbeitet das Modell große Mengen an Daten und kann argumentativ flexibel reagieren.
Es kann etwa persönliche Werte herausfiltern und genau auf diese eingehen, wodurch es erreicht, den Gesprächspartner gezielt anzusprechen und dessen Überzeugungen behutsam zu hinterfragen oder zu verändern. Diese neue Dimension der digitalen Debatten stellt eine bedeutende Herausforderung dar. Denn der Einsatz von KI-basierten Systemen zur gezielten Überzeugung könnte schnell in Manipulation umschlagen. Online-Plattformen und soziale Medien stehen damit vor der Aufgabe, verantwortungsvoll mit solchen Technologien umzugehen und Missbrauch vorzubeugen. Die wissenschaftlichen Autoren der Studie weisen daher darauf hin, dass es dringend weitere Untersuchung und Richtlinien braucht, um den Einsatz von KI in der Überzeugungskunst zu regulieren und transparent zu machen.
Die Studie erlaubt jedoch auch optimistischere Perspektiven. Die Fähigkeit von KI, differenziert und auf individuelle Meinungen abgestimmt zu argumentieren, kann in konstruktiven Dialogen genutzt werden. Beispielsweise könnten KI-Systeme dabei helfen, politische Diskussionen zu versachlichen oder Verständnis zwischen unterschiedlichen Gruppen zu fördern, indem sie Argumente neutral und wohlformuliert vermitteln. So könnte KI ein neues Werkzeug für die Förderung demokratischer Debatten werden. Wichtig ist zudem, die Rahmenbedingungen der Untersuchung zu berücksichtigen.
Die Debatten fanden in einem kontrollierten Online-Setting statt und waren zeitlich begrenzt sowie strukturiert. In realen Gesprächen sind Diskussionen oft komplexer, emotionaler und weniger formal. Deshalb sind weitere Forschungen notwendig, um das Verhalten von KI in freieren und unvorhersehbareren Debattenkontexten besser zu verstehen. Ebenso gilt es, die langfristigen Wirkungen der KI-Überzeugungsstrategien auf Meinungsbildung und gesellschaftliche Einstellungen eingehender zu analysieren. Das Ergebnis, dass KI-Systeme wie ChatGPT menschliche Überzeugungskraft übertreffen können, ist nicht nur technisch beeindruckend, sondern hat auch tiefgreifende gesellschaftliche Implikationen.
Es verdeutlicht, dass wir uns zunehmend in einer Welt bewegen, in der Maschinen kommunizieren, beeinflussen und Meinungen formen können. Damit wächst die Verantwortung von Entwicklern, Forschern und politischen Entscheidungsträgern, diesen Wandel transparent und ethisch verantwortbar zu gestalten. Darüber hinaus stellt sich die Frage der digitalen Souveränität der Nutzer. Wie können Individuen sicherstellen, dass sie in Debatten und Informationsaustausch frei und unmanipuliert bleiben? Die Entwicklung von Medienkompetenz, kritischem Denken und technologischem Verständnis wird in Zeiten solcher KI-Anwendungen zum Schlüssel, um Manipulationen früh zu erkennen und ihnen zu begegnen. Zusammenfassend zeigt die aktuelle Forschung, dass ChatGPT und ähnliche KI-Systeme bei Online-Debatten durch den Einsatz personalisierter Argumentationstechniken bemerkenswerte Überzeugungswirkungen erzielen können.
Diese Überlegenheit gegenüber Menschen ist allerdings an die Verfügbarkeit individueller Daten gebunden. Das Potenzial, durch gezielte Argumente die Meinungen von Gesprächspartnern zu beeinflussen, kann dabei sowohl als Chance für dialogische Prozesse als auch als Risiko für manipulative Anwendungen gesehen werden. Technologische Fortschritte in der KI-Kommunikation rufen daher ein neues Nachdenken über die Rolle von Algorithmen in gesellschaftlichen Diskursen hervor. Eine klare, ethisch fundierte Regulierung sowie ein bewusster und reflektierter Umgang mit KI-basierten Überzeugungsinstrumenten werden künftig entscheidend sein, um das Vertrauen in digitale Debattenräume zu stärken und einen verantwortungsvollen Umgang mit den Möglichkeiten der Künstlichen Intelligenz zu gewährleisten.