In einer Welt, in der digitale Kommunikation immer stärker von künstlicher Intelligenz durchdrungen wird, spielen große Sprachmodelle (Large Language Models, LLMs) wie ChatGPT eine zunehmend zentrale Rolle. Sie unterstützen Menschen bei Entscheidungen, generieren Antworten und beeinflussen damit soziale Interaktionen auf vielfältige Weise. Während das Potenzial dieser Technologien enorm ist und Effizienz sowie Produktivität gesteigert werden können, zeigen aktuelle wissenschaftliche Studien, dass der Einsatz von LLMs in direkten sozialen Interaktionen auch unerwünschte Folgen mit sich bringt. Die Skepsis gegenüber der Nutzung von KI in solchen Kontexten ist hoch und wirkt sich negativ auf Vertrauen, Fairness und Kooperation aus. Doch warum reagieren Menschen so zurückhaltend, wenn es darum geht, KI in zwischenmenschlichen Situationen zu involvieren? Und welche Konsequenzen ergeben sich daraus für unsere Gesellschaft und die zukünftige Nutzung von KI? Diese Fragen stehen im Mittelpunkt zahlreicher Forschungen und besonders einer groß angelegten Studie, die im April 2025 veröffentlicht wurde.
Die Studie, die eine Online-Experiment mit über 3500 Teilnehmern durchführte, setzte verschiedene ökonomische Spiele ein, um menschliche Verhaltensweisen in sozialen Interaktionen unter unterschiedlichen Bedingungen zu untersuchen. Dabei wurde der Einfluss von ChatGPT als Stellvertreter eines menschlichen Teilnehmers analysiert. Die Ergebnisse sind bemerkenswert: Immer dann, wenn ChatGPT die Entscheidungsfindung übernahm, sanken Fairness, Vertrauen, Vertrauenswürdigkeit, Kooperationsbereitschaft und Koordination signifikant. Das bedeutet, dass das Wissen darüber, mit einer KI zu interagieren, die sozialen Normen und Erwartungen der Menschen negativ beeinflusst. Die Zahl der kooperativen und fairen Entscheidungen war geringer, was wiederum zu niedrigeren individuellen und kollektiven Erträgen führte.
Interessanterweise trat keine solche negative Reaktion auf, wenn die Teilnehmer nicht wussten, ob sie mit einem Menschen oder einem KI-System interagierten. In Situationen der Ungewissheit verhielten sich Menschen fast so, als würden sie mit einem Menschen kommunizieren. Dieses Ergebnis zeigt, dass Transparenz in Bezug auf die Nutzung von KI eine ambivalente Rolle spielt: Offenlegung der KI-Nutzung kann Skepsis verstärken und die Qualität sozialer Interaktion mindern. Warum reagieren Menschen skeptisch auf KI in sozialen Interaktionen? Die Erforschung von menschlichen Algorithmen-Interaktionsprozessen zeigt, dass Menschen oft eine Abneigung gegen Algorithmen entwickeln, selbst wenn diese objektiv bessere oder rationalere Entscheidungen treffen könnten. Bei LLMs, die als universelle Tools für textbasierte Kommunikation gelten, tritt diese Algorithmen-Aversion ebenfalls auf.
Die Gründe dafür werden in einem allgemeinen Mangel an Vertrauen vermutet. Menschen sind sozial-kognitive Wesen, die nicht nur rationale Faktoren berücksichtigen, sondern auch emotionale und normative Erwartungen in ihre Interaktionen einfließen lassen. Algorithmen und KI-Systeme gelten oft als unempathisch, technisch und unpersönlich, was zu einem Verlust von sozialer Wärme und Intuition führt. Die Untersuchung verdeutlicht zudem, dass Menschen oft ihre eigenen Entscheidungen an die KI delegieren, besonders wenn der Einsatz der KI nicht offen kommuniziert wird. Überraschenderweise führt diese Delegation – auch wenn sie heimlich erfolgt – nicht automatisch zu schlechteren Ergebnissen in sozialen Spielen.
Dieses Phänomen lässt darauf schließen, dass Menschen zwar Vertrauen in ihre eigene Fähigkeit zur Entscheidungsfindung unter Einbeziehung von KI vermissen, aber gleichzeitig die Kompetenz der KI für die Entscheidungsfindung anerkennen. Dennoch verringert die Delegation nicht die sozialpräferenziellen Motive wie Fairness und Kooperation. Ein weiterer Aspekt der Studie widmete sich der Personalisierung von KI-Entscheidungen. Die Teilnehmer konnten durch eine Reihe von binären Präferenzfragen die KI in gewissem Maße an ihre Persönlichkeitsmerkmale anpassen. Obwohl die Personalisierung subjektiv als positive Erlebensdimension bewertet wurde, änderte sie nichts an der negativen Wirkung auf Fairness und Vertrauen oder an der Delegationsrate.
Auch konnten die Teilnehmer häufig nicht zufriedenstellend feststellen, ob eine Entscheidung von einem Menschen oder der KI getroffen wurde. Dies verdeutlicht, dass die technischen Fortschritte von LLMs bereits eine hohe Qualität erreichen, so dass sie menschliche Entscheidungen sehr überzeugend imitieren können, obwohl sie die zugrundeliegenden komplexen Motive noch nicht vollständig nachvollziehen. Die Konsequenzen dieser Forschungsergebnisse sind weitreichend. Zum einen zeigt sich, dass reine Transparenzregelungen – wie sie in vielen aktuellen regulatorischen Rahmenwerken, etwa dem EU AI Act, verankert sind – möglicherweise nicht ausreichen, um die Akzeptanz von KI in sozialen Kontexten zu gewährleisten. Offenlegung der KI-Nutzung kann sogar negative Reaktionen verstärken, da Menschen ihre sozialen Erwartungen und ihr Vertrauen nicht erreichen sehen.
Stattdessen müssen ergänzende Maßnahmen ergriffen werden, um Vertrauen gegenüber Algorithmen aufzubauen. Hierzu gehören unabhängige Prüfungen, nachvollziehbare Erläuterungen und womöglich ein stärkerer Einbezug menschlicher Kontrolle und Verantwortung. Zum anderen werfen die Ergebnisse wichtige ethische und soziale Fragen auf. Wenn Menschen KI-Entscheidungen in sozialen Interaktionen skeptisch gegenüberstehen, kann dies die Art verändern, wie Gemeinschaften funktionieren, Kooperation entsteht und soziale Normen etabliert werden. In einer zunehmend digitalisierten Welt, in der KI-Unterstützung allgegenwärtig wird, sind die Auswirkungen auf zwischenmenschliche Beziehungen sowie auf Wirtschaft und Gesellschaft fundamental.
Nicht zuletzt kann die gezielte Delegation an KI auch eine Strategie sein, um sich sozialer Verantwortung zu entziehen oder sich vor Reputationsrisiken zu schützen, etwa wenn schwierige oder unpopuläre Entscheidungen an eine neutrale Instanz ausgelagert werden. Darüber hinaus zeigt die Studie auf, dass individuelle Unterschiede und sozioökonomische Faktoren eine Rolle bei der Verarbeitung von KI-Interaktionen spielen. Erfahrung mit ChatGPT oder positiven Einstellungen gegenüber KI reduziert die negative Reaktion auf KI-Nutzung zwar teilweise, beseitigt sie jedoch nicht vollständig. Damit bleiben Barrieren in der gesellschaftlichen Integration von KI bestehen, die durch Aufklärung und vertrauensfördernde Maßnahmen möglicherweise abgebaut werden können. Der technologische Fortschritt bei LLMs wird mit hoher Wahrscheinlichkeit die Kompetenzen dieser Systeme verbessern.
Zukünftige Generationen könnten besser darin sein, rationale Entscheidungen nicht nur zu treffen, sondern auch die komplexen sozialen und emotionalen Motive ihrer menschlichen Nutzer abzubilden. In diesem Zusammenhang ist es wichtig, die technische Entwicklung mit sozialwissenschaftlichen Forschungen und ethischer Reflexion zu begleiten. Nur so kann gewährleistet werden, dass KI-Systeme nicht nur effizient, sondern auch sozial akzeptabel und vertrauenswürdig sind. Die Zukunft der sozialen Interaktion in einer Welt mit KI ist spannend und herausfordernd zugleich. Große Sprachmodelle eröffnen ungeahnte Möglichkeiten, soziale Dynamiken zu unterstützen und neue Formen der Zusammenarbeit zu ermöglichen.