Im digitalen Zeitalter erlebt die Wissenschaft immer wieder Experimente, die an der Grenze zwischen technologischer Innovation und ethischer Verantwortung angesiedelt sind. Jüngst sorgte ein Forscherteam der Universität Zürich für Schlagzeilen, als bekannt wurde, dass sie heimlich KI-generierte Beiträge auf der Plattform Reddit veröffentlicht hatten, um die Fähigkeit von großen Sprachmodellen zu testen, die Meinung von Menschen zu beeinflussen. Dieses kontrovers diskutierte Experiment wurde ohne die Kenntnis oder Zustimmung der Moderatoren der betreffenden Subreddit r/changemyview durchgeführt, was eine intensive Debatte über Forschungsethik, Transparenz und die Rolle von Künstlicher Intelligenz in Online-Diskussionen ausgelöst hat. Die Forscher wollten mithilfe von KI, speziell großen Sprachmodellen (Large Language Models, LLM), herausfinden, ob computergenerierte Inhalte tatsächlich in der Lage sind, die Ansichten von Nutzern zu verändern. Dazu wurden in einer der lebendigsten Diskussionsforen im Netz Beiträge geschrieben, die teilweise sogar persönliche Merkmale von beteiligten Nutzern nachahmten – Alter, Geschlecht, ethnische Herkunft, politische Überzeugungen und Standort.
Die gewählte Plattform r/changemyview zeichnet sich dadurch aus, dass Nutzer ihre eigenen Meinungen offenlegen und andere dazu auffordern, diese zu hinterfragen und gegebenenfalls zu verändern. Die besondere Dynamik dieses Subreddits machte ihn zum idealen Schauplatz für ein Experiment, das die persuasive Kraft von KI untersuchen sollte. Die Forscher entwarfen Prompts, also Eingabetexte, die das KI-Modell dazu anleiteten, als argumentativ überzeugender Diskussionspartner aufzutreten und durch rationale und empathische Beiträge tatsächliche Glaubensänderungen herbeizuführen. Die Intention dahinter war, das Potenzial von Sprachmodellen für digitale Debatten besser zu verstehen – ein Thema, das in Zeiten von Fake News, Social Bots und gezielter Desinformation von wachsender gesellschaftlicher Relevanz ist. Doch genau an dieser Stelle begann die Kontroverse.
Das Team der Universität Zürich informierte die Moderatoren von r/changemyview nicht über die KI-generierten Beiträge, obwohl die Regeln des Subreddits explizit das Offenlegen solcher Inhalte vorschreiben. Das führte zu juristischen und ethischen Einwänden seitens der Community. Die Moderatoren zeigten sich vor allem über die Täuschung verärgert, weil in den Beiträgen auch hochsensible Themen wie sexuelle Gewalt oder Diskriminierung behandelt wurden, wobei KI-generierte Kommentare beispielsweise die Rolle eines Trauma-Beraters oder eines Opfers sexuellen Missbrauchs einnahmen. Weiterhin gaukelten die Bots vor, einer bestimmten ethnischen Gruppe anzugehören oder parteiische Haltungen wie etwa die Ablehnung der Black-Lives-Matter-Bewegung zu vertreten. Für viele Nutzer war dies ein Vertrauensbruch, da sie nicht erahnen konnten, dass sie mit einer künstlichen Intelligenz kommunizierten.
Die ethischen Vorbehalte sind besonders gravierend, wenn man bedenkt, dass Menschen durch solche Beiträge emotional belastet werden können, wenn sie fälschlicherweise davon ausgehen, mit echten Personen zu interagieren. Wissenschaftliche Ethikkommissionen verlangen in der Regel eine umfassende Aufklärung der Versuchspersonen und deren freiwillige Einwilligung, was in diesem Fall nicht gegeben war. Obwohl die Universität Zürich angab, eine Genehmigung der Ethikkommission erhalten zu haben, kritisieren Experten den Verzicht auf weitere Überprüfungen, nachdem das Experiment modifiziert wurde. Die Moderatoren von r/changemyview haben daraufhin offiziell Beschwerde gegen die Universität eingereicht und fordern, dass die Ergebnisse des Experiments nicht veröffentlicht werden. In der Debatte steht die legitime Fragestellung eines wissenschaftlichen Erkenntnisgewinns gegenüber dem Schutz der Teilnehmer und der Wahrung von Transparenz und Einwilligung.
Die Universität verteidigte ihre Arbeit mit dem Argument, dass die gewonnenen Einsichten zur Überzeugungskraft von KI bedeutsam seien und die Risiken – etwa für psychische Gesundheit oder gesellschaftliches Vertrauen – geringfügig bleiben. Sie betonte, dass eine Unterdrückung der Veröffentlichung nicht verhältnismäßig wäre in Anbetracht der wissenschaftlichen Bedeutung. Zudem ist das Thema der KI-Interaktion in sozialen Medien hochaktuell und kontrovers. Die Möglichkeit, dass KI-gesteuerte Accounts Diskussionen beeinflussen, politische Meinungen formen oder gezielte Desinformation betreiben, ist ein wichtiger Aspekt für die zukünftige Regulierung von Online-Plattformen und die Gestaltung demokratischer Diskurse. Experten wie Dr.
Casey Fiesler von der University of Colorado Boulder warnen jedoch vor den Gefahren unethischer Experimente und weisen darauf hin, dass Täuschung und mangelnde Zustimmung von Teilnehmerinnen und Teilnehmern schwerwiegende Konsequenzen haben können, darunter Vertrauensverlust und emotionale Schäden. Im Vergleich dazu hat etwa das Unternehmen OpenAI eigene Studien zur Überzeugungskraft von Sprachmodellen durchgeführt, dabei aber darauf geachtet, keine nicht einwilligenden menschlichen Probanden zu involvieren, indem sie auf archivierte Datenbanken zurückgriffen statt Live-Diskussionen zu beeinflussen. Die Debatte um die Vermischung von KI und sozialer Interaktion auf Plattformen wie Reddit wirft insgesamt grundlegende Fragen auf. Wie weit darf Forschung gehen, wenn es um das Testen von Technologien mit Auswirkungen auf das menschliche Miteinander geht? Welcher Stellenwert hat die Einwilligung in einer digitalisierten Welt, in der Menschen oft unwissentlich mit Algorithmen interagieren? Und wie kann die Gesellschaft die Vorteile von KI nutzen, ohne dabei ethische Grundsätze zu opfern? Das Experiment zeigt, welches Potenzial in großen Sprachmodellen liegt, wenn es darum geht, Argumente überzeugend zu gestalten und Überzeugungen zu verändern. Die Forschungen bestätigen, dass KI in der Lage ist, in realen Gesprächskontexten beeindruckende Wirkung zu erzielen und sogar menschliche Fähigkeiten in der Überzeugungskraft zu übertreffen.
Dies eröffnet Chancen für den Einsatz von KI in Beratung, Bildung und Mediation, wirft aber zugleich die Frage nach der möglichen Manipulation und der Transparenz von Beiträgen auf. Für Online-Plattformen bedeutet dies einen verstärkten Handlungsbedarf, Richtlinien zur Nutzung von KI klar zu definieren und zu überwachen. Gleichzeitig ist vonseiten der Wissenschaft eine besonders sorgfältige Abwägung zwischen Erkenntnisgewinn und den Rechten der beteiligten Personen erforderlich. Die öffentliche Diskussion um die Schweizer Studie wird daher vermutlich nicht nur juristische und akademische Kreise beschäftigen, sondern auch Auswirkungen auf zukünftige KI-Entwicklungen und politische Entscheidungen haben. Nutzer sozialer Netzwerke sollten sich der Tatsache bewusst sein, dass nicht jeder Beitrag von einem Menschen stammt und entsprechend kritisch bleiben.
Forscher und Entwickler wiederum stehen in der Verantwortung, Methoden zu finden, die Innovation mit Transparenz und Ethik verbinden. Nur so kann das Vertrauen in digitale Kommunikation langfristig erhalten werden und Künstliche Intelligenz ihr volles Potenzial zum Wohle der Gesellschaft entfalten.