Die Worldcon ist eine der weltweit bedeutendsten Veranstaltungen für Science-Fiction- und Fantasy-Fans. Jedes Jahr treffen sich Tausende von Autorinnen, Autoren, Künstlerinnen, Veranstaltungsplanerinnen und Liebhaberinnen des Genres, um gemeinsam zu feiern, Panels zu besuchen und Neuigkeiten auszutauschen. Im Jahr 2025 jedoch geriet die Worldcon in Seattle in den Fokus einer unerwarteten und heftigen Kontroverse, die nicht direkt mit den dort vorgestellten Werken zu tun hatte, sondern mit dem Einsatz von Künstlicher Intelligenz (KI). Im Zentrum des Skandals stand der Einsatz von ChatGPT, einem weitverbreiteten großen Sprachmodell, das als Tool genutzt wurde, um Bewerber für das Programm der Konferenz vorab zu überprüfen. Dieser Einsatz löste eine Welle von Kritik und Diskussionen aus, die einen tiefen Einblick in die heutigen Herausforderungen des Fandoms und des Umgangs mit KI-Technologien bietet.
Der Kontroverse vorausgegangen war eine Entscheidung des Organisationsteams, ChatGPT als Hilfsmittel zu nutzen, um bei der Auswahl von Programmteilnehmern potenzielle problematische Vorfälle wie Rassismus, Sexismus, sexuelle Belästigung oder ähnliche Verfehlungen zu erkennen. Diese Nutzung sollte die Auswahl erleichtern und Risiken minimieren. Doch schon bald zeigte sich, dass ChatGPT nicht zuverlässig war. Statt akkurater Informationen lieferte die KI oftmals halbwahrheiten, Fehlinformationen oder sogar völlig falsche Zuschreibungen – sogenannte „Halluzinationen“. Diese Fehler resultierten aus der Natur des Sprachmodells, das Informationen synthetisiert, ohne sie zuverlässig zu verifizieren.
Die Folge waren falsche Verdächtigungen einiger Bewerber und eine generelle Vertrauenskrise im Umgang mit der Technologie. Die Fanforschung und Berichterstattung reagierten prompt. Das renommierte Science-Fiction-Newsportal File 770 veröffentlichte einen umfangreichen Überblick über die Reaktionen und befeuerte den Diskurs weiter. Ebenso nahm Jason Sanford mit seinem Genre Grapevine-Blog Stellung und analysierte die Konsequenzen des Skandals. Andere Medien wie io9 versuchten – wenn auch weniger gelungen – eine Zusammenfassung zu bieten.
Auch Locus, eine führende Fachzeitschrift, bot eine differenzierte Übersicht über den Vorfall. Über Tage spitzte sich die Lage zu: Einige Mitglieder stornierten ihre Teilnahme oder reduzierten ihre Mitgliedschaft, einzelne Programmpunkte wurden abgesagt, und ein Hugo-Preisanwärter lehnte seine Nominierung ab. Sogar führende Figuren der Hugo-Award-Administration und des World Science Fiction Society Managements traten zurück, wobei zunächst unklar war, wie eng dieser Schritt mit dem ChatGPT-Skandal verbunden war. Spätere Informationen legten jedoch nahe, dass die Anwendung von KI und die mangelhafte Krisenbewältigung maßgebliche Faktoren waren. Die Idee, eine KI zur Überprüfung einzusetzen, sorgte besonders deshalb für starken Widerstand, weil generative Sprachmodelle in der Fanszene ohnehin kritisch gesehen werden.
Viele sehen in diesen Technologien nicht nur eine Bedrohung für kreative Arbeitsplätze, sondern auch eine Gefahr für die Integrität von Kunst und Literatur. Der oft diskutierte Punkt, dass KI-Modelle auf urheberrechtlich geschützten Werken trainiert wurden, die ohne Zustimmung in ihre Datensätze aufgenommen wurden, schürt weitere Ängste. Die hohen Umweltkosten solcher Algorithmen – etwa hinsichtlich Energie- und Wasserverbrauch – verstärken die negative Wahrnehmung zusätzlich. Der Programmbereich sah sich mit dem Problem konfrontiert, dass viele der ehrenamtlichen Helfer und Veranstalter die Bewerber nur wenig oder gar nicht persönlich kannten. Die Bewerbungsformulare enthielten oft nicht genug aussagekräftige Angaben, um fundierte Entscheidungen zu treffen.
Durch den Versuch, den Auswahlprozess durch ein automatisiertes Tool zu beschleunigen oder zu „vereinfachen“, übersah man die vielen Fallen und Risiken, die eine KI-Nutzung in diesem Kontext mit sich bringt. Ein besonders besorgniserregendes Ergebnis war, wie ChatGPT bei Namen Verwechslungen vornahm. Es kam zu peinlichen Fehlzuordnungen: So wurde etwa ein Finalist mit einem rumänischen Sexualstraftäter verwechselt, weil beide denselben Nachnamen teilten. Ein anderer Bewerber, der zufällig den gleichen Namen wie ein prominenter Schauspieler hatte, wurde mit dessen Skandalen in Verbindung gebracht. Dies führte zu ungerechtfertigten diffamierenden Aussagen.
Sogar Neil Gaiman, einer der bekanntesten Autoren der Szene, wurde von ChatGPT fälschlicherweise als „geeignet“ eingestuft, trotz weit verbreiteter Berichte über ihn und einen mutmaßlichen Skandal. Diese und weitere Fälle machten die Unzuverlässigkeit der KI eindringlich sichtbar. Ein konkretes Beispiel lieferte die Autorin und Bloggerin Cora Buhlert, die über eigene Erfahrungen mit der KI-Überprüfung berichtete. Obwohl ChatGPT keine negativen Vorfälle gegen sie fand, erzeugte das Modell zahlreiche falsche Informationen über ihre Beteiligungen an deutschen Fanveranstaltungen, Preise, für die sie niemals nominiert oder ausgezeichnet war, sowie Podcasts, die sie nie moderierte. Diese falschen Zuschreibungen unterstreichen die Grenzen und Risiken bei derAkzeptanz von KI-Antworten ohne menschliche Kontrolle.
Während Cora Buhlert also glimpflich davonkam, spiegelten ihre Erfahrungen die allgemeinen Fehlleistungen der Maschine wider. Im Nachgang zur Eskalation veröffentlichten die Verantwortlichen für die Programmplanung der Worldcon in Seattle eine ausführliche Stellungnahme sowie eine Entschuldigung, mit der Forderung nach Verständnis und einer Reflexion über die inakzeptable Umsetzung des KI-Einsatzes. Dennoch blieb der Schaden in der Fanszene tiefgreifend, und die Debatte führte zu einer kritischen Prüfung des Umgangs mit generativen KI-Tools in Gemeinschaften, die kreativ und basisdemokratisch organisiert sind. Es zeigt sich zudem, dass ein einfacher Google-Check – insbesondere bei bekannten Persönlichkeiten – oft bessere und verlässlichere Ergebnisse liefern kann als eine vollautomatische KI-Auswertung, die weder Kontext noch Nuancen versteht. Gerade in kleinen Communities sind oft persönliche Verbindungen, Erfahrungswerte und direkte Kommunikation wichtigere Instrumente zur Einschätzung, als synthetische Datenverarbeitung ohne menschlichen Abgleich.
Gleichzeitig spiegelt der Vorfall tieferliegende Herausforderungen wider, die die gesamte Kreativbranche vor neue Fragen stellen. Die wachsende Verbreitung von KI-Systemen ruft ethische, soziale und rechtliche Probleme hervor, die nicht leicht zu lösen sind. Wer haftet bei Fehlurteilen? Wie lässt sich Privatsphäre schützen? Wie kann die Diskriminierung durch algorithmische Verzerrungen vermieden werden? Diese Fragen sind eng mit dem Erlebnis der Worldcon 2025 verknüpft und zeigen exemplarisch, wie erforderlich ein reflektierter und verantwortungsvoller Einsatz von Maschinenlernen ist. Viele Interessierte im SF- und Fantasy-Fandom sehen zudem in den „Roboterhalluzinationen“ von ChatGPT eine Metapher für die Selbsttäuschungen, die mit der technologischen Euphorie einhergehen. KI-Modelle geben Antworten, die zwar plausibel klingen, aber faktisch falsch sind – eine Fixierung auf vermeintlich objektive Daten, die jedoch in vielen Situationen zum Desaster führen kann.
Dieses Phänomen wurde von vielen Stimmen als kritischer Lernpunkt benannt, der vor übereiltem Vertrauen in maschinelle Bewertungen warnt. Abseits des Skandals mit ChatGPT wurde parallel von der Autorin Cora Buhlert über positive Entwicklungen berichtet, wie etwa die anstehende Worldcon-Geschichte Seattles und retrospektive Betrachtungen bedeutender Science-Fiction-Werke. Es bleibt auch weiterhin Raum für Faszination und gegenseitigen Austausch in der Fandom-Gemeinschaft, die sich von den Turbulenzen zwar erschüttern, aber nicht entmutigen lässt. In der Diskussion wurde klar, dass die Digitalisierung und Automatisierung nicht per se problematisch sind, sondern deren sinnvolle Einbindung in menschliche Entscheidungsprozesse entscheidend ist. Der Skandal dient daher als abschreckendes Beispiel dafür, wie eine unreflektierte Nutzung von Technologien großen Schaden anrichten kann.
Die Lehren aus Seattle 2025 werden wohl in den kommenden Jahren maßgeblich beeinflussen, wie Conventions, Verlage und Kreativgruppen KI einsetzen – mit Bedacht, Respekt und Verantwortung oder eben auf eigenen Fehlern aufbauend. Zusammenfassend bleibt festzuhalten, dass der ChatGPT-Skandal auf der Worldcon 2025 nicht nur ein kurzfristiger Eklat war, sondern ein Spiegelbild der aktuellen gesellschaftlichen Diskurse um Künstliche Intelligenz und deren Rolle in kulturellen Gemeinschaften. Er öffnete die Augen für die menschliche Dimension hinter der Technologie und forderte eine Neubewertung des Verhältnisses von Mensch und Maschine – nicht nur im Science-Fiction-Fandom, sondern weit darüber hinaus.