Im Mai 2025 sorgte die Chicago Sun-Times für Aufsehen, als sie eine Sommerleseliste veröffentlichte, die Leser*innen eher verwirrte als inspirierte. Das Problem: Viele der bekannten Autor*innen standen zwar auf der Liste, jedoch waren die empfohlenen Bücher in ihrer Existenz nichts weiter als eine Fiktion. Die Titel waren von künstlicher Intelligenz generiert worden und existierten in Wirklichkeit nicht. Diese bittere Panne offenbart nicht nur die Tücken und Limitationen des Einsatzes von KI im Journalismus, sondern wirft auch wichtige Fragen zur redaktionellen Sorgfalt und zum Erhalt journalistischer Glaubwürdigkeit auf. Die Sommerleseliste der Sun-Times wurde als „15 Titel, neu und alt, die den perfekten Sommerurlaub versprechen“ vorgestellt.
Doch die Realität sah anders aus: Von den 15 Büchern waren neun Titel komplett erfunden. Namen wie Isabel Allende, Andy Weir, Min Jin Lee oder Taylor Jenkins Reid standen zwar darunter, aber die Bücher selbst gab es nicht. So wurde etwa Isabel Allendes „Tidewater Dreams“, Min Jin Lees „Nightshade Market“ oder Andy Weirs „The Last Algorithm“ als für den Sommer 2025 unverzichtbare Lektüre empfohlen – doch eine Suche nach diesen Titeln offenbart schnell, dass sie nicht existieren. Nur die letzten fünf aufgelisteten Bücher waren echte Werke ihrer Autoren. Auf den ersten Blick mag es sich wie ein simpler Fehler anfühlen, doch beim genaueren Hinsehen wird klar, welche Ursachen hinter diesem Fauxpas stecken.
Der verantwortliche Autor, Marco Buscaglia, ein freiberuflicher Texter aus Chicago, gab zu, die Liste mithilfe von KI-Programmen generiert zu haben. Dabei versäumte er die notwendige fact-checking-Prüfung, die für journalistische Integrität unabdingbar ist, bevor Inhalte veröffentlicht werden. In einer Stellungnahme räumte er seinen Fehler ein und erklärte, dass er sonst üblicherweise Quellen sorgfältig prüft, sich aber hier auf das KI-System verließ. Die Liste war Teil eines „Heat Index“-Inserts der Zeitung, das von King Features, einer Einheit des Medienkonzerns Hearst, lizenziert wurde. Der Sun-Times-Sprecher Victor Lim erläuterte, dass dieses insert nicht redaktionell von der Sun-Times geprüft oder genehmigt wurde, sondern von externen Partnern stammt.
Dennoch bezeichnete er den Fehler als „inakzeptabel“ und versprach, die Partnerschaften und Prozesse eingehend zu überprüfen, um Wiederholungen auszuschließen. Auch die Gewerkschaft der Sun-Times-Mitarbeitenden zeigte sich entsetzt, da ihre Mitglieder befürchten, dass künstlich-generierte Inhalte das Vertrauensverhältnis zur Leserschaft nachhaltig beschädigen könnten. Dieser Fall verdeutlicht die Schattenseiten der zunehmenden KI-Nutzung in journalistischen Inhalten. Künstliche Intelligenz, so leistungsfähig sie in der Textproduktion auch sein mag, kann sogenannte „Halluzinationen“ erzeugen – Fehler, die entstehen, wenn die KI aus einem unvollständigen oder fehlerhaften Kontext resultierende Informationen fabriziert. Besonders beim Erstellen von Buchempfehlungen oder Expertenzitaten kann eine derartige Fehlinformation einen verheerenden Effekt auf die Glaubwürdigkeit einer Publikation haben.
Darüber hinaus ist interessant, dass nicht nur die Bücher erfunden waren, sondern auch in weiteren Textteilen reale Experten und Fachleute fälschlich zitiert wurden oder Personen genannt wurden, die sich im Internet nicht verifizieren ließen. Eine „Food Anthropologin“ namens Catherine Furst von der Cornell University oder ein Professor für „Leisure Studies“ tauchten in Artikeln auf, deren Existenz nicht nachvollzogen werden konnte. Dies zeigt auf, dass die Unsorgfalt beim Einsatz von KI nicht nur zu Fehlern bei Buchtiteln, sondern zu weitreichenden Falschinformationen führen kann. Der Skandal reiht sich ein in eine Reihe ähnlicher Vorfälle weltweit, bei denen Medienhäuser mit der unkritischen Übernahme von KI-generiertem Content negative Schlagzeilen machten. 2023 beispielsweise gerieten media outlets wie Sports Illustrated oder CNET unter Kritik, nachdem sie nicht ausreichend überprüfte KI-Texte veröffentlicht hatten.
Die Chancen und Risiken der neuen Technologien sind eng verflochten. Während KI taugliche Unterstützung bei Routineaufgaben, Datenanalysen oder zur ersten Textentwürfen bieten kann, wird klar, dass sie journalistische Sorgfalt, Recherche und das kritische Vorgehen durch Menschen keinesfalls ersetzen darf. Das Beispiel der Chicago Sun-Times zeigt ebenfalls die ökonomischen Zwänge in der Medienbranche. Die Veröffentlichung der fehlerhaften Sommerleseliste erfolgte kurz nachdem das Blatt einen Personalabbau von rund 20 Prozent angekündigt hatte. Angespannte Budgets und der steigende Druck, Inhalte schnell und billig zu produzieren, öffnen die Tür für die unreflektierte Nutzung von KI-Inhalten ohne verpflichtende Qualitätskontrolle — eine Entwicklung, die langfristig das Vertrauen der Leserschaft aufs Spiel setzen kann.
Die Lehre aus dem Vorfall lautet daher, dass Medienhäuser klare Richtlinien zum Umgang mit KI benötigen. Dies beginnt bei der transparenten Kennzeichnung von KI-unterstützten Texten und endet bei intensiver Nachbearbeitung sowie Faktenchecks durch erfahrene Redakteure. Die Chicago Sun-Times hat mittlerweile die betreffenden Artikel digital entfernt und öffentliche Zugeständnisse gemacht. Sie kündigt an, ihre Richtlinien zu überarbeiten, um sicherzustellen, dass künftig alle Inhalte, ob redaktionell oder gelieferte Sektionen, verantwortungsvoll und professionell verifiziert werden. In der Breite zeigt sich, dass Journalismus und KI im Zusammenspiel viele Chancen bieten, sei es bei der Effizienzsteigerung oder durch neue Formate.
Doch dieser Fortschritt braucht umsichtiges Management, um die redaktionelle Integrität zu bewahren. Die Leser erwarten zutreffende, professionelle Berichterstattung – sie verlassen sich auf geprüfte Fakten und nicht auf computergenerierte Halluzinationen. Dass renommierte Autor*innen wie Isabel Allende oder Min Jin Lee in der künstlich erzeugten Leseliste auftauchen, macht die Täuschung umso spürbarer. Es ist ein Weckruf an Medienbranchen aller Länder und Formate, KI nicht als Allheilmittel zu sehen, sondern als Werkzeug, dessen Resultate kritisch zu prüfen sind. Nur so lässt sich verhindern, dass vertrauensbildende Medieninhalte durch bloße Algorithmus-Erfindungen verunziert werden.