Die rasante Entwicklung der künstlichen Intelligenz bringt zahlreiche Vorteile, aber auch unerwartete Schwierigkeiten mit sich – insbesondere für kulturelle Einrichtungen, die ihre Sammlungen digital zugänglich machen. In den letzten Jahren ist eine stark ansteigende Nutzung von sogenannten KI-Bots zu beobachten, die automatisch Daten aus Online-Sammlungen herunterladen, um sie als Trainingsmaterial für KI-Modelle zu verwenden. Doch diese Aktivität führt zunehmend dazu, dass Online-Kulturerben mit massiven technischen Problemen kämpfen und mitunter sogar temporär offline gehen müssen. Es entsteht damit ein neues Spannungsfeld zwischen Offenheit, Zugänglichkeit und dem Schutz der digitalen Infrastruktur, das weitreichende Konsequenzen für Bibliotheken, Museen, Archive und Galerien hat. Die Herausforderung wird immer drängender, da der Einfluss von KI-Bots in der zweiten Hälfte der 2020er Jahre weiter zunimmt und das digitale Kulturerbe in seiner Existenz bedroht sein könnte.
Kulturelle Institutionen wie GLAMs – Galerien, Bibliotheken, Archive und Museen – bieten oftmals hochwertige, öffentlich zugängliche digitale Sammlungen an, die wichtige Zeugnisse menschlicher Geschichte und Kunst bewahren. Diese digitalen Bestände sind nicht nur von großem Wert für Forschung und Bildung, sondern dienen auch dem öffentlichen Interesse, indem sie Kulturgüter weltweit verfügbar machen. Zugleich sind sie aufgrund ihrer offenen und gut strukturierten Daten ideale Ressourcen für die Herstellung von Trainingsdatensätzen für KI-Modelle. Bots durchforsten diese Sammlungen, laden Bilder, Texte und Metadaten massenhaft herunter und aggregieren sie, um die Lernprozesse der künstlichen Intelligenz zu unterstützen. Die Betreiber dieser Einrichtungen sehen sich dadurch mit neuartigen Belastungen konfrontiert, die ihre Infrastruktur an die Grenzen führen oder sogar überlasten.
Es handelt sich keineswegs um Einzelfälle. Untersuchungen aus Frühjahr 2025, beispielsweise durch die GLAM-E Lab Initiative, verdeutlichen, dass ein Großteil der befragten Einrichtungen eine deutliche Zunahme an Traffic festgestellt hat, den sie größtenteils oder zumindest teilweise auf KI-Bots zurückführen. Viele traf der Anstieg der Bot-Traffic-Wellen unerwartet, da ihre bisherigen Analytics-Systeme nicht auf das Erkennen oder Messen automatisierter Zugriffe ausgelegt waren. Erst wenn die Bots die Serverkapazitäten sprengen und die Seite langsamer wird oder ganz offline geht, wird das Problem sichtbar. Es zeigt sich, dass die Struktur und Qualität der Infrastruktur zwischen einzelnen Häusern stark variiert.
Einige verfügen über robuste Inhouse-Systeme mit großen Ressourcen, andere setzen auf externe Dienstleister, wieder andere müssen mit begrenzten Mitteln auskommen. Diese Heterogenität erschwert es, einen einheitlichen Lösungsansatz zu finden. Die meisten Online-Sammlungen sind heute nicht wirklich auf das Monitoring von Bot-Aktivitäten ausgelegt und verfügen über grundlegende Schutzmaßnahmen, die häufig auf freiwilliger Kooperationsbasis beruhen – allen voran die robots.txt-Datei. Diese signalisiert Bots, welche Bereiche einer Website nicht besucht oder indexiert werden sollen.
Das System setzt auf die freiwillige Einhaltung dieser Vorgabe und funktioniert bisher vornehmlich im Kontext von Suchmaschinen-Bots wie Google. Allerdings zeigen KI-Bots kaum Respekt gegenüber solchen Beschränkungen. Oft ignorieren sie robots.txt komplett und laden ungefiltert sämtliche zur Verfügung stehenden Daten herunter. Dieses Ignorieren wird von den Betreibern als bewusster Verstoß gegen etablierte Internet-Etikette gewertet und verschärft die Problemlage.
Betreiber berichten zudem, dass die Bot-Aktivitäten sich in Form von kurzen, heftigen Schwärmen manifestieren, bei denen innerhalb kürzester Zeit eine Vielzahl automatisierter Anfragen aus vielen IP-Adressen parallel erfolgt. Diese Verteilung der Zugriffe auf zahlreiche, oftmals wechselnde IP-Adressen erschwert Gegenmaßnahmen wie IP-Blockaden signifikant. Ursache ist auch, dass Bots häufig ihre User-Agent-Strings fälschen oder variieren, um ihre Identifikation zu verschleiern und Sperrmechanismen auszuhebeln. In der Folge können traditionelle Firewall-Regeln und geografische Sperren die Bot-Last nur bedingt mindern, da sie entweder zu unpräzise sind oder legitime Nutzer ebenfalls ausgrenzen würden. Solche Einschränkungen führen wiederum zu Problemen mit der Nutzerfreundlichkeit und der Wahrung des offenen Zugangs, der für viele kulturelle Einrichtungen Kern ihrer Mission ist.
Mitunter gleichen die Bot-Wellen Angriffen vom Typ Distributed Denial of Service (DDoS), da sie durch ihre schiere Menge die Server überlasten und den Zugang weiterführend erschweren oder ganz unmöglich machen. Dabei handelt es sich nicht um bösartige Attacken im eigentlichen Sinne, sondern um Folgeerscheinungen der intensiven Datenabfrage. Bot-Betreiber haben wenig Interesse daran, lange Offlinezeiten zu verursachen, da sie die Daten extrahieren wollen. Trotzdem sind die Folgen für die betroffenen Einrichtungen gravierend und nachhaltige Lösungsansätze fehlen weitgehend. Neben den technischen Problemen gibt es auch organisatorische und finanzielle Herausforderungen.
Der Unterhalt von Servern mit ausreichend Kapazität für diese neuen Belastungen ist kostspielig. Kleinere Einrichtungen mit beschränktem Budget sind hier besonders betroffen, da sie nicht einfach in größere Infrastruktur investieren können. Zugleich steigt der Personalaufwand, um Analysen und Gegenmaßnahmen zu implementieren und aufrechtzuerhalten. Die durch Bot-Traffic verursachten Mehrkosten führen teilweise bereits zu Preiserhöhungen bei Hosting-Dienstleistern und erhöhen den Druck, den offenen Zugang zu digitalem Kulturerbe künftig zu überdenken. Vor diesem Hintergrund stellen sich fundamentale Fragen nach der Nachhaltigkeit offener, kostenloser Online-Kultursammlungen.
Die große Mehrheit der Befragten scheut jedoch rigorose Schutzmaßnahmen wie die Einführung von Login-Schranken oder komplexen Captchas, da hierdurch die unmittelbare Nutzerfreundlichkeit leidet und die Grundwerte der Zugänglichkeit infrage gestellt werden. Die zusätzliche Hürde könnte legitime Benutzer abschrecken und wäre für viele Einrichtungen widersprüchlich zu ihrem Mission Statement, möglichst offene und barrierefreie Zugänge zu bieten. Außerdem ist unklar, ob solche Maßnahmen langfristig wirksam sind, da auch menschliche Nutzer bei zu komplexen Sicherheitsprüfungen abspringen könnten. Die Zukunft der Auseinandersetzung mit KI-Bots im digitalen Kulturerbe liegt möglicherweise in der Entwicklung neuer, gemeinschaftlicher Standards und technischer Protokolle, die über die bisherigen einfachen Mechanismen wie robots.txt hinausgehen.
Juristische Initiativen wie die EU-Richtlinie zum digitalen Binnenmarkt versuchen, rechtliche Rahmenbedingungen zu schaffen, die den Schutz digitaler Werke verbessern sollen, doch konkrete umsetzbare Instrumente fehlen bislang größtenteils. Technisch gesehen könnte die Bereitstellung speziell für Bots optimierter API-Anbindungen eine Möglichkeit sein, Datenzugriffe besser zu steuern und nachvollziehbar zu machen. Dies könnte Bot-Verhalten kanalisieren, den Ressourcenverbrauch reduzieren und den Zugriff für legitime Zwecke regeln. Allerdings muss sich dafür auch die Bot-Community aufwendige Anpassungen gefallen lassen. Darüber hinaus ist es denkbar, dass verantwortungsbewusste Akteure aus dem Bereich der KI-Entwicklung ein Interesse daran haben könnten, sich an gemeinsame Regeln zu halten, um den langfristigen Zugang zu hochwertigen Trainingsdaten zu sichern und sich von weniger kooperativen Akteuren abzugrenzen.
Dies könnte somit der Beginn eines nachhaltigen Ökosystems werden, in dem Datennutzer und Datenanbieter gemeinsam Standards entwickeln, Monitoring-Tools etablieren und das Datenvolumen auf tragbare Dimensionen begrenzen. Neben diesen technischen und rechtlichen Aspekten existiert eine tieferliegende gesellschaftliche Diskussion: Was heißt „Offenheit“ im digitalen Zeitalter wirklich? Bedeutet offene Zugänglichkeit, digitalen Inhalt uneingeschränkt für sämtliche Zwecke freizugeben – auch für automatisierte kommerzielle Trainingsprozesse von großen Technologieunternehmen? Oder sollten Kulturinstitutionen Strategien entwickeln, um ihre Sammlungen zu schützen und zugleich ein Gleichgewicht zwischen Zugänglichkeit und Kontrolle herzustellen? Diese Fragen sind umso dringlicher, da KI-Modelle zunehmend in kommerziellen Kontexten eingesetzt werden und kulturelle Werke somit zu einer wertvollen Ressource für weltweit agierende Unternehmen werden. Trotz aller Herausforderungen zeigt sich, dass KI-Bots nicht nur eine Last darstellen, sondern auch Chancen bieten. Indirekt könnten sie bei der breiten Öffentlichkeit das Bewusstsein für die Bestände steigern, wenn Nutzer durch KI-gestützte Anwendungen auf Werke aus Digitalsammlungen aufmerksam gemacht werden. Auch für Forschung und kreative Neuschöpfungen bieten die Datensätze eine Grundlage, die zuvor nicht in vergleichbarer Form zugänglich war.
Die Balance zwischen Schutz der Sammlungen und der Erschließung von Potenzialen bleibt jedoch ein zentrales Spannungsfeld. Abschließend ist festzuhalten, dass die Phase, in der KI-Bots das kulturelle digitale Erbe ungebremst stark beanspruchen und sich Einrichtungen improvisiert dagegen zur Wehr setzen, nur eine Zwischenstation sein kann. Strategien für einen nachhaltigen Umgang mit den technischen Belastungen, symbolischen Fragen der Zugänglichkeit und rechtlichen Rahmenbedingungen sind unerlässlich. Dabei müssen alle Beteiligten – von den Kulturinstitutionen über Technologieanbieter bis hin zu den KI-Entwicklern – gemeinsam Lösungen erarbeiten, die den Fortbestand und die Zugänglichkeit unseres digitalen Kulturerbes sichern und gleichzeitig den Fortschritt der künstlichen Intelligenz unterstützen. Angesichts der globalen Dimension und Vielschichtigkeit dieses Themas stehen Kultur- und Technologieakteure am Anfang eines komplexen Transformationsprozesses.
Nur mit vereinten Kräften und innovativen Ansätzen lässt sich erreichen, dass die beeindruckenden digitalen Sammlungen weiterhin für Menschen weltweit verfügbar bleiben, ohne dabei durch die unaufhaltsame Dynamik von KI-Bots überfordert zu werden. Die kommenden Jahre werden entscheidend sein, um den richtigen Weg für den Schutz und die Nutzung des digitalen Kulturerbes im Zeitalter der künstlichen Intelligenz zu finden.