Die zunehmende Verbreitung von Künstlicher Intelligenz (KI) in allen Bereichen der Wirtschaft bringt nicht nur zahlreiche Chancen, sondern auch eine Vielzahl neuer Risiken mit sich. Viele Unternehmen setzen KI ein, um Effizienz und Automatisierung voranzutreiben. Doch die potenziellen Fehlerquellen und „Halluzinationen“ großer Sprachmodelle (LLMs) werfen Unsicherheiten auf. Der Gedanke, diese Risiken mit einer speziellen Versicherung abzusichern, erscheint zunächst verlockend. Doch die Realität gestaltet sich erheblich komplizierter, als es auf den ersten Blick scheint.
Traditionell verfügen viele Berufsgruppen wie Rechtsanwälte, Steuerberater oder Architekten über eine sogenannte Berufshaftpflichtversicherung, auch bekannt als Errors & Omissions (E&O)-Versicherung. Diese schützt vor Ansprüchen, die aus Fehlern oder Versäumnissen bei der beruflichen Tätigkeit entstehen. Mit dem technologischen Wandel und der zunehmenden Automatisierung von Aufgaben durch Software entwickelten sich vergleichbare Versicherungslösungen für Tech-Unternehmen: Technology Errors & Omissions (Tech E&O) sollen Schäden abdecken, die durch Softwarefehler verursacht werden. Allerdings ist ein solcher Markt bislang relativ klein geblieben, obwohl Software in kritischen Bereichen eingesetzt wird – von der Automobilbranche über Industrieanlagen bis hin zum Gesundheitswesen. Die Übertragung dieses Modells auf KI, insbesondere auf große Sprachmodelle, ist der nächste Schritt, doch die Herausforderungen sind beträchtlich.
Einerseits können KI-Systeme Fehler verursachen, die im schlimmsten Fall enorme finanzielle Schäden nach sich ziehen – zum Beispiel falsche Geschäftsversprechen, fehlerhafte Vertragsabschlüsse oder fehlerhafte Datenanalysen. Andererseits besteht die Gefahr eines erhöhten Risikos durch die potenziell häufigeren und schwerwiegenderen Fehler von lernenden Algorithmen, deren Verhalten nicht vollständig deterministisch oder vorhersehbar ist. Dieser Umstand führt zu einem Dilemma für Versicherer. Wenn das Fehlerpotenzial zu groß und die Schadenshäufigkeit zu hoch wäre, würden Versicherungen schlicht unwirtschaftlich. Kunden würden das riskante Produkt wohl kaum weiterverwenden, selbst bei Versicherungsschutz.
Gleichzeitig bleibt die Frage, ob das Risiko einerseits überhaupt quantifizierbar und andererseits versicherbar ist. Anders als bei klassischen Risiken fehlt oft eine ausreichende Datenbasis, Gesetze und regulatorische Standards sind noch in Entwicklung, und die technologische Dynamik erschwert eine verlässliche Einschätzung der zukünftigen Gefahren. Ein entscheidendes Problem ist die Informationsasymmetrie zwischen Versicherungsnehmer und -geber. Unternehmen, die KI einsetzen, verfügen oft über sehr viel detailliertere Kenntnisse über die Einsatzgebiete, potentielle Risiken und Schwachstellen ihrer Systeme als ein externer Versicherer. Dies erschwert eine präzise Risikobewertung und fördert die Gefahr von adverse selection, also der Benachteiligung des Versicherers durch die Auswahl besonders risikoreicher Kunden, die ihr Risiko genau kennen, der Versicherung jedoch verborgen bleibt.
Zudem zeigt sich, dass die Konzentration der Risiken besonders hoch ist: Nur wenige Unternehmen dominieren den Markt der zugrundeliegenden KI-Technologien. Diese Marktkonzentration führt zu einer starken Abhängigkeit der Versicherungspolicen von Einzelergebnissen einzelner Entwickler oder Anbieter. Ein gravierender Fehler oder ein Sicherheitsproblem bei einem großen KI-Modell könnte daher zu einer Kettenreaktion führen, bei der zahlreiche Versicherungsnehmer gleichzeitig Schäden erleiden und mehrere Versicherungen belastet werden. Das schränkt die Diversifizierungsfähigkeit traditioneller Aktiengesellschaften stark ein, die für eine funktionierende Versicherungswirtschaft aber notwendig ist. Ein weiterer Faktor ist die unbeständige Natur von KI-Technologien.
Künstliche Intelligenz wird in einem geradezu atemberaubenden Tempo weiterentwickelt. Updates, neue Modelle, veränderte Einsatzgebiete – all das macht eine langfristige Risikobewertung äußerst schwierig. Versicherungsverträge, die meist für ein ganzes Jahr abgeschlossen werden, müssen daher komplexe Klauseln enthalten, die zum Beispiel Regelungen zu Software-Updates oder veränderten Nutzungsszenarien vorsehen. Das erhöht die Komplexität der Produkte und stellt sowohl die Anbieter als auch die Kunden vor erhebliche Herausforderungen bei der Handhabung und der Durchsetzung der Verträge. Trotz dieser Schwierigkeiten besteht durchaus ein Bedarf für spezifische Versicherungsprodukte, die KI-Risiken abdecken.
Insbesondere Unternehmen, die nicht in der Lage sind, ihr Risiko an andere Vertragspartner weiterzugeben, könnten solche Policen benötigen. Dabei ist es denkbar, dass Versicherer eng mit spezialisierten Test-, Sicherheits- und Qualitätssicherungsunternehmen zusammenarbeiten, um ihren Bewertungsprozess zu verbessern. Dennoch verbleibt das Problem, dass diese Dienstleistungen häufig bereits von den Kunden selbst genutzt werden und somit die Informationsasymmetrie nicht unbedingt aufgelöst wird. Am wahrscheinlichsten ist, dass sich ein Markt für KI-bezogene Versicherungen nur sehr selektiv und in überschaubarem Umfang entwickelt – also weniger als große, breit angelegte Versicherungslösungen für alle Arten von KI-Einsätzen, sondern eher als spezialisierte Produkte für bestimmte Branche, Anwendungen und Nutzungsszenarien. Dieser Nischenmarkt wird durch die Notwendigkeit von eng gefassten Portfolios und die Beschränkung auf beherrschbare Risiken geprägt sein.
Für Unternehmen bedeutet das, dass sie beim Einsatz von KI weiterhin stark auf präventive Maßnahmen setzen müssen, um das Risiko von Fehlern und den daraus resultierenden Schäden zu minimieren. Die Rolle von Human-in-the-Loop-Systemen, umfangreichen Tests, nachvollziehbaren Entwicklungs- und Einsatzstandards sowie klaren vertraglichen Regelungen bleibt somit zentral. Versicherungen können diese Bemühungen flankieren, aber derzeit kaum ersetzen. Schließlich ist auch der Blick in die Zukunft spannend. Regulatorische Anforderungen an die Verwendung von Künstlicher Intelligenz wie etwa die EU-KI-Verordnung könnten die Rahmenbedingungen für den Einsatz und damit für das Risiko und die Versicherbarkeit verändern.