In der heutigen Zeit, in der Systeme immer komplexer und miteinander verflochtener werden, ist das Verständnis von Modellen, die unsere Welt beschreiben, von entscheidender Bedeutung. Ob es sich um technische Systeme, soziale Interaktionen oder vernetzte Softwarearchitekturen handelt – Modelle helfen uns, Situationen einzuschätzen, Entscheidungen zu treffen und Probleme zu lösen. Doch nicht alle Modelle sind hilfreich. Gute Modelle schützen uns vor schlechten Modellen, die zwar auf den ersten Blick handlungsorientiert und logisch erscheinen, in der Praxis aber Fehlschlüsse fördern und zu ineffizienten oder sogar schädlichen Maßnahmen führen können. Das menschliche Bedürfnis nach Modellen ist tief verwurzelt.
Ohne eine Methode, um die Welt zu erklären, sind wir hilflos gegenüber der Unsicherheit und Komplexität, die unser Alltag prägt. Gleichzeitig sind wir jedoch gezwungen, mit unvollständigen Informationen und der Unmöglichkeit zu leben, sämtliche Aspekte eines Systems vollständig zu verstehen oder vorherzusagen. Deshalb entstehen Modelle – vereinfachte Darstellungen der Realität, die jedoch automatisch eine gewisse Vereinfachung und damit auch Verzerrung mit sich bringen. Ein gutes Modell zeichnet sich dadurch aus, dass es trotz seiner Unvollständigkeit zuverlässig Muster erkennen und erklären kann. Es ist nicht zwingend darauf ausgelegt, direkt umsetzbare Handlungsanweisungen zu liefern, sondern eher, um ein tieferes Verständnis zu fördern.
Gerade in der Resilienztechnik, also im Management von Systemen, die unerwarteten Ereignissen widerstehen und sich davon erholen müssen, zeigen sich solche Modelle als äußerst wertvoll. Sie erlauben einen Blick auf die typischen Dynamiken und Adaptationen innerhalb eines Systems und machen damit transparent, warum bestimmte Vorfälle wiederkehren, ohne dass sie sich exakt identisch wiederholen. Ein Problem entsteht jedoch, wenn Modelle zu schnell zur Grundlage für Maßnahmen werden, die zwar „machbar“ und greifbar erscheinen, aber auf einer verzerrten Sicht beruhen. Aktionsorientierte, aber schlechte Modelle neigen dazu, die Komplexität zu reduzieren, sie auf einfache Fehler oder Schwachstellen zu fokussieren und so vermeintlich klare Verantwortlichkeiten zu definieren – etwa indem angenommen wird, dass Vorfälle immer durch menschliches Fehlverhalten verursacht werden. Diese Denkweise führt häufig zu einer Überbetonung von Regeln und Kontrollmechanismen, etwa durch verstärkte Prozessüberwachung oder strikte Automatisierung, die aber in Wirklichkeit die systemischen Ursachen von Problemen nicht adressieren.
Die Gefahr hinter solchen schlechten Modellen ist, dass sie vermeintlich einfache Lösungen versprechen, die in der Realität wenig bis nichts an der Zuverlässigkeit oder an der Resilienz eines Systems verbessern. Schlimmer noch, sie können Vertrauen in die falschen Stellhebel erzeugen und dadurch verhindern, dass Ressourcen und Aufmerksamkeit auf wirksamere Interventionen gelenkt werden. Hier kommen gute, auch wenn sie nicht unmittelbar umsetzbare, Modelle ins Spiel. Sie fungieren als eine Art Schutzimpfung gegen zu simple und irrig wirkende Erklärungsmodelle. So warnte der Schriftsteller H.
L. Mencken einst vor „neat, plausible and wrong solutions“ – also vor Lösungen, die zwar attraktiv erscheinen, aber falsch sind. Die Herausforderung, die sich daraus ergibt, ist zugleich fundamental und praktisch. Experten und Verantwortliche in Bereichen wie Softwareentwicklung, Sicherheit und Organisationsmanagement müssen ein tieferes Verständnis komplexer Systeme entwickeln, um gute Modelle zu entwickeln und zu fördern. Dabei geht es weniger darum, perfekte oder vollständig präzise Beschreibungen zu erschaffen – das ist aufgrund der inhärenten Komplexität ohnehin unmöglich –, sondern vielmehr darum, Modelle zu pflegen, die bewusst die Unsicherheit und Vielschichtigkeit berücksichtigen.
Diese Modelle heben hervor, dass Fehler oft nicht das Resultat isolierter Einzelversagen sind, sondern aus der Dynamik des gesamten Systems entstehen. Ein zentrales Konzept in diesem Zusammenhang ist die Resilienz – die Fähigkeit eines Systems, sich an veränderte Bedingungen anzupassen, unerwartete Ereignisse zu absorbieren und auch nach Störungen wieder stabil zu werden. Modelle, die diese Fähigkeit abbilden, zeigen, dass solche Systeme keineswegs perfekt vor Fehlern geschützt sind. Die Wiederholung ähnlicher Muster bei Vorfällen, aber nie exakt identischer Ereignisse, zeugt von dieser Adaptivität und dem ständigen Wandel in der Systemwelt. Viele traditionelle Ansätze im Sicherheits- und Risikomanagement setzen jedoch auf starre Prozeduren und das Einhalten vorgegebener Prozesse.
Solche Maßnahmen basieren oft auf der Annahme, dass Abweichungen von diesen Prozessen die Hauptursache von Vorfällen sind. Das mag in einigen Fällen eine Rolle spielen, verkennt aber die tiefere, systemische Realität. Menschen passen Prozesse flexibel an, um mit komplexen Situationen umzugehen, die nicht immer vorhergesehen werden können. Ein zu striktes Festhalten an Prozessen kann somit paradoxerweise die Resilienz eines Systems verringern. Daher ist es notwendig, Modelle zu entwickeln und zu akzeptieren, die nicht allein auf Kontrolle und Einhaltung beruhen, sondern ein Verständnis für Interaktionen und Anpassungen schaffen.
Das bedeutet, dass organisatorische Lernprozesse, kontinuierliche Beobachtung und Anpassung der Modelle und Mechanismen eine wichtige Rolle spielen. Gute Modelle geben keine einfachen Patentrezepte, sondern fördern eine Kultur der Reflexion und des stetigen Verbesserungsprozesses. Ein weiterer Aspekt ist die Rolle von Wissenschaft und Forschung in diesem Kontext. Die Sozialwissenschaften liefern hier wichtige Beiträge, obwohl ihre Erkenntnisse oft als abstrakt oder schwer anwendbar kritisiert werden. Dennoch schützen sozialwissenschaftliche Modelle vor simplistischen Deutungen sozialer Phänomene in Organisationen und Gesellschaften.
Diese Modelle veranschaulichen, dass komplexe soziale Systeme durch vielfältige Wechselwirkungen geprägt sind und einfache Ursache-Wirkungs-Formeln wenig hilfreich sind. Die Bedeutung guter Modelle erstreckt sich deshalb weit über den Bereich der Technik hinaus. In der Politik, im Gesundheitswesen, in der Bildung und vielen weiteren Bereichen treffen Entscheidungsträger täglich auf Situationen, in denen das Vertrauen auf schlechte, aber praktische Modelle zu Fehlentscheiden führen kann. Gute Modelle fordern dazu auf, tiefer zu schauen, Komplexität zu akzeptieren und mit Unsicherheiten verantwortungsvoll umzugehen. Zusammenfassend lässt sich sagen, dass in einer Welt voller ungewisser und komplexer Situationen nur gute Modelle als verlässliche Orientierungspunkte dienen können.