In unserer zunehmend datengetriebenen Welt sind Diagramme und Grafiken ein unverzichtbares Mittel, um komplexe Zusammenhänge schnell und verständlich zu vermitteln. Doch während sie oft Klarheit schaffen können, bergen sie auch die Gefahr, ein falsches Bild zu erzeugen – insbesondere wenn es um die Annahme von Kausalität geht. Die sogenannte Illusion von Kausalität in Diagrammen verweist auf das häufige Phänomen, dass Betrachter aus bestimmten Trends oder Mustern in den Graphiken auf eine ursächliche Beziehung schließen, die tatsächlich gar nicht belegt ist. Diese Fehlinterpretation ist nicht nur eine Schwäche des Betrachters, sondern liegt teilweise im Design der Diagramme selbst begründet. Bestimmte Darstellungsformen tendieren dazu, Kausalität zu implizieren, auch wenn die zugrunde liegenden Daten häufig nur Korrelationen aufzeigen oder durch völlig andere Faktoren beeinflusst sein können.
Diese Problematik ist in vielen Bereichen präsent, von Gesundheitsstatistiken über Unternehmenskennzahlen bis hin zu politischen Analysen. Ein klassisches Beispiel sind Balkendiagramme, die häufig beim Vergleich von zwei oder mehreren Gruppen verwendet werden. Wird etwa in einer Grafik gezeigt, dass die Herzkrankheitsrate bei Veganern niedriger ist als bei Omnivoren, neigen viele Betrachter dazu, sofort eine kausale Schlussfolgerung zu ziehen: Veganismus senkt das Risiko für Herzkrankheiten. Tatsächlich jedoch können zahlreiche andere gesundheitsfördernde Verhaltensweisen, die häufig mit einer veganen Lebensweise einhergehen – etwa Bewegung, Nichtrauchen oder regelmäßige Vorsorgeuntersuchungen – die wahren Ursachen für diesen Unterschied sein. Dieses Phänomen trägt die Bezeichnung des „Healthy User Bias“ und verdeutlicht, wie schwierig es ist, wahre Ursachen durch reine Vergleichsdaten zu entlarven.
Die gleiche Problematik begegnet man auch häufig in zeitbezogenen Diagrammen. Wenn man etwa den Effekt einer neuen Verkehrssicherheitsverordnung auf die Unfallzahlen untersucht, lässt eine Abnahme der Unfälle nach Einführung der Regel schnell auf die Wirksamkeit der neuen Maßnahme schließen. Doch auch hier könnte es zahlreiche alternative Erklärungen geben, wie saisonale Schwankungen, parallele Kampagnen zur Verkehrserziehung oder andere externe Einflüsse. Das Diagramm suggeriert hier eine zeitliche Kausalität, obwohl diese oft nicht eindeutig bewiesen ist. Streudiagramme sind besonders bekannt für die Darstellung von Zusammenhängen zwischen zwei Variablen.
Ein gestreutes Punktbild, das einen starken Zusammenhang zwischen der Zufuhr von gesättigten Fetten und Herzkrankheiten zeigt, kann den Eindruck erwecken, Fett sei die Ursache für Erkrankungen. Doch ähnlich wie bei Balkendiagrammen können weitere Faktoren im Hintergrund stehen, beispielsweise genetische Disposition, Lebensstil oder sozioökonomischer Status. Damit wird ein Kausalzusammenhang vorgetäuscht, ohne dass die Daten aus kontrollierten Experimenten vorliegen, die eine solche Schlussfolgerung zulassen. Eine einzigartige Rolle spielen Karten, welche geografische Informationen visualisieren. Hier können räumliche Nähe zu einer potenziellen Schadstoffquelle oder einem Ereignis leicht als ursächlich gedeutet werden.
Das historische Beispiel der Cholera-Epidemie von John Snow illustriert dies: Die Konzentration von Todesfällen rund um die beschädigte Wasserpumpe führte zur erfolgreichen Identifikation der Ursache. Allerdings sollte man nicht übersehen, dass eine bloße räumliche Nähe ohne zeitliche Abstimmung mit dem Ereignis nicht genügt, um Kausalität zu bestätigen. Oft werden Veränderungen erst sichtbar, wenn vor und nach Ereignissen verglichen wird, was alleine durch die Gegenüberstellung von zwei Karten oder Karten mit zeitlicher Differenz erst erkannt werden kann. Von all diesen Beispielen lässt sich eine zentrale Erkenntnis ableiten: Vier grundlegende Muster führen häufig zu der Illusion von Kausalität in Diagrammen. Diese Muster basieren auf Typen von Beziehungen, die durch visuelle Darstellungen suggeriert werden.
Der erste ist das Prinzip des Faktors, bei dem Gruppen unterschieden und hinsichtlich eines Merkmals verglichen werden. Hier leitet man oft von der Differenz zwischen den Gruppen auf eine Ursache zurück. Der zweite ist das Ereignisprinzip: Man vergleicht Zustände vor und nach einem bestimmten Ereignis und interpretiert Veränderungen als Folge dieses Ereignisses. Drittens ist die Kovariation wichtig – das gleichzeitige Ansteigen oder Abfallen zweier Größen lässt viele an eine direkte Ursache denken, obwohl es sich dabei auch um Zufall oder indirekte Zusammenhänge handeln kann. Viertens führt räumliche Nähe, also die Proximität zu einem vermuteten Auslöser, immer wieder dazu, dass eine direkte Wirkung vermutet wird.
Diese Muster lassen sich noch weiter abstrahieren, indem man die involvierten Variablen in Kategorien wie Zeit, Raum, Menge oder Qualitäten unterteilt. Zum Beispiel ist der Faktor ein Vergleich zwischen Kategorien und Mengen, das Ereignis verknüpft Zeit mit Menge, die Kovariation betrachtet Mengenpaare, und die räumliche Nähe verbindet Raum und Menge. Wenn ein Diagramm solche Kombinationen darstellt, ist die Wahrscheinlichkeit hoch, dass uninformierte Betrachter einen vermeintlichen Ursache-Wirkung-Zusammenhang konstruieren. Die Konsequenz für alle, die mit Datenvisualisierung arbeiten, aber auch für ihre Rezipienten, ist daher ein reflektierter und kritischer Umgang mit gezeigten Informationen. Es genügt nicht, lediglich auf einfache Trends oder Zusammenhänge zu schauen, ohne den Kontext und die Datenqualität eingehend zu hinterfragen.
Die eigentliche Herausforderung besteht darin, darauf hinzuweisen, wenn Daten nur einen Zusammenhang und keine Ursache belegen, und vor voreiligen Schlussfolgerungen zu warnen. Darüber hinaus sollte beim Aufbau von Diagrammen auf gestalterische Mittel geachtet werden, die eine falsche Kausalinterpretation begünstigen. So ist der bedachte Einsatz von Achsenskalierungen, klaren Beschriftungen, dem Vermeiden von Suggestivfarben oder übermäßigen Hervorhebungen wichtig, um unbewusste Verknüpfungen zu reduzieren. Gleichwohl bleibt die wichtigste Aufgabe die Aus- und Weiterbildung von Betrachtern: Datenkompetenz und das Verständnis für Unterschiede zwischen Korrelation und Kausalität müssen gefördert werden, um Fehlinterpretationen und Manipulationen vorzubeugen. Die Illusion von Kausalität in Charts ist somit kein bloßes ästhetisches Problem, sondern ein wesentliches Thema, das sowohl die Qualität der wissenschaftlichen Kommunikation als auch das gesellschaftliche Vertrauen in Daten beeinflusst.
In einer Zeit, in der Entscheidungen zunehmend auf datenbasierten Erkenntnissen basieren, ist es entscheidend, die Grenzen visueller Darstellungen zu kennen und zu respektieren. Nur so können wir sicherstellen, dass Grafiken zur wirklichen Aufklärung beitragen und nicht zu Fehlwahrnehmungen und falschen Handlungen führen. Abschließend bleibt zu betonen, dass Diagramme trotz ihrer Tücken ein unverzichtbares Werkzeug bleiben. Sie leisten unschätzbare Dienste dabei, komplexe Informationen zugänglich und verständlich zu machen, wenn sie richtig eingesetzt und interpretiert werden. Die Aufgabe von Fachleuten, wie Datenwissenschaftlern, Analysten und Journalisten, ist es daher, immer auch die Intention und die Limitationen der Datenvermittlung zu reflektieren und transparent zu kommunizieren.
Denn nur so können wir der Illusion von Kausalität effektiv begegnen und verantwortungsbewusst mit der Macht der Daten umgehen.