„Traue niemals einer Statistik, die du nicht selbst gefälscht hast“ – dieser Spruch ist wohl jedem bekannt. Doch nicht unbedingt nur das Frisieren von Zahlen führt zu möglicherweise falschen Schlüssen, sondern insbesondere die Ergebnispräsentation beeinflusst (manipuliert) unsere Wahrnehmung. Der Denominator Neglect ist ein gutes Beispiel für eine kognitive Falle. So vermeidet man falsche Rückschlüsse.
Je nachdem wie ich eine statistische Zahl kommuniziere, werde ich bei meinem Gegenüber wahrscheinlich eine andere Reaktion hervorrufen. Hier ein kleines Beispiel aus der Impf-Statistik – in der Corona-Pandemie ein viel diskutiertes und auch umstrittenes Thema (nach Kahneman, eigene Übersetzung):
„Ein Impfstoff gegen eine schlimme Kinderkrankheit führt bei 0,001% der Fälle zu einer dauerhaften Behinderung oder zum Tod.“
Das Risiko einer solchen Impfung erscheint doch jedem sehr gering, oder? Ich gehe davon aus, dass die meisten Personen eine Impfung nach dieser Erkenntnis befürworten. Nun sage ich es mal anders:
„Eines von 100.000 geimpften Kindern wird durch die Impfung eine dauerhafte Behinderung erleiden oder gar sterben.“
Was passiert nun bei meinem Gegenüber? Dieser stellt sich gerade ein durch die Impfung behindertes oder verstorbenes Kind vor. Die 99.999 anderen (erfolgreich geimpften) Kinder rücken gedanklich in den Hintergrund. Der erwiesene Nutzen einer Impfung wird durch eine solche Vorstellung bei einigen Menschen in Abrede gestellt (Stichwort „Impfgegner“). Auch die Medien berichten natürlich lieber über „das eine Kind, welches Schaden genommen hat“ als über die anderen 99.999 Kinder, denen die schlimme Krankheit erspart geblieben ist.
Der denominator neglect – die Vernachlässigung des Nenners
Wir sind hier gerade Zeuge des sog. denominator neglects (zu deutsch etwa: Vernachlässigung des Nenners) geworden. Daniel Kahneman hat o.g. Beispiel herangezogen, um die kognitive Wirkung zu illustrieren. Der Mensch ist nämlich deutlich besser darin, sich Einzelschicksale vorzustellen als in (gleichwertigen) mathematischen Formeln zu denken. Im ersten Fall wirkt nämlich das unterbewusste automatische Denken, im zweiten Fall muss der Mensch sein Denken gezielt auf den Sachverhalt lenken (die Formel auflösen). Das passiert im bewussten Denken – und da ist das menschliche Gehirn eher faul. Vielmehr übernimmt in solchen Situationen das impulsgesteuerte „Unterbewußte“ die Kontrolle über die Emotionen.
Seltene Ereignisse sind besonders betroffen
Der oben beschriebene Effekt wirkt besonders stark bei Ereignissen mit einer sehr geringen Wahrscheinlichkeit wie z. B. Nebenwirkungen von Medikamenten, Terroranschlägen, Flugzeugabstürzen oder Erdbeben. 3.000 Tote bei den Anschlägen auf das World Trade Center sind eben leichter vorzustellen als die Aussage, dass es zu 0,001% wahrscheinlich ist, einem Anschlag zum Opfer zu fallen. Der Effekt ist so mächtig, dass sogar Experten regelmäßig darauf reinfallen.
Manipulation mit der Vernachlässigung des Nenners
Die anschauliche und häppchengerechte Darstellung für unser „System 1“, dem Unterbewussten, von statistischen Sachverhalten bietet natürlich viel Raum für Manipulation in die ein oder andere Richtung. Möchte ich ein Risiko besonders gering erscheinen lassen, sollte ich immer die mathematische Formulierung wählen. Auf der anderen Seite der BILD-Zeitung kann ich durch die anschauliche Darstellung eines Risikos auch Stimmung gegen etwas oder für etwas machen. Die Verschärfung von Sicherheitsgesetzen sind da ein gutes und präsentes Beispiel.
Der Psychologe Paul Slovic gibt dazu ein paar anschauliche Beispiele. Jedes Jahr werden in den USA ca. 1.000 Menschen von psychisch Erkrankten ermordet, die ihre Medikamente nicht regelmäßig eingenommen haben. Hierzu kann man beispielsweise sagen: „1.000 von 273.000.000 Amerikaner sterben jedes Jahr auf diese Weise.“ oder „Die jährliche Wahrscheinlichkeit von einem psychisch Kranken ermordet zu werden beträgt 0,00036%.“ Im ersten Fall klingt die Zahl 1.000 unheimlich hoch und man bekommt sofort ein beklommenes Gefühl der Angst. An jeder Ecke vermutet man nun einen Soziopathen, der einem das Messer in den Bauch rammen möchte.
Im zweiten Fall muss man sein Gehirn (System 2) schon deutlich anstrengen, um dann zu erkennen, dass die Wahrscheinlichkeit, an einen solchen Mörder zu geraten, äußerst gering ist. Die Wahrscheinlichkeit, an Diabetes, Herz-Kreislauferkrankungen, Krebs oder im Straßenverkehr zu sterben, ist jedenfalls deutlich höher! Das ist in der Betrachtung ein Fall für den Denominator Neglect, die Vernachlässigung des Nenners.
So vermeidet man die Manipulation mit dem Denominator Neglect
Um den o.g. Effekt des vernachlässigten Nenners zu entrinnen, schlägt Daniel Kahneman sinnigerweise ein grundsätzlich einfaches Vorgehen vor: Wann immer man eine Wahrscheinlichkeit mit absoluten Zahlen (Einzelschicksalen) präsentiert bekommt, sollte man die Aussage entsprechend umformulieren und daraus eine mathematische Wahrscheinlichkeit bilden. Das setzt natürlich voraus, dass man sein „System 2“ – das bewusste Denken – in Gang bringt. Gerade in sehr turbulenten Zeiten wie in der Corona-Pandemie sollte man sich nicht von seinen Emotionen und Ängsten leiten lassen, sondern sich aktiv und faktenbasiert informieren. Am besten von anerkannten Experten ihres Faches und selbst ernannten keine YouTube-„Wissenschaftler“.