Foto: Michael Shannon

Kopfzerbrechen? Die Psychologie des Umgangs mit Risiko und Krise

Im Wissenschaftsbetrieb haben wir es häufig mit der Vermittlung kritischer Themen zu tun, manchmal sogar mit einer handfesten Krise. Risikokommunikation und Krisenkommunikation sind aber recht unterschiedlich angelegt. Dennoch nimmt der Mensch diese beiden verschiedenen Geschwister fast als Zwillinge wahr.

Risiko- wie Krisensituationen bereiten uns gleichermaßen Unbehagen, versetzen uns je nach persönlicher Betroffenheit in Sorge oder gar in Panik. Beim Risiko befeuert durch die quälende Ungewissheit des möglichen Eintretens. Bei der Krise befeuert durch die Dramatik des tatsächlichen Eintretens. So weit, so schlecht. Aber wie verarbeiten wir beides in unserer Gedankenwelt? Welche mentalen Konstrukte sind am Werk? Um diese Frage zu beantworten, werfen wir einen Blick auf Emotionen und Kognitionen im Zusammenhang mit der Kommunikation kritischer Themen.

Resilienz – Durchhaltevermögen in der VUCA-Welt

Immer wieder müssen wir uns mit Situationen auseinandersetzen, die uns aus der Bahn werfen. Das Vermögen, dann wieder in die Spur zu kommen, fällt im Kontext mit der individuellen psychischen Gesundheit unter den Begriff „Resilienz“. Übertragen wir diesen Ansatz zur Kunst des Immer-wieder-Aufstehens in einen größeren, gesellschaftlichen Rahmen, dann betreten wir die VUCA-Welt. Dieses Kürzel bezeichnet ein Umfeld, das starken und plötzlichen Schwankungen in die Extreme unterworfen ist (volatil), das uns im Ungewissen lässt (uncertain), das sich als ausgesprochen vielschichtig darstellt (complex) und zudem noch mehrdeutig (ambiguous) erscheint. Ganz ähnlich übrigens dem Modell der Risikoforscher Andreas Klinke und Ortwin Renn, die als Risikomerkmale die vier Charakteristika Komplexität, Unsicherheit, Mehrdeutigkeit und Ausbreitung beschreiben.

Wäre das Leben ein Ponyhof, dann sähe diese Welt anders aus. Sie wäre stabil, sicher, einfach und durch eindeutige Zusammenhänge erklärbar – nur: Die VUCA-Merkmale sorgen dafür, dass es anders ausschaut. Und zwar egal, ob es darum geht, ein Risiko zu kalkulieren, ob es leicht kriselt, oder ob es heftig kracht. Damit sind wir bei den eingangs erwähnten Geschwistern, die uns als Zwillinge erscheinen.

Selektive Wahrnehmung – nichts ist, wie es scheint

Wenn wir die Lage einschätzen, verlassen wir uns nicht allein auf unseren Verstand. Sondern wir formen die Dinge gedanklich schon in dem Moment um, in dem wir sie erleben. Wir nehmen sie selektiv wahr – manches bekommt mehr Gewicht, manches weniger, anderes fällt komplett unter den Tisch. In der Psychologie haben sich rund 50 Ansätze herausgebildet, die verschiedene Ausformungen selektiver Wahrnehmung beschreiben. Was sie gemeinsam haben: Der Mensch arrangiert sich prima mit solchen verzerrten Wahrnehmungen und hält gerne an dem fest, was er sich zurechtkonstruiert hat. Dies kann mitunter ausgesprochen irrational sein. Sowohl die Risiko- als auch die Krisenkommunikation brauchen aber eigentlich das Gegenteil, dass nämlich ihre Botschaften möglichst rational wahrgenommen und bewertet werden.

Aktuell gerne diskutiert wird das „Motivated Reasoning“, sozialpsychologische Forschung kennt den ganz ähnlich gelagerten „Confirmation Bias“: Wir lassen uns gerne bestärken in Überzeugungen, die wir ohnehin haben. Umgekehrt blenden wir häufig aus, was nicht ins Bild passt. Solch eine Verzerrung im Schlussfolgern reduziert die kognitive Dissonanz – in diesem Fall das als unangenehm empfundene Auseinanderklaffen zwischen zwei unterschiedlichen Überlegungen oder Argumenten. Das spart unserem Gehirn kognitive Arbeitslast und hilft, handlungsfähig zu bleiben. Studien zur „Motivated Science Reception“ legen sogar nahe, dass dieser Effekt bei der Wahrnehmung bedrohlicher Situationen besonders ausgeprägt ist.

Für diese Filterfunktion ist es jedenfalls unerheblich, ob es sich um unidirektionale Informationen über eine Krise handelt oder um eine eher dialogische Kommunikation über ein Risiko. Wir versuchen in beiden Fällen, bereits vorhandenes Wissen und zusätzliche, neue Informationen miteinander in Einklang zu bringen.

Erleichtert werden Prozesse selektiver Wahrnehmung durch die Tatsache, dass ein immer größerer Anteil unseres Wissens medial vermittelt ist – und nicht auf eigener Erfahrung beruht. Wir haben auf der einen Seite also einen Zuwachs an dem, was wir glauben sollen oder wollen, sozusagen vom Hörensagen. Auf der anderen Seite einen Rückgang an dem, was auf dem eigenen Erleben beruht. Sowohl die Risiko- also auch die Krisenkommunikation verstärken diese Verschiebung. Die Krisenkommunikation fußt ganz wesentlich auf einer medial vermittelten Form von „Wissen“, und für die Risikokommunikation gilt dies wegen des fiktiven Charakters eines Risikos noch umso mehr.

Ursache und Wirkung – der fundamentale Attributionsfehler

Das Phänomen der selektiven Wahrnehmung unterstützt also die Vorstellung, dass unser Denken darauf angelegt ist, den kognitiven Arbeitsaufwand so gering wie möglich zu halten. Dies gelingt unter anderem dann, wenn wir möglichst einfache Zuordnungen von Ursache und Wirkung treffen, oder fachlicher: mithilfe der Attribution. Interessant ist eine Verzerrung, die sich dabei beobachten lässt. Wir schreiben nämlich ein Verhalten bevorzugt Gründen zu, die in einer handelnden Person liegen. Dahinter treten Gründe zurück, die auf situativen Faktoren beruhen.

Hier haben wir es mit dem „fundamentalen Attributionsfehler“ zu tun. Fehler deswegen, weil solch eine reduzierte Zuschreibung der Ursache auf eine konkrete Person – und nicht auf eine vielschichtige Situation – häufig entschieden zu kurz greift. Vielschichtigkeit ist aber ein typisches Phänomen von Risiken und Krisen. Zugegebenermaßen ist es in der Tat einfacher, eine handelnde Person für einen Missstand verantwortlich zu machen und nicht ein komplexes Gefüge ungünstiger Umstände. Die kurze Halbwertszeit des Trainer-Daseins in der Fußball-Bundesliga hat vielleicht hier ihren Ursprung …

Persuasion – Überreden ist kein Überzeugen

Es lohnt sich, noch für einen weiteren Moment der Überlegung zu folgen, dass der Mensch kognitiven Aufwand gerne einspart. Das „Elaboration Likelihood Model“ (ELM) beschreibt zwei Wege, auf denen eintreffende Informationen verarbeitet werden können. Beide gehen mit einer unterschiedlichen Wahrscheinlichkeit einher, dass diese Informationen eine Änderung unserer inneren Einstellung bewirkt. Die Forschung dazu fällt unter den Oberbegriff Persuasion, und schon um der Herangehensweise willen ist es wichtig, darunter einen Überzeugungsprozess zu verstehen und keinen Versuch, jemanden zu überreden.

Der eine der beiden erwähnten Verarbeitungswege von Informationen, die zu einer Änderung in den Einstellungen und im Verhalten führen sollen, ist der „central path“, vorstellbar als ein zentraler Pfad durch unsere Gedankenwelt. Hier gehen wir analytisch und strukturiert vor, wägen Argumente qualitativ ab, verbunden mit einem entsprechenden kognitiven Aufwand. Der andere der beiden Wege ist der „peripheral path“. Hier verarbeiten wir Informationen eher flüchtig und wenig strukturiert, es zählt mehr die Quantität der Argumente als deren Qualität, vielleicht auch mal das sympathische oder unsympathische Erscheinungsbild des Kommunikators. Der kognitive Aufwand jedenfalls bleibt gering, die erzeugten Einstellungen sind aber auch weniger stabil, als sie es bei der Verarbeitung über den zentralen Pfad gewesen wären.

Das Elaboration Likelihood Model beschreibt also eine geeignete Möglichkeit, mentale Ressourcen zu sparen. Doch darf man bei der gedanklichen Auseinandersetzung mit Risiken und Krisen davon ausgehen, dass wir bereit sind, einen Mehraufwand in der gedanklichen Verarbeitung in Kauf zu nehmen, dass Informationen also auf dem zentralen Pfad unterwegs sind. Vorausgesetzt, unsere eigene Lebenswelt ist betroffen und wir erleben entsprechende Neuigkeiten und Diskussionen als persönlich bedeutsam. Dafür wiederum erscheint es aber relativ egal, ob es um ein drohendes Risiko oder um eine tatsächliche Krise geht.

Nun verweist das Elaboration Likelihood Model aber auf zwei Voraussetzungen, damit es zu einer elaborierten, also mit höherem Aufwand verbundenen Verarbeitung kommt. Zum einen die Motivation, sich mit einem risiko- oder krisenhaft besetzten Thema auseinanderzusetzen. Das dürfen wir je nach Betroffenheit voraussetzen. Zum anderen: Wir müssen die entsprechenden Informationen auch verstehen! Nur dann sind wir in der Lage, uns adäquat damit auseinanderzusetzen. Dies bedeutet im Umkehrschluss: Die Kommunikation von Risiken und von Krisen muss sich einer klaren, flüssigen, verständlichen Sprache bedienen.

Prozentangaben – Fakten mit Tücken

Klar und verständlich also. Da gibt es doch kaum ein probateres Mittel als Zahlenangaben. Oder? In der Risiko- wie in der Krisenkommunikation stehen häufig Prozentangaben im Fokus. Etwa dann, wenn es darum geht, wie hoch denn die Wahrscheinlichkeit ist, zu Schaden zu kommen.

Prozentangaben liefern eine überzeugend klingende Auskunft, sind aber gerade deswegen tückisch. Je exakter ich sie formuliere, desto weniger Widerspruch dulden sie: Wenn 66,2 Prozent der Deutschen Angst haben, vor anderen Menschen zu sprechen, dann hege ich daran keine Zweifel. Wenn dies bei zwei Dritteln der Fall ist, neige ich zum Hinterfragen. Tatsächlich sind es laut einer Focus-Umfrage übrigens 43 Prozent – aber selbst bei der Kommunikation des zutreffenden Zahlenwertes wäre es nicht schlecht, ein bisschen über die Methodik der Befragung zu wissen.

Prozentangaben lassen sich darüber hinaus taktisch einsetzen, was durchaus problematisch sein kann. Sehr kleine Prozentangaben verführen dazu, eine Gefahr gedanklich zu relativieren, anders als der gleiche Wert in einem absoluten Bezug. Beispiel: Die Wahrscheinlichkeit, sich bei einer gefährlichen Sportart eine Schädelfraktur zuzuziehen, liegt bei 0,001 Prozent. Das werden die meisten von uns als ausgesprochen gering erachten. Geringer jedenfalls, als wenn wir uns jemanden mit gebrochenem Schädel vor Augen halten, in dem Wissen, dass es jeder 100.000-sten Person beim Ausüben dieser Sportart so ergehen wird. Rechnerisch läuft aber beides auf dasselbe hinaus.

Geht es ums Argumentieren mithilfe von Zahlen und Prozenten, verweisen Statistiker gerne auf die Umdeutung einer Korrelation in einen Kausalzusammenhang. Beim Zusammenhang zwischen weniger Infektionserkrankungen einerseits und höheren Impfraten plus verbesserten Lebensbedingungen andererseits ist die Kausalität berechtigt. Bei der überraschend hohen Korrelation zwischen zunehmendem Margarinekonsum und steigenden Scheidungsraten in den USA wird der Trugschluss aber offenkundig.

Nun sind Zahlenangaben und deren Veranschaulichung ausgesprochen hilfreich, wenn es darum geht, ein bisschen Faktenwissen in hitzige Debatten zu bringen. Das ist richtig. Aber genau deswegen sollte man auch über die Tücken dieser Angaben Bescheid wissen und reinen Zahlenzauber als solchen entlarven.

Technologie und Magie wohnen Tür an Tür

Soweit eine Tour d’Horizon über unser Denken und Fühlen. Egal, ob wir es dabei mit Risiko- oder mit Krisenkommunikation zu tun haben, wir ticken in beiden Fällen ganz ähnlich; siehe die eingangs verwendete Metapher von den Geschwistern und den Zwillingen. Wissenschaftler wie der britische Risikoforscher David Spiegelhalter, der amerikanische Verhaltensökonom Daniel Kahneman oder auch der deutsche Wahrscheinlichkeitsexperte Gerd Gigerenzer haben sich sehr anschaulich mit derlei mentalen Prozessen auseinandergesetzt. Es bleibt bei der Erkenntnis: Gerade mit kritischen Themen gehen die Menschen irrational um. Wobei es kritische Themen mehr als genug gibt, beispielsweise im Hinblick auf neuartige Technologien. Frei nach dem Motto – oder wissenschaftlicher: der These – des britischen Physikers und Science-Fiction-Autors Arthur C. Clarke: „Any sufficiently advanced technology is indistinguishable from magic.” Wenn es darum geht, den Unterschied zwischen Technologie und Magie wieder ein bisschen klarer zu verdeutlichen, sind Wissenschaftlerinnen und Wissenschaftler mit ihrer Expertise ausdrücklich gefragt. Und herausgefordert.