Foto: Wissenschaftskommunikation.de, CC BY-SA 4.0

„Gewisse Vorbehalte der Bevölkerung gegenüber Statistik verstehe ich vollkommen“

Journalismus und Statistik – das ist oft eine schwierige Beziehung. Zum Start unseres Schwerpunkts Wissenschaftsjournalismus verrät Malte Persike, Dozent für Forschungsstatistik an der Universität Mainz, was schief läuft und was die Medien besser machen könnten.

Herr Persike, Sie lehren am Psychologischen Institut in Mainz das Fach Statistik. Blättern Sie lieber schnell weiter, wenn es in der Zeitung um Statistiken geht?

Nein, in aller Regel schaue ich mir das gerne an. Denn ich gehe erst einmal davon aus, dass Daten in wissenschaftsjournalistischen Beiträgen korrekt wiedergegeben werden. Und obwohl ich selbst Wissenschaftler bin, stoße ich oft erst durch populärwissenschaftliche Artikel auf interessante Themen außerhalb meines eigenen Forschungsgebiets. Wenn ich ein Thema dann spannend finde, sehe ich mir aber zumeist neben dem Zeitungsartikel auch die Originalarbeit an. Sollte sich herausstellen, dass die journalistische Darstellung der Originalarbeit nicht entspricht oder sogar falsch war, ist das am Ende nicht schlimm – solche Fälle kann ich immer noch für meine Vorlesung nutzen. Ich zeige meinen Studierenden nämlich gern auch Beispiele dafür, wie man es nicht machen sollte.

Was sind denn häufige Fehler, die Ihnen bei der Aufbereitung von Statistiken begegnen?

Kritisch wird es meist, wenn Ergebnisse in Form von Grafiken dargestellt werden. Ein Klassiker ist etwa, dass die Achsen eines Diagramms abgeschnitten werden und Unterschiede dadurch viel größer wirken, als sie tatsächlich sind. Wenn es in einem Jahr 110 Fälle einer Erkrankung gab und im nächsten Jahr 104 Fälle, ist das keine allzu dramatische Differenz. Beginnt die Achse jedoch erst bei 100, sieht es durchaus danach aus. Ein anderer Punkt sind fehlende Beschriftungen, so dass überhaupt nicht klar wird, welche Daten man da eigentlich gerade sieht.

Porträtfoto Malte Persike
Malte Persike ist habilitierter Psychologe und Akademischer Rat in der Abteilung Methodenlehre und Statistik des Psychologischen Instituts der Johannes-Gutenberg-Universität Mainz. Er setzt sich insbesondere für die Digitalisierung der Hochschullehre ein. Foto: Hartmann, Mainz

Wie bewerten Sie den Hang zu spielerisch aufbereiteten Grafiken?

Wichtig ist, ob sie das Verständnis unterstützen. Vorsicht ist beispielsweise geboten, wenn Zahlen in Form von flächigen Objekten dargestellt werden. Stellen Sie sich vor, ein Spielehersteller stellt die Entwicklung seines Umsatzes in Form von unterschiedlich großen Luftballons dar. Wenn er den Umsatz über den Durchmesser der Ballons veranschaulicht, würde er den Betrachter in die Irre führen. Denn Menschen bewerten die Größe von Objekten, zum Beispiel von Kreisen, nach ihrer Fläche und nicht etwa nach dem Durchmesser. Es gibt zahllose Beispiele dafür, wie auf diese Weise Unterschiede über- oder untertrieben werden – meist wohl nicht aus böser Absicht, sondern schlicht aus Unkenntnis.

Missfällt Ihnen abgesehen von Grafiken noch etwas daran, wie die Medien mit Statistiken umgehen?

Was mich häufig stört, ist das Vertrauen von Journalistinnen und Journalisten auf eine einzige Studie. Wenn es irgendwo ein wissenschaftliche Studie ein interessantes oder unerwartetes Ergebnis liefert, wird in der Presse schnell darüber geschrieben. Doch manchmal zeigt sich nach einiger Zeit, dass andere Forschende den Befund nicht wiederholen konnten und damit seine Gültigkeit in Zweifel steht. Man sollte daher ganz prinzipiell nicht zu viel auf neuartige Untersuchungen geben, die noch nicht von mehreren weiteren Forschungsteams bestätigt wurden. Besonders ärgerlich wird es, wenn bei der Berichterstattung über eine einzelne Studie auch noch die Größe der Stichprobe nicht berücksichtigt wird – und zwar in beide Richtungen.

Können Sie das näher erläutern?

Zu kleine Stichproben schmälern die Aussagekraft eines Experiments, das wissen mittlerweile die meisten. Wenn nur wenige Versuchspersonen untersucht wurden, kann man leicht ein zufälliges Ergebnis entstehen, das eben nur für diese kleine Stichprobe gilt. Aber auch das Umgekehrte ist ein Problem. Man liest immer wieder von Studien mit mehreren Tausend Teilnehmenden. Bei so großen Stichproben werden aber auch schon kleine Unterschiede statistisch signifikant. Wenn auf einem Depressionsfragebogen eine Gruppe einen Mittelwert von 18 aufweist und die andere Gruppe 19, dann ist dieser Unterschied wahrscheinlich bei einer kleinen Stichprobe von 30 untersuchten Personen statistisch nicht signifikant. Bei mehreren Tausend Versuchspersonen aber schon! Die wichtigere Frage lautet daher bei Untersuchungen an großen Stichproben nicht, ob das Ergebnis signifikant ist, sondern: Ist der Unterschied zwischen 18 und 19 in der Praxis bedeutsam? 

Wie kann man das entscheiden?

Indem man eine Reihe wesentlicher Fragen abarbeitet: Wie weit geht die Skala des Fragebogens überhaupt – bis 20 vielleicht, oder bis 300? Welche Fragen wurden den Versuchspersonen gestellt? Hat der gefundene Effekt einen messbaren Effekt auf verschiedene Aspekte des Lebens der betroffenen Personen? Solche Details, die ein Ergebnis in den Kontext rücken, fallen in Medienberichten leider fast immer unter den Tisch. Natürlich aus Platzgründen, aber auch aus Unkenntnis. Dabei gäbe es recht basale Dinge, an denen sich Journalistinnen und Journalisten orientieren können, um die Grenzen einer Studie aufzuzeigen.

Und die wären?

In wissenschaftlichen Publikationen üben Forschende fast immer auch Selbstkritik. Diese findet sich meist ganz am Ende eines Fachartikels unter den Stichworten „Limitationen“ oder „Grenzen“. Leider findet das, was in diesem Abschnitt steht, so gut wie nie den Weg in die Zeitung. Deshalb liest sich das Ergebnis einer Untersuchung in der Berichterstattung oft viel definitiver als im Original – und die Forschenden jammern, weil sie doch extra darauf hingewiesen hatten, warum ihr Befund nur als vorläufig anzusehen ist. Auch in anderer Hinsicht sollten Redaktion darauf achten, den Leserinnen und Lesern mehr Kontext zu den Zahlen mitzuliefern. Besonders bei Prozentsätzen fällt mir das immer wieder auf.

Was ist das Problem an Prozentsätzen?

Sie klingen für Laien oft überzeugend, bedürfen aber generell einer Interpretation. Nehmen wir den Satz: „16 Prozent aller Deutschen sind von Armut gefährdet.“ Das wirkt wie eine klare Aussage. Aber was bedeutet es überhaupt, wenn jemand arm oder von Armut bedroht ist? Jeder Leser und jede Leserin wird sich ganz unwillkürlich etwas darunter vorstellen, nur deckt sich das nicht zwangsläufig mit der wissenschaftlichen Definition eines solchen Begriffs, die oft kompliziert ist. Man erfährt auch im Beispiel der Armutsgrenze zum Beispiel nicht, wie weit diese Personen im Durchschnitt unterhalb der Grenze leben, welche nicht-monetären Leistungen sie erhalten, welche Lebensumstände mit Armut verknüpft sind. Das Gefährliche ist nun, wenn das Publikum denkt, es hätte die Botschaft verstanden, und sich nicht näher mit der Thematik auseinandersetzt.

„Prozentsätze klingen für Laien oft überzeugend, bedürfen aber generell einer Interpretation.“ Malte Persike

Wie könnten Redaktionen dem vorbeugen?

Natürlich können journalistische Artikel nicht beliebig lang und ausführlich sein. Aber mir fehlt doch oft zumindest ein Hinweis darauf, dass in der Originalpublikation wesentlich mehr Informationen enthalten sind. Und dass die präsentierten Fakten nur ein winziger Ausschnitt aus einem mitunter immensen Forschungsfeld sind. Das ist naturgemäß fast immer der Fall, wenn es um Wissenschaft geht. Aber ich glaube, dass dies vielen Leserinnen und Lesern nicht unmittelbar klar ist.

Wie steht es generell um das Verhältnis der Bevölkerung zur Statistik? Man liest ja immer wieder: „Glaube keiner Statistik, die du nicht selbst gefälscht hast“, es gab schon Bestseller mit dem Titel „So lügt man mit Statistik“ …

Ich befürchte, das hängt vor allem mit der Komplexität des Themas zusammen. An meiner Universität brauche ich zwei komplette Semester, um meine Studierenden in die Grundlagen statistischer Methoden einzuführen. Und da sprechen wir noch gar nicht von den zum Teil hochkomplexen Verfahren, denen man in Fachmagazinen häufig begegnet. Gewisse Vorbehalte der Allgemeinbevölkerung gegenüber diesem Gebiet verstehe ich daher vollkommen. Allerdings glaube ich auch, dass hinter der Skepsis gegenüber Statistiken in Wahrheit meistens eine Skepsis gegenüber der Wissenschaft an sich steckt.

Inwiefern?

In der Wissenschaft gibt es selten absolute Aussagen. Fachpublikationen wimmeln von Formulierungen wie vielleicht, wahrscheinlich, vermutlich, unter bestimmten Bedingungen. Viele Menschen wünschen sich aber von der Wissenschaft als vermeintlich exakter Disziplin definitive Aussagen: Ist es jetzt so oder nicht? Leider kann eine einzelne wissenschaftliche Untersuchung das meist nicht so einfach beantworten – und das macht es Kritikern einfach, antiwissenschaftlich zu argumentieren.

Erklären denn Wissenschaftlerinnen und Wissenschaftler ihrerseits ausreichend, was statistische Ergebnisse bedeuten?

Ich denke, auch hier gibt es noch einiges zu tun. Zu oft drückt sich die Wissenschaft so aus, dass ein Nichtfachpublikum sie kaum verstehen kann. Sie überlässt es dann der institutionellen Wissenschaftskommunikation und dem Journalismus, die Forschungsergebnisse verständlich aufzubereiten. Dieser Prozess ist deshalb unglücklich, weil er davon ausgeht, dass die Wissenschaft so etwas wie einen Übersetzer braucht, um mit einem Nichtfachpublikum kommunizieren zu können. Dass dabei Übersetzungsfehler passieren, sollte nicht verwundern. Ich würde an Forschende – mich eingeschlossen – deshalb gern einen höheren Standard anlegen und sie auffordern: Ihr müsst es selbst leisten können, eure Ergebnisse verständlich aufzubereiten und darzustellen. So vermeidet ihr am zuverlässigsten, dass es zu fehlerhaften Interpretationen kommt – auch und gerade, wenn es um die Bewertung von Forschungsmethodik und Statistiken geht.