Foto: Petri Heiskanen

Kurz vorgestellt: Neues aus der Forschung im Oktober 2022

Verschmelzen Verschwörungsnarrative auf Instagram zu einer einzigen großen Erzählung? Wie können falsche Informationen über Impfstoffe entlarvt werden? Und sind Konsensuskonferenzen wirksame Methoden, um Bürger*innen in Entscheidungsprozesse einzubeziehen? Das sind Themen im Forschungsrückblick für den Oktober.

In unserem monatlichen Forschungsrückblick besprechen wir aktuelle Studien zum Thema Wissenschaftskommunikation. Diese Themen erwarten Sie in der aktuellen Ausgabe:

  • Haben sich unterschiedliche Verschwörungsnarrative während der Coronapandemie angenähert? Um das zu untersuchen, haben Marc Tuters und Tom Willaert Posts auf Instagram untersucht. 
  • Helfen Prebunking- und Debunking-Texte gegen die Verbreitung von Fake News über mRNA-Impfstoffe? Dieser Frage sind Philipp Schmid und Cornelia Betsch in zwei Experimenten nachgegangen. 
  • Haben Teilnehmer*innen von Konsensuskonferenz den Eindruck, gehört zu werden und etwas zu lernen? Welchen Einfluss haben ihre Entscheidungen? Leonie Dendler hat eine Konferenz zum Thema Genom-Editierung in den Blick genommen. 
  • In der Rubrik „Mehr Aktuelles aus der Forschung“ geht es unter anderem um Humor in der Wissenschaftskommunikation und um effektive Risikokommunikation.

Sollten Sie etwas vermissen, schreiben Sie uns gerne eine E-Mail oder hinterlassen Sie einen Kommentar.

Angst vor dem Deep State: Verschwörungs-Narrative auf Instagram

Im Gegensatz zu Facebook sei Instagram vor der Corona-Pandemie nicht als zentrale Plattform zur Verbreitung von Fake News betrachtet worden, schreiben Marc Tuters von der Universität Amsterdam und Tom Willaert von der Vrije Universiteit Brussel. Das habe sich jedoch im Laufe des Jahres 2020 geändert. Die beiden Forscher haben einen Datensatz von mehr als 470.000 Instagram-Posts mit Bezug zu Verschwörungsmythen untersucht. Damit wollten sie die Annahme prüfen, dass während der Pandemie Verschwörungserzählungen, die zuvor voneinander unabhängig waren, zu einer übergreifenden Erzählung verschmolzen – ein Phänomen, das auch als „Verschwörungs-Singularität“1 beschrieben wurde. 

Methode: Die Forscher gehen davon aus, dass die Pandemie zum Katalysator für die Annäherung (Convergence) unterschiedlicher Verschwörungsnarrative wurde – und dass dabei gemeinsame Antagonist*innen und Protagonist*innen eine zentrale Rolle spielen. Um ihre Hypothesen zu testen, wählten Tuters und Willaert Ansätze einer „digitalen Hermeneutik“2, innerhalb derer quantitative (Big) Data-Analysen mit interpretativen Methoden aus den Geisteswissenschaften kombiniert werden. Ausgehend von 82 vor allem englischsprachigen Hashtags mit Bezug zu Verschwörungsmythen und 66 Accounts, die häufig verschwörungsbezogene Hashtags verwendeten, sammelten sie Posts, die bis ins Jahr 2011 zurückreichen. So erstellten sie einen Datensatz von 478.154 Instagram-Posts. Bei der Analyse konzentrierten sich die beiden Forscher jedoch auf die ersten drei Quartale des Jahrs 2020. 

Im zweiten Quartal des Jahres tauchte plötzlich – parallel zum Anwachsen des Corona-Clusters – ein Bill-Gates-Narrativ auf.
Zum einen untersuchten die beiden Forscher, welche Hashtags wie häufig und in welchen Kombinationen auftauchen – ausgehend von der Annahme, dass das Zusammentreffen von Hashtags in einem Beitrag auf eine Annäherung der zugehörigen Verschwörungsnarrative hindeuten könnte. Aus den Daten erstellten sie ein Co-Occurrence-Netzwerk, das visualisiert, welche Hashtags zusammen verwendet werden. Die Forscher gruppierten die Hashtags außerdem zu Clustern von „Meta-Narrativen“: Trump/QAnon, Pizzagate, Conspirituality, New World Order/Neue Weltordnung, Covid, Bill Gates und 5G. Im Laufe der drei Quartale zeiget sich, welche Hashtags häufiger oder seltener verwendet wurden und welche Meta-Narrative dieselben Hashtags verwendeten. 

Im zweiten Schritt analysierten die Forscher automatisiert, welche Personen und Organisationen in den Posts zusammen genannt werden. Auch die Ergebnisse dieser Untersuchung stellen sie als Co-Occurrence-Netzwerk dar, das das gemeinsame Auftreten von Schlüsselakteur*innen visualisiert. Im dritten Schritt untersuchten die Forscher, welche Personen und Institutionen oder Organisationen genannt werden. Wie bei den beiden anderen Methoden waren sie auch hier daran interessiert, gleichzeitig auftretende Akteur*innen und Organisationen oder Institutionen zu identifizieren. 

Ergebnisse: Auffällig ist im Co-Occurrence-Netzwerk der Hashtags unter anderem die Präsenz von Donald Trump. Von den zehn am häufigsten genannten Hashtags haben acht einen Bezug zum Meta-Narrativ „Trump/QAnon“. Dass dieses Meta-Narrativ über die ersten drei Quartale im Jahr 2020 vergleichsweise stabil blieb, deute darauf hin, dass QAnon bereits vor der Pandemie auf Instagram etabliert war, schreiben die Autoren. Sie interpretieren dies außerdem als Hinweis darauf, dass Instagram für die Entwicklung der QAnon-Bewegung eine Rolle gespielt habe. 

Als weiteres Meta-Narrativ identifizieren die Forscher „Pizzagate“ – in Anlehnung an die schon vor QAnon verbreitete Verschwörungstheorie über einen Kinderpornoring, der angeblich aus einer Pizzeria heraus agiere und in den unter anderem Hillary Clinton involviert sei. Die damit verbundenen Hashtags traten im Laufe des Jahres 2020 innerhalb des Trump/QAnon-Clusters immer häufiger auf.

Eine weitere Meta-Erzählung ist „The Great Reset“. Die Coronavirus-Pandemie wird darin als Teil eines geheimen Plans angesehen, um eine Herrschaft der Weltwirtschaftselite zu erzwingen.
Die Analyse zeigt, dass Covid-19-bezogene Hashtags relativ isoliert von Pizzagate- und QAnon-bezogenen Hashtags auftauchen. Laut der Autoren ist das bemerkenswert, da frühere Forschungen3 behaupteten, Covid-19-Debatten hätten die QAnon-Bewegung belebt. Die Ergebnisse von Tuters und Willaert weisen hingegen darauf hin, dass die QAnon-Bewegung vielmehr von Trump-Narrativen und einer wiederbelebten Version des Pizzagate-Mythos angetrieben wurde. 

Im zweiten Quartal des Jahres tauchte plötzlich – parallel zum Anwachsen des Corona-Clusters – ein Bill-Gates-Narrativ auf („fuckbillgates“, „billgatesisevil“, „saynotobillgates“) und zeigte große Überlappungen mit anderen Clustern wie Covid oder New World Order. Das spricht für die These, dass in unterschiedlichen Narrativen dieselben Antagonist*innen eine Rolle spielen und dadurch eine Annäherung stattfindet. 

Eine weitere Meta-Erzählung ist „The Great Reset“. Die Coronavirus-Pandemie wird darin als Teil eines geheimen Plans angesehen, um eine Herrschaft der Weltwirtschaftselite zu erzwingen. In dieser Erzählung scheinen sich Aspekte etablierter rechter Erzählungen mit linken Kritiken an „globalistischen“ Unternehmen zu verbinden, schreiben Tuters und Willaert. Im Gegensatz zu QAnon tauchen bei Great-Reset-Hashtags weniger Fantasy- oder Film-Anspielungen („followthewhiterabbit“, „redpill“) auf. Stattdessen verbinden sich dort Sorgen über tatsächlich bestehende politische Pläne mit erfunden Verschwörungsnarrativen („Pizzagate“). The Great Reset umfasse unter anderem Anti-Impf-Hashtags, Anti-5G-Hashtags und Anti-Bill-Gates-Hashtags und erweise sich als internationaleres, themenübergreifendes und ideologisch vielfältigeres Meta-Narrativ als beispielsweise QAnon/Pizzagate. Es zeigte sich jedoch eine signifikante Überschneidung: der „Deepstate“-Hashtag, der zu einer Brücke zwischen beiden Meta-Narrativen wird.

Die häufigsten in den Posts genannten Organisationen sind staatliche Einrichtungen (z. B. „Senat“, „Staat“, „Pentagon“), große Technologieunternehmen (z. B. „Amazon“, „Google, “, „Microsoft“ und „Facebook“), Pharmaunternehmen („Big Pharma“, „Johnson and Johnson“, „Bill and Melinda Gates Foundation“) oder Medienorganisationen. Die am häufigsten genannten Personen sind „Trump“ und „Bill Gates“. Im Laufe des Jahres bewegten sich Trumps vermeintliche Deep State-Gegner (z. B. „George Soros“, „Epstein“, „Clinton“, „Rothschilds“, „Rockefeller“ und „Bill Gates“) zunehmend in Richtung Zentrum der Visualisierung, wo sich mehrere Cluster überschneiden. Das interpretieren die Forscher als Beweis dafür, dass Deep-State-Mythen zwar vor der Pandemie existierten, es aber 2020 zu einer Annäherung zwischen unterschiedlichen Erzählungen kam. 

Ein verbindendes Element zwischen den identifizierten Meta-Narrativen sind gemeinsame Antagonisten wie Bill Gates.
Auch die Bildanalyse liefert Hinweise auf Annäherungen von Narrativen – beispielsweise in Form von Collagen, die Bedenken hinsichtlich 5G mit Impfstoffen und Verschwörungstheorien der Neuen Weltordnung sowie Chemtrails zusammenbringen. Laut der Forscher fungieren einige Personen als eine Art „Grenzobjekt“ (“boundary object”), das in verschiedenen Meta-Narrativen erwähnt wird. Jeffrey Epstein beispielsweise verbindet die Cluster Bill Gates mit Clinton, QAnon und Pizzagate. Dass Bill Gates bei allen drei Analysen (Hashtags, Texte und Bilder) der präsenteste Einzelakteur ist, unterstützt laut der Forscher die These, dass er als zentraler Antagonist in verschiedenen Verschwörungs-Narrativen fungiert. 

Schlussfolgerungen: Die Ergebnisse zeigen, dass Instagram als Plattform für die Verbreitung von Verschwörungsmythen genutzt wird. Im Laufe des Jahres 2020 änderten sich jedoch die Bedingungen, schreiben die Autoren der Studie. Insbesondere nach dem Aufstand im Kapitol in Washington hätten Social-Media-Plattformen – darunter auch Instagram – QAnon-bezogene Konten gelöscht. Die vorliegende Studie weist darauf hin, dass es womöglich einfacher ist, bestimmte Narrative als Verschwörungsmythen zu identifizieren als andere. So erweise sich die QAnon-Community inhaltlich viel enger definiert als beispielsweise das Meta-Narrativ The Great Reset, schreiben Tuters und Willaert. Letzteres ist thematisch vielfältiger. In diesem Fall sei es praktisch unmöglich, Verschwörungsnarrative von unbedenklichen, „legitimen“ politisch-ökonomischen Kritiken an der neoliberalen Globalisierung zu trennen. Darin erkennen die Autoren ein zukünftiges Problem der Moderation von Inhalten aus Social Media. 

Ein verbindendes Element zwischen den identifizierten Meta-Narrativen sind gemeinsame Antagonisten wie Bill Gates. Ein weiteres Thema, das sich durch den gesamten untersuchten Instagram-Datensatz zieht und so unterschiedliche Meta-Narrative wie QAnon und der Great Reset verbindet, ist die Angst vor dem „Deep State“, in dem mächtige, nicht gewählte Akteur*innen hinter den Kulissen das Sagen haben. Die Forscher schreiben, dass es durchaus berechtigte Kritik an tatsächlichen Verschwörungen gibt, Anti-Etatismus aber verschwörerisch werden kann – dann beispielsweise, wenn er sich auf den ganzen Globus bezieht und durch einzelne wie Bill Gates personifiziert wird, statt sich auf grundlegende Geschäftsmodelle wie die Extraktion von Rohstoffen zu beziehen. 

Einschränkungen: Hashtags spiegeln nicht immer eins-zu-eins den Inhalt eines Posts wider. Lange Listen von Schlüsselwörtern werden auch verwendet, um Sichtbarkeit zu erlangen. Bei der Interpretation der Studienergebnisse muss also einschränkend beachtet werden, dass die verwendeten Hashtags nur bedingt Rückschlüsse darauf geben, ob die postenden Personen tatsächlich hinter dem damit zusammenhängenden Verschwörungsnarrativ stehen. Zudem konzentrierte sich die Untersuchung vor allem auf die USA und amerikanische Politik. Zukünftige Studien könnten das Augenmerk stärker auf internationale Netzwerke legen. Des Weiteren muss bei der Analyse von Inhalten auf Social Media beachtet werden, dass es auch eine Moderation seitens der Plattform gibt und beispielsweise QAnon-bezogene Konten im Untersuchungszeitraum entfernt wurden.

Tuters, M., Willaert, T. (2022). Deep state phobia: Narrative convergence in coronavirus conspiracism on Instagram. Convergence, 28(4), 1214–1238. https://doi.org/10.1177/13548565221118751

Hilft Debunking gegen Falschinformationen über mRNA-Impfungen?

Falsche Informationen über Impfstoffe können sich auf Einstellungen gegenüber Impfungen und die Impfbereitschaft auswirken. Als Strategie setzen beispielsweise öffentliche Institutionen auf Texte, die Falschinformationen widerlegen sollen. In zwei Experimenten haben Philipp Schmid und Cornelia Betsch von der Universität Erfurt und dem Bernhard-Nocht-Institut für Tropenmedizin in Hamburg Effekte solcher Debunking- beziehungsweise Prebunking-Texte untersucht. 

Methode: Die Autor*innen nehmen an, dass entlarvende, sogenannte, Debunking’-Texte dazu führen, dass Menschen Falschinformationen über Covid-19 als weniger glaubwürdig erachten. Betsch und Schmid erwarteten außerdem, dass die Wirksamkeit des Debunkings mit zunehmender Religiosität der Studienteilnehmer*innen abnimmt. In einem ersten Experiment, für das sie Antworten von 1.382 Teilnehmer*innen einer Online-Umfrage auswerteten, testeten sie ihre Annahmen. An der Follow-Up-Befragung zwei Monate später nahmen 821 der Befragten erneut teil. 

Im zweiten Online-Experiment testeten die Autor*innen, ob Debunking-Texte auch präventiv wirken – als sogenanntes Prebunking.
Bei dem Experiment gaben die Teilnehmer*innen an, für wie religiös sie sich halten, bewerteten die Glaubwürdigkeit von vier fiktiven Schlagzeilen und erhielten korrekte Informationen zu mRNA-Impfstoffen. Ein Teil der Befragten (Debunking-Gruppe) wurde außerdem ein Text vorgelegt, in dem widerlegt wurde, dass Impfstoffe das menschliche Genom verändern. Der Text warnte vor diesem weit verbreiteten Mythos und erklärte, warum er falsch ist. In dem Text, den der andere Teil der Befragten (Kontrollgruppe) zu lesen bekam, wurde diese Falschinformation nicht entlarvt. Danach bewerteten alle Studienteilnehmer*innen die Glaubwürdigkeit einer falschen Schlagzeile („mRNA-Impfstoff verändert das menschliche Genom“), zweier korrekter Aussagen (u.a. zum Zeitpunkt der Bundestagswahl) sowie einer irreführenden Schlagzeile (mRNA-Impfstoffe verursachen keine Nebenwirkungen). Diese Fragen wurden bei dem Follow-Up nach zwei Monaten erneut gestellt. 

Im zweiten Online-Experiment testeten die Autor*innen, ob Debunking-Texte auch präventiv wirken – als sogenanntes Prebunking. Das heißt: Wenn Menschen einen entlarvenden Text lesen, halten sie entsprechende Falschinformationen, denen sie zu einem späteren Zeitpunkt begegnen, für weniger glaubwürdig. Außerdem testeten Betsch und Schmid ihre These, dass die Wirksamkeit des Prebunkings mit zunehmender Spiritualität der Befragten abnimmt. 

Ausgewertet wurden Antworten von 1.054 ungeimpften Teilnehmenden. Sie gaben an, wie spirituell sie sind und beurteilten die Glaubwürdigkeit derselben Schlagzeilen wie die Teilnehmer*innen im ersten Experiment. Außerdem wurde abgefragt, wie sehr sie mRNA-Impfstoffen vertrauen und ob sie sich damit gegen Covid-19 impfen lassen würden. Eine Gruppe der Teilnehmenden bekam einen Prebunking-Text zu lesen, die andere einen Kontroll-Text, der nichts mit Impfstoffen zu tun hatte. Der Prebunking-Text war identisch mit dem Debunking-Text aus dem ersten Experiment – abgesehen von dem Zusatz, dass auch bei mRNA-Impfungen Nebenwirkungen auftreten können. Danach bekamen beide Gruppen Falschinformationen in Form eines irreführenden Social-Media-Posts zu lesen, in dem es heißt: „mRNA-Impfstoffe könnten das menschliche Genom verändern“. Danach wurden die Glaubwürdigkeits-, Vertrauens- und Impfabsichts-Fragen wiederholt. 

Ergebnisse: Die Teilnehmer*innen der Debunking-Gruppe im ersten Experiment bewerteten die falsche Schlagzeile zu mRNA-Impfstoffen im Vergleich zur Kontrollgruppe als weniger glaubwürdig. Damit wurde die Hypothese bestätigt. Bei der Follow-Up-Befragung zwei Monate zeigte sich jedoch kein signifikanter Unterschied zwischen den beiden Gruppen.

Die Studienteilnehmer*innen, die den entlarvenden Text gelesen hatten, bewerteten den irreführenden Social-Media-Beitrag als weniger glaubwürdig als die Kontrollgruppe.
Entgegen der Annahme der Autor*innen nahm der Effekt des Debunkings nicht mit zunehmender Religiosität der Studienteilnehmer*innen ab. Im Follow-Up hingegen zeigte sich ein starker Zusammenhang zwischen Religiosität und Debunking. Sehr religiöse Teilnehmer*innen stuften Falschinformationen zwei Monate später als glaubwürdiger ein als Personen in der Kontrollgruppe. Betsch und Schmid bezeichnen das als Backfire-Effekt. 

Mit der irreführenden Schlagzeile „mRNA-Impfstoff verursacht keine Nebenwirkungen“ wollten die beiden unbeabsichtigte Effekte untersuchen. Tatsächlich zeigte sich, dass Teilnehmer*innen der Debunking-Gruppe diese Aussage für glaubwürdiger hielten als die der Kontrollgruppe. Der entlarvende Text könnte also den Eindruck erweckt haben, dass mRNA-Impfstoffe überhaupt keine Nebenwirkungen haben.

Die Ergebnisse der zweiten Studie zeigen, dass Prebunking-Texte als „Immunisierung“ gegen Falschinformationen dienen können. Die Studienteilnehmer*innen, die den entlarvenden Text gelesen hatten, bewerteten den irreführenden Social-Media-Beitrag als weniger glaubwürdig als die Kontrollgruppe. Was das Vertrauen in mRNA-Impfstoffe und die Impfabsicht betrifft, zeigte der Prebunking-Text jedoch keine Effekte. Der Grad der Spiritualität zeigte keinen Einfluss auf die Wirkung des Prebunking. 

Anders als im ersten Experiment hielten Teilnehmer*innen der Prebunking-Gruppe die irreführende Aussage, es gäbe keine Nebenwirkungen, nicht für glaubwürdiger. Hier zeigte sich also kein unbeabsichtigter Effekt. 

Schlussfolgerungen: Das erste Experiment hat gezeigt, dass entlarvende Texte in der Pandemie dazu führen können, dass Falschinformationen über mRNA-Impfstoffe als weniger glaubwürdig erachtet werden – zumindest kurzfristig. Dass sich nach zwei Monaten kein Effekt mehr zeigte, kann damit zusammenhängen, dass auch die Kontrollgruppe dazulernte, denn in der Zwischenzeit war mehr Wissen über Impfstoffe verbreitet worden. 

Die Vermutung, dass Spiritualität die Wirkung von Prebunking beeinflussen könnte, wurde nicht bestätigt.
Dass es bei sehr religiösen Menschen nach zwei Monaten zu einem Backfire-Effekt gekommen ist, könnte laut der Autor*innen mit der Theorie des motivierten Denkens (theory of motivated reasoning) zusammenhängen. Demnach sind Menschen motivierter, zu einer bestimmten Schlussfolgerung zu gelangen, wenn diese mit ihrer Weltanschauung übereinstimmt4. Ein entlarvender Text über neue mRNA-Impfstoffe könnte dem Weltbild sehr religiöser Menschen widersprechen, wenn dieses mit der Anlehnung von neuen Technologien und wissenschaftlichen Innovationen einhergeht. Wenn sie einen Debunking-Text lesen, überzeugt er womöglich kurzfristig. Langfristig ist es aber möglich, dass Argumente gesucht werden, die dem ursprünglichen Weltbild entsprechen und dem Debunking entgegenstehen.

Die Vermutung, dass Spiritualität die Wirkung von Prebunking beeinflussen könnte, wurde nicht bestätigt. Angesichts der Erkenntnisse aus dem ersten Experiment überlegen Betsch und Schmid, dass sich die Effekte möglicherweise erst mit Verzögerung zeigen – was in zukünftigen Studien untersucht werden könnte. Wegen des möglichen Einflusses von Spiritualität und Religion auf die Einstellung gegenüber Impfungen halten die beiden Autor*innen es für sinnvoll, religiöse Führer*innen in die Gesundheitskommunikation einzubeziehen. 

Außerdem empfehlen sie angesichts der Ergebnisse des ersten Experiments Gesundheitsbehörden, weiterhin Korrektur-Texte zu Falschinformationen zu Verfügung zu stellen. Das sei eine wirksame und zugleich kostengünstige Maßnahme der Gesundheitskommunikation. 

Das erste Experiment offenbarte jedoch auch Fallstricke in Form von unbeabsichtigten Wirkungen von Prebunking. Es zeigte sich, dass entlarvende Texte zu Mythen über mRNA-Impfstoffe möglicherweise dazu führen können, dass Menschen glauben, diese Impfstoffe hätten überhaupt keine Nebenwirkungen. Betsch und Schmid gehen davon aus, dass das daran liegt, dass der Debunking-Text keine Informationen zu potenziellen Risiken enthielt. Im zweiten Experiment fügten sie entsprechende Informationen ein und es zeigten sich keine unbeabsichtigten Effekte. Die Autor*innen empfehlen deshalb, Nebenwirkungen transparent zu kommunizieren, um eine fundierte Entscheidungsfindung zu ermöglichen und Vertrauen aufzubauen. 

Das zweite Experiment zeigt, dass Materialien, die fürs Debunking entwickelt wurden, auch als Prebunking verwendet werden können. Es fanden sich jedoch keine Beweise dafür, dass Prebunking auch vor negativen Auswirkungen irreführender Social-Media-Posts auf die Impfabsicht schützte. Das könne damit zusammenhängen, dass der Debunking-Text einfach als Prebunking-Text verwendet wurde, ohne weitere Änderungen an der Intervention vorzunehmen, schreiben die Autor*innen. In ausgefeilteren Prebunking-Beispielen hingegen würde ausdrücklich davor gewarnt, dass die Leser*innen potenzielle Ziele von Desinformation sein werden5.

Einschränkend verweisen die Autor*innen darauf, dass Texte Bevölkerungsgruppen mit niedrigerem Bildungsstand schlechter erreichen könnten. Andere Formate wie Videos seien möglicherweise für einige Zielgruppen besser geeignet und sollten auf ähnliche Weise wie Prebunking- und Debunking-Interventionen getestet werden, schlagen sie vor. 

Einschränkungen: Die Stichprobe im ersten Experiment war nicht sehr religiös. Es wäre deshalb wichtig, die Studie mit anderen Teilnehmer*innen zu wiederholen, um den Backfire-Effekt zu bestätigen. Wichtig zu beachten ist auch, dass die Experimente zu unterschiedlichen Zeiten durchgeführt wurden. In der Zwischenzeit haben sich die Impfstoff-Verfügbarkeit, der Informationsstand und die Impfquote verändert, was auch Einfluss auf die Ergebnisse haben kann. 

Schmid, P., Betsch, C. (2022). Benefits and Pitfalls of Debunking Interventions to Counter mRNA Vaccination Misinformation During the COVID-19 Pandemic. Science Communication, 44(5), 531–558. https://doi.org/10.1177/10755470221129608

Wenn Argumente zählen: Studie zu Konsensuskonferenzen

Wie können Bürger*innen in Debatten und Entscheidungsprozesse rund um neue Technologien einbezogen werden? Deliberative Methoden zur Entscheidungsfindung könnten ein Ansatz sein, um das zu erreichen. Sie beruhen auf der Idee, dass statt Mehrheiten und bestehenden Machtverhältnissen gute Argumente die Grundlage für Entscheidungen bilden sollten. Ein Beispiel für deliberative Methoden sind Konsensuskonferenzen, bei denen sich eine kleine Gruppe von Bürger*nnen über einen längeren Zeitraum zu einem Thema berät. Leonie Dendler vom Bundesinstitut für Risikobewertung hat eine solche Konsensuskonferenz zum Thema Genom-Editierung untersucht. 

Methode: 2019 organisierte das Bundesinstitut für Risikobewertung (BfR) eine Konsensuskonferenz zum Thema Genom-Editierung. Teilnehmer*innen wurden über Radio- und Online-Anzeigen angeworben. Aus 147 Registrierungen wurden nach soziodemografischen Kriterien zufällig 20 Teilnehmer*innen ausgewählt. An zwei Vorbereitungswochenenden bekamen sie eine Einführung in die wissenschaftlichen, technischen und sozialen Aspekte der Genom-Editierung und entwickelten Fragen, die am dritten Wochenende von Expert*innen beantwortet wurden. Auf dieser Grundlage verfassten die Bürger*innen ein gemeinsames Votum, das zwei von ihnen einer Jury von Entscheidungsträger*innen aus Politik, öffentlicher Verwaltung, Wissenschaft, Wirtschaft und Zivilgesellschaft vortrugen. Eine externe Kommunikationsagentur begleitete und moderierte die Konferenz.

Konsensuskonferenzen werden unter anderem wegen ihres begrenzten Einflusses auf die Politikgestaltung, aber auch wegen fehlender Repräsentativität und Inklusivität kritisiert. 

In ihrer Studie untersuchte Dendler deshalb vor dem Hintergrund der Ideale deliberativer Entscheidungsfindung Aspekte der Legitimität (legitimacy). Legitimität konzeptualisiert sie als Grundlage (politischer) Autorität, die auf Urteilen über die Übereinstimmung mit anerkannten (demokratischen) Normen oder Verhaltensstandards beruht (Beetham, 1991; Risse, 2006). Untersucht wurden drei Dimensionen von Legitimität: 

  1. Input-Legitimität: Wie partizipativ ist der Prozess? Wer kann teilnehmen und wer kann Einfluss nehmen? Sprechen diverse, darunter auch marginalisierte Gruppen mit? 
  2. Throughput-Legitimität: Was geht zwischen Input und Output vor sich? Gibt es offene, inklusive und transparente Diskussionsprozesse mit der Bevölkerung? Beruhen die Entscheidungen auf rationalen Argumentationen, bei denen gleichberechtigte Akteur*innen Verständnis füreinander aufbauen und bereit sind, ihre Präferenzen angesichts neuer Informationen zu überdenken? 
  3. Output-Legitimität: Ist der Prozess der Lösungsfindung effektiv? Haben die Teilnehmer*innen den Eindruck, dass es die ernst gemeinte Absicht gibt, ihre Meinungen anzuhören und darauf zu reagieren? Welchen Einfluss haben die Ergebnisse auf die Politikgestaltung?

Leonie Dendler beobachtete den gesamten Prozess der Konsenskonferenz und führte halbstrukturierte Interviews mit 14 Teilnehmer*innen, fünf Entscheidungsträger*innen, drei Expert*innen und fünf Organisator*innen. Alle Teilnehmer*innen wurden außerdem gebeten, einen Fragebogen auszufüllen. Darin bewerteten sie auf einer Skala von 1 bis 6 ihre Zustimmung zu Aussagen (z.B. „Ich habe meine Meinung zu Genom-Editierung nicht verändert“) und beantworteten drei offene Fragen dazu, ob die Konferenz ihren Erwartungen entsprochen hat. Mithilfe der Software MAXQDA wurden die Interviewprotokolle, Beobachtungsnotizen und Antworten auf die offenen Fragen unter Bezugnahme auf die entwickelten Legitimationskriterien analysiert. Geschlossene Fragebogenantworten wurden mit der Software SPSS analysiert.

Ergebnisse: 

  1. Input-Legitimität: 
    1. Die Teilnehmenden empfanden die Auswahl der Mitwirkenden als weitestgehend transparent und nachvollziehbar. Zwölf von 15 Befragten stimmten der Aussage „Das Verbrauchervotum repräsentiert die Meinung der deutschen Verbraucher*innen zum Thema Genome Editing“ überhaupt nicht oder eher nicht zu. Dieses Bild wurde in den Interviews bestätigt, da viele Befragte der Meinung waren, dass sich nur Menschen für solch eine Konsensuskonferenz bewerben, die sich sowieso für das Thema interessieren – auch wegen des hohen Zeitaufwands. Für Eltern mit kleinen Kindern beispielsweise sei eine Teilnahme schwer zu realisieren. Deshalb schlugen Teilnehmer*innen vor, Präsenz- mit Online-Formaten zu kombinieren. Einige Interviewteilnehmer*innen vermissten außerdem Teilnehmer*innen mit Migrationshintergrund.
  1. Throughput-Legitimität:
    1. Die Mehrheit der Teilnehmer*innen schien der Meinung zu sein, dass während der Konsensuskonferenz alle ihre Meinung einbringen konnten. In den Interviews merkten jedoch einige an, dass einzelne Personen versuchten, den Prozess zu dominieren. 
    2. Elf Bürger*innen stimmten voll oder teilweise zu, dass die Teilnehmer*innen für unterschiedliche Meinungen offen seien, sechs hingegen stimmten dieser Aussage überhaupt nicht oder eher nicht zu. 16 gaben an, ihre Meinung während des Prozesses ganz oder teilweise überdacht zu haben. Fast die Hälfte der Bürger*innen stimmte jedoch voll und ganz oder eher zu, ihre Meinung nicht geändert zu haben.
    3. Kritik wurde auch am Bundesinstitut für Risikobewertung als Organisator geübt – aufgrund seiner formellen Zugehörigkeit zum Bundesministerium für Ernährung und Landwirtschaft. Eine NGO etwa erhob den Vorwurf, das Ministerium wolle auf diese Weise ein eigenes Bürgervotum zur Genom-Editierung schaffen. 
    4. Einige Teilnehmer*innen kritisierten, dass Anfragen nach zusätzlichen Informationen in der Regel mit erheblichen Verzögerungen beantwortet wurden. Das liegt laut der Autorin an Prozessen der Überprüfung und Transparenz aller bereitgestellten Informationen.
  1. Output-Legitimität:
    1. In Bezug auf die Inklusivität des Outputs stimmten 11 von 15 Bürger*innen voll oder teilweise zu, dass die Verbraucherabstimmung die Meinungen aller Teilnehmer*innen widerspiegelte. Trotzdem äußerten viele Teilnehmer*innen ihre Unzufriedenheit mit dem Votum. Während sich einige einen klareren Konsens gewünscht hätten, empfanden andere das Votum als Zeichen einer pluralistischen Sicht auf ein komplexes Thema. Einige fanden, dass wichtig Aspekte fehlten oder falsch dargestellt wurden. Viele hätten sich mehr Zeit für die Diskussion und Bearbeitung des Schlussvotums gewünscht.
    2. Obwohl Konsensuskonferenzen als zeitaufwändig und teuer gelten, wurde diese Kritik nicht prominent geäußert. Es urteilten fast alle Teilnehmer*innen, dass sich das Unterfangen lohne und waren motiviert, bei zukünftigen Beteiligungsprozessen mitzuwirken. Alle gaben an, etwas über Genom-Editierung und Bürgerbeteiligung im Allgemeinen gelernt zu haben.
    3. Eine große Motivation zur Teilnahme war für die Bürger*innen die Möglichkeit, Einfluss auf Politikgestaltung zu nehmen. In Interviews berichteten Entscheidungsträger*innen zwar, was sie selbst gelernt hätten, erwähnten aber selten, dass sie dies direkt in die (politische) Agenda übersetzen wollen. 
    4. Kritik gab es auch daran, dass die abschließende Podiumsdiskussion das Votum der Bürger*innen zu wenig einbezogen habe. 

Schlussfolgerungen: Die Ergebnisse der Studie veranschaulichen sowohl die positiven Effekte als auch die Nachteile und Grenzen von Konsensuskonferenzen. Einerseits forderten einige Autor*innen, dass sich Teilnehmer*innen selbst für solche Veranstaltungen melden sollen6, um deren Legitimität zu erhöhen, schreibt Dendler. Andererseits zeige das untersuchte Beispiel, dass auf diese Weise tendenziell besser ausgebildete und interessierte Teile der Gesellschaft angesprochen werden. Die Teilnehmer*innen zeigten sich hochmotiviert. Allerdings war es trotzdem eine Herausforderung, alle Mitwirkenden an dem Diskurs zu beteiligen und einen Konsens zu finden.

Die Teilnehmer*innen zeigten sich hochmotiviert. Allerdings war es sich trotzdem eine Herausforderung, alle Mitwirkenden an dem Diskurs zu beteiligen und einen Konsens zu finden.
Der größte Nutzen wurde – wie auch frühere Studien zeigten789 – im persönlichen Erwerb von Wissens gesehen. Allerdings hätten sich die Teilnehmer*innen einen noch direkteren Austausch mit Expert*innen und Entscheidungsträger*innen gewünscht. Dadurch würde eine solche Konferenz aber auch teurer und aufwändiger werden, überlegt Dendler. 

Das ist nicht die einzige Herausforderung, vor der Organisator*innen stehen. Denn einerseits wird eine stärkere Einbindung von Entscheidungsträger*innen gefordert, andererseits wurde die enge Anbindung ans Ministerium kritisiert. Hier konkurriere Output-Legitimität unter anderem mit Verfahrensoffenheit und Unparteilichkeit, schreibt die Autorin. Auch der Wunsch nach schnell verfügbaren Informationen und das Prinzip, diese erst gründlich überprüfen zu wollen, erweisen sich als konträr zueinander. Mit hybriden Formaten könne man womöglich einigen der beschriebenen Herausforderungen begegnen und beispielsweise mehr Austausch zwischen Bürger*innen, Expert*innen und Entscheidungsträger*innen schaffen, schlägt Dendler vor. Auch ließe sich in Online-Formaten mehr Menschen einbeziehen und dadurch die Repräsentativität erhöhen. Gleichzeitig aber führe das aber auch zu neuen Herausforderungen. Dendler spricht in diesem Zusammenhang die Problematik unfreundlicher, konfrontativer Online-Debatten an, die zur Polarisierung stark umkämpfter Diskurse beitrage. 

Auf Grundlage der Studienergebnisse scheint es trotzdem vielversprechend zu sein, verschiedene experimentelle (Online-) Formate auszuprobieren. Andererseits werde dadurch die Herausforderungen der Input-Legitimität nicht automatisch gelöst – beispielsweise, weil nicht alle Menschen über dieselben technischen Voraussetzungen verfügen, merkt Dendler an. 

Einschränkungen: Die Autorin der Studie arbeitet selbst für das Bundesinstitut für Risikobewertung. Die befragten Mitwirkenden der Konsensuskonferenz könnten dadurch womöglich in ihren Antworten beeinflusst worden sein. 

Dendler, L. (2022) Participatory Science Communication Through Consensus Conferences: Legitimacy Evaluations of a German Consensus Conference on Genome Editing. Science Communication. https://journals.sagepub.com/doi/epub/10.1177/10755470221133130 

Mehr Aktuelles aus der Forschung

Falsche Gesundheitsinformationen sind im Internet weit verbreitet – nicht nur in Texten, sondern auch in Form von Fotomanipulation, irreführenden Bildern oder anderen digitalen Modifikationen. Kathryn Heley und Anna Gaysynsky vom National Cancer Institute in den USA stellen mit Andy J. King von der University of Utah in einem Essay eine Definition von visueller Falschinformation vor und bieten Beispiele für die Funktionen, die diese haben können. Außerdem skizzieren sie Ideen für weitere Forschungsvorhaben in diesem Bereich. Systematische Untersuchungen könnten dabei helfen, Falschinformationen im Gesundheitsbereich entgegenzuwirken und die Wissenschaftskommunikation zu verbessern, schreiben die Autor*innen.

Nicht nur in der Coronapandemie stellt sich die Frage, wie effektive Risikokommunikation aussehen kann. Joris Adriaan Frank van Loenhout, Isabelle Aujoulat und Stephan Van den Broucke von der Université catholique de Louvain haben mehr als 2000 Personen in Belgien befragt, welche Informationsquellen sie nutzten, um sich über Covid-19-Maßnahmen zu informieren. Es zeigt sich, dass die Kommunikation von Expert*innen zum Thema am klarsten und vertrauenswürdigsten angesehen wurde, während Politiker*innen in Bezug auf die Klarheit der Informationen am schlechtesten abschnitten. Die Autor*innen unterstreichen die Bedeutung einer klaren und vertrauenswürdigen Risikokommunikation, die dazu beitrage, dass Menschen Maßnahmen zum Schutz vor Covid-19 befolgen.

Wie verändert sich während der Coronapandemie das Vertrauen in politische Parteien und Expert*innen? Das haben Hiromi M. Yokoyama von der University of Tokyo und Yuko Ikkatai von der Kanazawa University am Beispiel Japans untersucht. Der Vergleich der Ergebnisse von 2020 und 2022 zeigt, dass Anhänger*innen der Regierungspartei ihre Unterstützung beibehielten. Anhänger*innen der Oppositionspartei aber wurden in der Zwischenzeit ebenfalls zu Unterstützer*innen der Regierungspartei. Das Vertrauen in Covid-19-Expert*innen war bei den Anhänger*innen der Regierungspartei größer als bei denjenigen, die die Opposition unterstützen. Was das Vertrauen in Forscher*innen im Allgemeinen angeht, unterschieden sich die beiden politischen Strömungen nicht. Die Autor*innen schlussfolgern, dass es für eine Regierungspartei in einer solchen Situation möglich ist, neue Anhänger*innen zu gewinnen. Für Expert*innen, die die Regierung beraten, sei es schwieriger, Vertrauen aufzubauen, als für andere Wissenschaftler*innen.

Innerhalb von etwas mehr als zehn Jahren habe sich Norwegen von einem Nachzügler in Sachen Niedrigenergiebauweise zu einem Vorreiter bei Passivhausstandards entwickelt, schreiben Thomas Berker und Liana Müller von der Norwegian University of Science and Technology. Die beiden Forscher*innen haben anhand der Berichterstattung in norwegischen Printmedien untersucht, wie es zu diesem Wandel kommen konnte. Dabei konzentrieren sie sich auf die Darstellungen von wissenschaftlichen Autoritäten in Konflikten um die Umsetzung nachhaltiger Politik. Die Forscher*innen schlussfolgern, dass die Autorität wissenschaftlicher Expert*innen trotz heftiger öffentlicher Kontroversen Bestand hat.

Wie werden Techniken zur Gesichtserkennung in der chinesischen Öffentlichkeit diskutiert? Tianru Guan und Xiaotong Chen von der Wuhan University haben mehr als 150.000 Posts des Mikroblogging-Dienstes Weibo untersucht. Die Ergebnisse zeigen unter anderem, dass in den Debatten Skepsis und Sorge gegenüber der kommerziellen Nutzung von Gesichtserkennungs-Software zunehmen, obwohl die Überwachung und Regulierung dieser Technologien durch den Staat weitgehend garantiert wird.

Humor kann ein Mittel sein, um Menschen zu erreichen. Ein Forschungsteam um Sara K. Yeo von der University of Utah hat in einem Experiment untersucht, ob die Identität einer Person Einfluss darauf hat, wie effektiv ihre Kommunikation wahrgenommen wird. Die Forscher*innen stellten unter anderem fest, dass es keinen signifikanten Unterschied macht, ob die Person schwarz oder weiß ist oder welchem Geschlecht sie angehört. Dieses Ergebnis deute darauf hin, dass das Publikum die Kommunikator*innen danach beurteilen, ob sie sie witzig finden und nicht auf Grundlage möglicher Vorurteile.