Bild: Freepik

Fünf Hebel gegen die Desinformationskrise

Desinformation wird oft als Problem falscher Inhalte verstanden. Doch häufig funktioniert sie anders: durch Überforderung mit ‚Bullshit‘, Normerosion und die Korrumpierung von Vertrauen. In ihrem Gastbeitrag zeigt Romy Jaster, wie man diesem Problem begegnen kann.

Wenn von Desinformation die Rede ist, denkt man unweigerlich an falsche Behauptungen und gezielte Täuschungen – etwa an öffentliche Behauptungen, bestimmte Mittel wie die „Miracle Mineral Solution“ könnten COVID-19 heilen oder verhindern. Dies legt die Diagnose nahe, das zentrale Problem im Zusammenhang mit Desinformation bestehe darin, dass Menschen in wichtigen Fragen falsche Überzeugungen ausbilden. Die Gegenstrategie scheint klar: falsche Inhalte identifizieren, richtigstellen und korrigieren.

Bei näherem Hinsehen erweist sich diese Perspektive jedoch als verzerrt. Viele der epistemisch problematischsten Phänomene unserer Gegenwart entziehen sich genau dieser Diagnose. Sie verschlechtern unsere epistemische Situation nicht primär durch falsche Inhalte, sondern auf subtilere, zugleich aber strukturell wirksamere Weise. 

Desinformation lässt sich daher nicht sinnvoll auf Falschheit oder Täuschungsabsicht verengen. Passender ist es, sie als öffentlich verbreitete Inhalte zu verstehen, die die epistemische Situation von Rezipient*innen verschlechtern – unabhängig davon, ob sie wahr oder falsch sind und unabhängig von den Absichten ihrer Verfasserinnen und Verfasser.

Erst aus dieser erweiterten Perspektive wird sichtbar, warum klassische Strategien der Aufklärung und der Wissenschaftskommunikation zunehmend an ihre Grenzen stoßen und wo sie neu ansetzen müssen.

Drei Phänomene verdeutlichen diesen Punkt: epistemisches Flooding, Bullshit – insbesondere demonstrativer  Bullshit – und die Korrumpierung von Vertrauensstrukturen. Sie machen deutlich, dass es sich bei der Desinformationskrise in erster Linie um eine Krise unserer epistemischen Infrastruktur handelt.

Flood the zone

Ein erstes Phänomen, das sich mit dem erweiterten Desinformationsbegriff besser erfassen lässt, lässt sich unter Steve Bannons Losung „Flood the zone with shit“1 subsumieren. Die Formel bezeichnet weniger ein einzelnes Desinformationsphänomen als eine strategische Maxime. Ihr Kern besteht darin, die epistemische Umgebung systematisch zu überlasten, sodass Orientierung, Einordnung und begründete Urteilsbildung erschwert oder unmöglich werden. 

Diese Überlastung kann auf unterschiedliche Weise erzeugt werden. Beim epistemischen Flooding im engeren Sinne werden schlichtweg mehr Inhalte verbreitet, als Rezipierende realistischerweise sichten, prüfen oder bewerten können.2 Beim Fogging geht es weniger um quantitative Überlastung als um qualitative Vernebelung.3 Durch die gezielte Produktion konkurrierender Darstellungen, alternativer Narrative oder scheinbar gleichwertiger Erklärungen wird Desorientierung erzeugt.

Gemeinsam ist diesen Mechanismen, dass sie nicht notwendig auf Falschheit beruhen. Ihre Wirksamkeit entfalten sie vielmehr dadurch, dass sie Überforderung und Desorientierung erzeugen. „Flood the zone“ ist in diesem Sinne keine Strategie der Täuschung, sondern eine Strategie der epistemischen Erschöpfung.

Bullshit und demonstrative Gleichgültigkeit

Bullshit bezeichnet Aussagen, deren Sprecher*in der Wahrheit gegenüber gleichgültig ist.4 Anders als bei einer klassischen Lüge steht nicht die Täuschung im Vordergrund; der Bullshitter*in ist es schlichtweg egal, ob das Gesagte der Wahrheit entspricht. Im Zusammenhang mit Desinformation spielt Bullshit zum Beispiel bei der Verschaltung von Inhalten mit Werbung eine Rolle: Wer in erster Linie auf Clicks aus ist, muss sich um die Wahrheit der verbreiteten Inhalte nicht kümmern – und es kann ihm auch egal sein, ob sein Publikum durch die Inhalte getäuscht wird.  

Bullshit in seiner klassischen Form ist selbstverschleiernd: Die Bullshitter*in bemüht sich, ihre Gleichgültigkeit gegenüber der Wahrheit zu verbergen. Mehr und mehr sehen wir aber ein Phänomen, das als demonstrativer Bullshit bezeichnet werden kann.5 Hier wird die Gleichgültigkeit gegenüber Wahrheit nicht verborgen, sondern offen zur Schau gestellt. Wenn Donald Trump in seiner Debatte mit Kamala Harris behauptet, die Immigrant*innen in Springfield äßen die Haustiere der dort lebenden Menschen6, so dürfte weiten Teilen des Publikums – mindestens aber Harris – klar sein, dass Trump sich bei dieser Aussage nicht darum schert, ob das Gesagte der Wahrheit entspricht. Bullshitting wird hier offensiv praktiziert, etwa um zu provozieren, Aufmerksamkeit zu erregen oder Macht zu demonstrieren. 

Der epistemische Schaden demonstrativen Bullshits liegt weniger im einzelnen Gehalt der jeweiligen Aussage als in ihrer normativen Wirkung. Öffentliche Kommunikation ist durch Aufrichtigkeitsnormen strukturiert7: Wer etwas behauptet, signalisiert üblicherweise, dass er oder sie es glaubt, dafür Gründe hat und grundsätzlich bereit ist, sich im Lichte besserer Argumente korrigieren zu lassen. Demonstrativer Bullshit greift genau diese Struktur an. Wenn Akteur*innen sichtbar gegen Aufrichtigkeitsnormen verstoßen und dieses Verhalten unsanktioniert bleibt, setzt das eine schleichende Normerosion in Gang: Die Norm verliert sukzessive ihre bindende Kraft.8

Auch im Falle demonstrativen Bullshittings wird ersichtlich: Das Hauptproblem an diesem Phänomen ist nicht die Ausbildung einzelner falscher Überzeugungen, sondern die Erosion der epistemisch-normativen Bedingungen unserer kommunikativen Praxis.

Korrumpierte Vertrauensdistribution

Ein drittes Phänomen, das im Kontext der Desinformationskrise besondere Aufmerksamkeit verdient, betrifft die systematische Korrumpierung epistemischen Vertrauens.

Der überwiegende Teil unseres Wissens beruht auf dem Zeugnis anderer.9 In komplexen, arbeitsteiligen Wissensgesellschaften ist es weder möglich noch rational, alles selbst zu überprüfen. Stattdessen sind wir darauf angewiesen, Einschätzungen darüber vorzunehmen, wer eine verlässliche Quelle ist. 

Vertrauen fungiert dabei als Scharnier10: Psychologisch bestimmt Vertrauen, wessen Aussagen wir ernst nehmen und in unsere Überzeugungsbildung einbeziehen. Zugleich hat Vertrauen eine epistemisch-normative Funktion: Wenn wir einer Quelle vertrauen, ist es rational, unseren Glaubensgrad in das Behauptete zu erhöhen; wenn wir ihr nicht vertrauen, ist es rational, dies nicht zu tun. 

Desinformation entfaltet hier strukturelle Effekte. Sie wirkt nicht nur, indem sie einzelne falsche Überzeugungen erzeugt, sondern indem sie die Verteilung von Vertrauen systematisch korrumpiert. Verlässliche wissenschaftliche, journalistische oder institutionelle Quellen werden diskreditiert, während unzuverlässige Akteure an Sichtbarkeit und Glaubwürdigkeit gewinnen.

Eine zentrale Methode, um diese Vertrauenskorruption aktiv voranzutreiben, ist strategische Skepsis.11 Sie richtet sich gegen die epistemische Autorität ganzer Wissenspraktiken und Institutionen. Durch die systematische Betonung angeblicher Unsicherheiten, vermeintlicher Interessenkonflikte oder alternativer Sichtweisen wird der Eindruck erzeugt, wissenschaftliche Erkenntnisse seien grundsätzlich fragil, politisch motiviert oder epistemisch nicht privilegiert. In einem Umfeld, in dem Aufrichtigkeitsnormen bereits erodiert sind, genügt oft schon der wiederholte Verweis auf Zweifel als solche, um Vertrauen zu unterminieren. Es entsteht eine Abwärtsspirale, in der selbst zutreffende, gut belegte Informationen ihre korrigierende Kraft verlieren. Korrekturen prallen nicht ab, weil sie falsch wären, sondern weil sie aus Quellen stammen, denen das epistemische Vertrauen entzogen wurde. 

In diesem Sinne zeigt sich die Desinformationskrise als Vertrauenskrise.

Romy Jaster im Interview des ARTE.tv Dokumentarfilms „Can We Save Truth?“

Konsequenzen für die Wissenschaftskommunikation

Wenn Desinformation primär als eine strukturelle Verschlechterung epistemischer Bedingungen verstanden wird, greift eine Wissenschaftskommunikation zu kurz, die sich auf das Korrigieren falscher Inhalte beschränkt. In einer durch Überlastung, Normerosion und Vertrauenskorruption geprägten Informationsumgebung wird Wissenschaftskommunikation selbst zu einer Form epistemischer Infrastrukturarbeit. Daraus ergeben sich fünf zentrale Stoßrichtungen:

1. Kognitive Entlastung statt Informationsflut

Mehr Information führt nicht automatisch zu mehr Wissen. In überlasteten Informationsumgebungen besteht eine zentrale Aufgabe der Wissenschaftskommunikation darin, Orientierung zu ermöglichen: durch Auswahl, Einordnung und Gewichtung relevanter Informationen anstelle ihrer bloßen Vermehrung.

2. Methodentransparenz vor Ergebnis-Inszenierung

Vertrauen entsteht weniger durch spektakuläre Resultate als durch nachvollziehbare Verfahren. Wissenschaftskommunikation sollte daher nicht nur vermitteln, was wir wissen, sondern wie dieses Wissen zustande kommt. Einblick in Methoden, Unsicherheiten und Prüfverfahren stärkt epistemisches Vertrauen nachhaltiger als fertige Antworten.

3. Antizipative Aufklärung

Strategischer Zweifel und epistemische Angriffe wirken besonders dann, wenn sie unerwartet auftreten. Wissenschaftskommunikation sollte daher typische Muster der Skepsis, Verzerrung oder Instrumentalisierung prophylaktisch adressieren.

4. Performative Aufrichtigkeit

Der Wissenschaft kommt bei der Stabilisierung von Aufrichtigkeitsnormen eine zentrale Rolle zu. Wissenschaftliche Kommunikation stabilisiert diese Normen, indem sie selbst transparent, revisionsbereit und begründungsorientiert agiert.

5. Vertrauenspflege als Daueraufgabe

Wissenschaftskommunikation muss Vertrauen langfristig aufbauen, pflegen und erhalten; nicht punktuell, nicht kampagnenförmig, sondern als kontinuierliche Infrastrukturarbeit.

Die Desinformationskrise zeigt sich in der Erosion der Bedingungen, unter denen Überzeugungen gebildet, geprüft und korrigiert werden können. Wissenschaftskommunikation hat hier eine Schlüsselrolle: nicht nur als Vermittlerin von Wissen, sondern als Akteurin bei der Stabilisierung jener epistemischen Infrastrukturen, auf die eine aufgeklärte Öffentlichkeit angewiesen ist.

Gastbeiträge spiegeln nicht zwangsläufig die Meinung unserer Redaktion wider. Die redaktionelle Verantwortung für diesen Beitrag lag bei Anna Henschel.

  1.  CNN (2021). https://edition.cnn.com/2021/11/16/media/steve-bannon-reliable-sources ↩︎
  2. Anderau, G. (2023). Fake news and epistemic flooding. Synthese, 202(4), 106. ↩︎
  3. Innes, M. (2021). Fogging” and “Flooding”: Countering Extremis t Mis/Disinformation After Terror Attacks. Global Network on Extremism an d Technology. ↩︎
  4. Frankfurt, H. (2005). On Bullshit. Princeton University Press. ↩︎
  5. Jaster, R. & Lanius, D. (2026). Deeper into Populist and Authoritarian Bald-Faced Bullshit. Topoi. ↩︎
  6.  abc NEWS (2024). https://abcnews.go.com/Politics/harris-trump-presidential-debate-transcript/story?id=113560542 ↩︎
  7. Pagin, P. & Neri, M. (2025) „Assertion“, The Stanford Encyclopedia of Philosophy. https://plato.stanford.edu/archives/fall2025/entries/assertion/ ↩︎
  8. Jaster, R. & Lanius, D. (ebd.). ↩︎
  9. Leonard, N. (2023). Epistemological Problems of Testimony. The Stanford Encyclopedia of Philosophy. https://plato.stanford.edu/entries/testimony-episprob/ ↩︎
  10. McLeod, Carolyn (2023). Trust. The Stanford Encyclopedia of Philosophy. https://plato.stanford.edu/archives/fall2023/entries/trust/ ↩︎
  11. Oreskes, N., & Conway, E. M. (2011). Merchants of doubt: How a handful of scientists obscured the truth on issues from tobacco smoke to global warming. Bloomsbury Publishing USA. ↩︎