Foto: WrongTog

Forschung zu Prominenten in Desinformationskampagnen

Je mehr Follower*innen, desto mehr Einfluss: In der Verbreitung von Desinformationen spielen die Accounts von Prominenten eine große Rolle. Welche Mechanismen dahinterstecken, soll nun bei einem Projekt des Hans-Bredow-Instituts erforscht werden. Philipp Kessling spricht über Fragestellungen, Ziele und Herausforderungen des Forschungsvorhabens.

Sie untersuchen die Rolle von Prominenten in Desinformationskampagnen. Warum konzentrieren Sie sich auf diesen Personenkreis?

Philipp Kessling ist wissenschaftlicher Mitarbeiter des Media Research Methods Lab und des (Social) Media Observatories (SMO) am Leibniz-Institut für Medienforschung│Hans-Bredow-Institut (HBI) tätig. Er hat Kommunikationsdesign und Zeit-basierte Medien in Hamburg studiert und an der HAW Hamburg im Competence Center Communication gearbeitet. Sein Interesse gilt der Computational Social Science und der Netzwerkwissenschaft sowie der Medienproduktion, insbesondere der immersiven Medien. Aktuell forscht er im Projekt „Plattform-übergreifende Identifikation, Überwachung und Modellierung von Verbreitungsmustern von Desinformation“ (NOTORIOUS)“. Foto: Hans-Bredow-Institut
Philipp Kessling ist wissenschaftlicher Mitarbeiter des Media Research Methods Lab und des (Social) Media Observatories (SMO) am Leibniz-Institut für Medienforschung│Hans-Bredow-Institut (HBI) tätig. Er hat Kommunikationsdesign und Zeit-basierte Medien in Hamburg studiert und an der HAW Hamburg im Competence Center Communication gearbeitet. Sein Interesse gilt der Computational Social Science und der Netzwerkwissenschaft sowie der Medienproduktion, insbesondere der immersiven Medien. Aktuell forscht er im Projekt „Plattform-übergreifende Identifikation, Überwachung und Modellierung von Verbreitungsmustern von Desinformation“ (NOTORIOUS)“. Foto: Christiane Matzen, Leibniz-Institut für Medienforschung

Wir konzentrieren uns aus zwei Gründen auf Prominente: Zum einen haben wir seit Beginn der Coronapandemie und im Verlauf des Jahres 2020 gesehen, dass ein gewisser Personenkreis an Prominenten über alternative digitale Kanäle an Relevanz gewonnen hat. Wir haben einige Beispiele gefunden, in denen auf Demos Falschbehauptungen aufgestellt wurden – dass zum Beispiel eine Frau in Folge von Polizeigewalt auf dem Weg in Krankhaus gestorben sei. Das wurde über Messenger-Dienste wie Telegram verbreitet und hat dann eine solche Dynamik entwickelt, dass sich die Polizei zu einer Gegendarstellung veranlasst fühlte. Dazu wurde eine Agenturmeldung herausgegeben, die wiederum von verschiedenen Qualitätsmedien aufgegriffen wurde. Wir hatten also eine Kettenreaktion: ein Prominenter hat irgendetwas behauptet – und nachher stand in den großen Medien, dass es nicht so war – dieses Beispiel von vielen zeigt, welche Dynamik von Falschbehauptungen durch Prominente erreichen können.

Zum zweiten sind Personen der Öffentlichkeit leichter zu beforschen, weil man davon ausgehen kann, dass die Informationen, die eine solche Person postet, auch für die Öffentlichkeit bestimmt sind, wir also laxere ethische und datenschutzrechtliche Auflagen haben.

Was sind das für Prominente, die im Mittelpunkt Ihrer Forschung stehen?

Das sind beispielsweise Coronaleugner*innen, Masken- und Impfverweiger*innen. In diesem Bereich gibt es Leute, die vorher schon prominent waren und sich dann aus irgendwelchen Gründen radikalisiert haben und in den sogenannten digitalen Untergrund gegangen sind. Zum anderen sehen wir auch, dass es Leute gibt, die erst im Zuge ihres Engagements Bekanntheit erlangt haben. Es gibt einen ganzen Pool an Leuten, der für uns interessant ist. 

„Wir haben den Anspruch, dass wir nicht exklusiv Influencer*innen aus dem Corona-Leugner*innen-Bereich erfassen.“ Philipp Kessling
Wir haben den Anspruch, dass wir nicht exklusiv Influencer*innen aus dem Corona-Leugner*innen-Bereich erfassen. Intern diskutieren wir noch, wie man Ärzt*innen und Pfleger*innen, die sich für Präventionsmaßnahmen engagieren, als Kontrollgruppe einbeziehen könnte. Ich denke, wir werden im Laufe des Projekts noch einige andere Gruppen finden und in die Datensammlung integrieren, um ein umfassendes Bild der digitalen Plattform- und Medienlandschaft zu erstellen. 

Desinformation gibt es nicht nur zu Covid-19. Betrachten Sie auch andere Themenbereiche?

In den letzten zwei Jahren ist das Thema Covid-19 sehr in den Vordergrund gerückt, aber es gibt auch andere Bereiche, in denen Desinformationen lanciert werden und die für uns interessant sind, zum Beispiel der Klimawandel oder die Flüchtlingskrisen in Osteuropa. Insofern werden wir erstmal keinen thematischen Schwerpunkt setzen, sondern von den Akteur*innen, die dieses Informationsökosystem bilden, ausgehen und fragen: Worüber sprechen die eigentlich?

Das heißt, sie gehen von bestimmten Personen aus und untersuchen dann, wo sie Informationen verbreiten? 

Genau. Wir schauen zuerst: Welche Prominenten haben wir, auf welchen Plattformen sind sie vertreten? Von dort aus schauen wir, wie sich die Inhalte zwischen den einzelnen Plattformen verteilen. 

Was ist das Ziel des Forschungsvorhabens? 

Das Globalziel unseres Vorhabens ist die Entwicklung eines Modells, mit dem wir Zustände des Informationsökosystems voraussagen können, zum Beispiel wenn einzelne Desinformationen von bestimmten Akteur*innen lanciert werden. Wie sehr verbreiten sich diese Informationen im Netzwerk? Dafür haben wir einen Ansatz gewählt, dieses Informationsökosystem über Mehrebenennetzwerke zu modellieren. Das heißt, wir haben pro Plattform eine Ebene, auf der Akteur*innen miteinander interagieren. Über diese verschiedenen Ebenen können wir dann Interaktionen zwischen den Plattformen observieren und im Nachgang auch modellieren. Zusätzlich wollen wir uns die Inhalte anschauen und in die Modellierung einbeziehen. Wobei wir dabei natürlich die Schwierigkeit haben, dass die Inhalte multimedial sind. Es gibt nicht nur Texte, sondern auch Bilder, Sprachnachrichten und Videos, die wir dann in ein gemeinsames Datenformat überführen müssen.

Welche Art von Kanälen gucken Sie sich an?

„Prominente können wir als eine Unterkategorie der öffentlichen Sprecher*innen definieren.“ Philipp Kessling
Die von öffentlichen Sprechern und insbesondere Prominenten – dabei verstehen wir als öffentliche Sprecher*innen zum Beispiel Medienhäuser und Rundfunkanstalten oder Parteiorganisationen und Parlamentsabgeordente oder Journalist*innen. Prominente können wir als eine Unterkategorie der öffentlichen Sprecher*innen definieren, wobei hier auch wieder unterschieden werden kann zwischen Prominenten, die auch außerhalb der sozialen Medien eine Reichweite besitzen und solchen, deren Reichweite vor allem durch die sozialen Medien generiert wird und die man dann eher als Influencer*innen verstehen würde . 

Wir führen ihre Daten aus unterschiedlichen sozialen Netzwerken zusammen und beobachten Informationsflüsse. Das ist etwas, was man sehr vorsichtig machen muss, um die Privatsphäre einzelner zu schützen. Aber dadurch, dass diese Personen schon in der Öffentlichkeit stehen, haben wir da weniger ethische Bedenken.

Wie finden Sie die Prominenten, deren Aktivitäten Sie untersuchen wollen?

Das ist eine Frage, die uns derzeit sehr umtreibt. Zum einen haben wir am Bredow-Institut eine Datenbank öffentlicher Sprecher*innen. Darin sind politische Parteien, Stiftungen, aber auch Personen des öffentlichen Lebens wie die Kandidierenden der letzten Bundestagswahl und deren Social-Media-Accounts hinterlegt. Diese Datenbank wollen wir jetzt durch die entsprechenden Prominenten erweitern, die für unsere Erhebung interessant sind. Methodisch könnten wir so vorgehen, dass wir auf Telegram schauen, wie die öffentlich einsehbaren Kanäle sich gegenseitig zitieren und verlinken. Dazu haben wir und einige Journalist*innen schon einige Vorarbeiten geleistet, um diesen Teil des Informationsökosystems ein bisschen zu kartieren.

Wer steckt hinter dem Projekt? 

Ich arbeite am Leibniz-Institut für Medienforschung, dem Hans-Bredow-Institut in Hamburg. Wir sind mit dem Media Research Methods Lab in der Computational Communication Science beheimatet. Bei uns im Team sind Leute, die sich auf Netzwerkanalyse spezialisiert haben, genauso wie solche, die sich auf Machine Learning und Natural Language Processing spezialisiert haben. 

„Auch Telegram ist so ein Ort, wo am Anfang der Pandemie viele Leute aufgeschlagen sind, weil das Netzwerk Inhalte sehr wenig beschränkt.“ Philipp Kessling
Der zweite Projektpartner ist die Hochschule für Angewandte Wissenschaften Hamburg mit Christian Stöcker vom Studiengang Digitale Kommunikation. Das Team an der HAW ist mit Journalist*innen besetzt und hat Expertise im Bereich Fact-Checking und Medienkompetenz. Dort werden die einzelnen Posts aus den verschiedenen Netzwerken kodiert: Ist das Desinformation? Wie emotional ist der Content? Daraufhin werden dann einzelne Medieninhalte untersucht und bewertet. 

Dritter Partner ist das Institute for Strategic Dialogue gGmbH in Berlin. Das ist eine Organisation, die in den sozialen und digitalen Medien Extremist*innen beobachtet und Aufklärungsarbeit leistet. Dort soll in unserem Projekt ein Echtzeit-Monitoring betrieben werden. Auf diese Weise können wir dann auf vorhergesehene und unvorhergesehene Ereignisse reagieren. Ein vorhergesehenes Ereignis wäre zum Beispiel die Bundestagswahl, ein unvorhergesehenes ein Attentat wie in Halle, das zu einer extremen Resonanz in den sozialen Medien geführt hat. Bei derartigen Ereignissen muss man sehr schnell ins Monitoring einsteigen, um Desinformation sichtbar machen zu können.

Wer sich auf welchen Plattformen äußert, kann sich schnell ändern. Es gibt regelrechte Wanderungsbewegungen. Warum?

Das ist der Deplatforming-Effekt, bedingt durch den Ausschluss von Personen und Gruppen von Plattformen. Der Effekt kommt dadurch zustande, dass die großen Plattformen wie Facebook, Instagram und Twitter in den letzten zwei Jahren durch verschiedene Ereignisse wie 

„Wir haben auch Probleme mit den Plattformen selbst, die zum Teil gar nicht wollen, dass man zu tief hineinschaut.“ Philipp Kessling
Trumps Präsidentschaft, die Covid-19-Pandemie und auch durch öffentlichen Druck unter Zugzwang geraten sind, gegen Falschinformationen, Hassrede und respektlose Ansprachen vorzugehen. Das führte dazu, dass tatsächlich Leute von Plattformen entfernt wurden, die mitunter eine ausgeprägte Reichweite haben. Diese Prominenten sind dann ausgewichen, zum Beispiel auf die amerikanische Plattform Gab, eine Art alternatives Twitter. Die alternativen Plattformen greifen weit weniger moderierend ein. Auch Telegram ist so ein Ort, wo am Anfang der Pandemie viele Leute aufgeschlagen sind, weil das Netzwerk Inhalte sehr wenig beschränkt. In den Nutzungsbedingungen steht, dass man nichts zu Terror und Kinderpornografie sagen darf. Alles andere ist erlaubt. Also wird Telegram zu einem Ort, wo sich Leute ziemlich ungestört ausbreiten. 

Was verstehen Sie unter Desinformation – und wie erkennen Sie diese?

Die gängige Definition von Desinformation lautet: Falschinformation mit einer Intention, diese bewusst in Umlauf zu bringen – sei es beispielsweise aus Profitgier oder um jemanden zu schädigen. Das ist etwas, was man schwer aus den Daten herauslesen kann. Deshalb werden wir verstärkt auf Hintergrundrecherchen zu den einzelnen Akteur*innen setzen, die dann bei unserem Projektpartner, der HAW, laufen. Darüber hoffen wir mehr über den Intentionsaspekt zu erfahren. Erstmal werden wir wahrscheinlich von reinen Falschinformationen ausgehen und die Intention als zusätzliche Variable haben.

Sie stehen mit dem Projekt noch am Anfang. Wie geht es weiter?

Es ist zeitlich auf drei Jahre angelegt. Nach einer etwa sechsmonatigen Planungsphase werden wir in einem Pretest gehen, um dann über 18 Monate eine Langzeitbeobachtung anzuschließen. Was wir dann an technischer Infrastruktur aufsetzen müssen, betrifft die Beobachtung vieler Plattformen und ziemlich vieler Akteur*innen.

Es ist auch eine technische Herausforderung. Wir hoffen, im März mit der ersten Beobachtung starten zu können. Im Pretest wird dann überprüft, ob das System, das wir erstellt haben, stabil funktioniert. Denn wir haben auch Probleme mit den Plattformen selbst, die zum Teil gar nicht wollen, dass man zu tief hineinschaut. Es gab Forscher*innen, die von einer Plattform einfach ausgesperrt wurden. Wir hoffen, dass uns das nicht passiert. Es ist ein Hindernis, dass immer noch nicht sichergestellt ist, dass Forscher*innen bei allen Plattformen an Daten kommen. Die technischen Zugänge, die sogenannten API oder Programmierschnittstellen, werden mitunter munter an- und abgeschaltet oder können sich ändern. 

Wie funktioniert es praktisch, als Forscher*in an Daten zu kommen? 

Man braucht für diese technischen Zugänge immer einen Account auf der Plattform und auch einen Entwicklerzugang, um zu den Programmierschnittstellen zu gelangen. Um ein konkretes Beispiel zu nennen: Bei Twitter wurde mittlerweile eine gute Infrastruktur für Forscher*innen eingerichtet. Da kann man mit einem persönlichen Account, der einen als Forscher*in identifiziert, hingehen und mit einer Projektskizze anfragen. Dann bekommt man einen Zugriff, der etwas höher privilegiert ist als der eines*r kommerziellen Nutzer*in. Wir haben auf Twitter auch Zugriff auf das Archiv, also auf alle nicht gelöschten Tweets. Bei Telegram ist es insofern ähnlich, dass man über seine Telefonnummer einen Zugang zu einer API erstellen kann, um dann in Kanälen und Gruppen mitlesen zu können. Wobei wir uns dort nur auf den öffentlichen Teil fokussieren. Das hat den ethischen Hintergrund, dass wir nicht rechtfertigen können, in private Gruppen anderer Leute hineinzugehen und dort mitzulesen.