Foto: Michael Dziedzic

Filter-Blackbox soziale Medien

Wie beeinflussen Algorithmen unseren Informationskonsum im Netz? Die exakten Abläufe hinter dem Aufbau von Social-Media-Feeds und Co bleiben der Wissenschaft zumeist verschlossen. Cornelia Sindermann will sich dem Thema deshalb in einer Studie mit einem neuen methodischen Ansatz nähern und vor allem auch die Rolle des Menschen in dieser Interaktion untersuchen.

Frau Sindermann, Sie führen gerade eine große Onlineumfrage unter dem Titel „Gesellschaftliche und politische Einstellungen im Wahljahr 2021“ durch, für die Sie auch noch Teilnehmende suchen. Worum geht es dabei genau?

In der Studie schauen wir uns an, ob und inwieweit der Medienkonsum Meinungen von Menschen beeinflussen könnte. Dabei liegt ein Augenmerk auf dem potenziellen Einfluss von Inhaltsvorschlägen. Diese Vorschläge bekommt man im Internet in sozialen Medien, aber auch auf sogenannten News Aggregators oder Portalen wie Netflix und Spotify. Im Prinzip findet auf diesen Plattformen eine individuelle Vorfilterung von Informationen für jede*n Nutzer*in statt. Die Filterung wird dabei durch Algorithmen gesteuert. Diese Algorithmen werden gespeist mit Informationen über das Nutzungsverhalten aller Nutzer*innen im Netz. Das sind Daten dazu, auf welchen Webseiten man unterwegs ist, mit wem man befreundet ist oder Kontakt hat, welche Bilder man anschaut, was man einkauft und so fort. Da wird alles Mögliche über uns gesammelt. Aus diesen Daten entstehen dann wiederum individuelle Profile über alle Nutzer*innen. Aus diesen Profilen können Algorithmen lernen, was jedem*r Nutzer*in potenziell gefällt. Und genau das wird uns dann gezeigt: Das können Filme auf Netflix, Lieder auf Spotify, aber eben auch bestimmte Nachrichten und Informationen sein, beispielsweise auf sozialen Medien oder bei News Aggregators. Eine solche Filterung kann man durchaus kritisch sehen, wenn es zum Beispiel um politische Nachrichten geht.

Was ist problematisch an diesen Vorschlägen, wenn es um Informationen geht?

Cornelia Sindermann forscht an der Universität Ulm zu Themen der politischen Psychologie. Einen Fokus legt die promovierte Psychologin dabei auf die Untersuchung von Einflüssen der Digitalisierung auf die Informiertheit von Bürger*innen und deren Entscheidungen, u.a. auch in Bezug auf politisches Verhalten. Foto: Elvira Eberhardt / Universität Ulm

Das Problem ist, dass man durch diese Algorithmen in eine immer einseitigere Informationsumwelt geraten kann und dass das Ansichten, zum Beispiel in Bezug auf Politik, beeinflussen kann. Menschen werden durch Algorithmen im schlimmsten Fall gezwungen, sich im Netz, etwa in sozialen Medien, sehr einseitig zu informieren. Das kann problematisch sein: Studien1 zeigen, dass sich Meinungen extremisieren können, wenn man mit anderen Menschen zusammen ist, die die gleichen Ansichten haben oder man sich insgesamt in einer Umgebung befinden, in der man nur Informationen bekommt, die den eigenen Ansichten entsprechen. Das wird zum einen dadurch erklärt, dass der Mensch dazu tendiert, mit populären Ansichten der Gruppe übereinzustimmen, um selbst die Zustimmung von anderen Gruppenmitgliedern zu erhalten. Darüber hinaus stellt sich manch eine*r gerne in den Vordergrund, indem er*sie noch extremere Meinungen vertritt. Das hat dann wieder Einfluss auf die Meinungen in der Gruppe und es kommt zu einer Verstärkung dieses Effekts. Zuletzt ist die Bandbreite der Argumente in einer homogenen Gruppe natürlich von vornherein eingeschränkt. Durch die fehlende Auseinandersetzung mit anderen Positionen kommt es weiterhin zu einer geringeren Toleranz bezüglich anderer Ansichten.

Was bedeutet dieses von Algorithmen gesteuerte Informationsumfeld für die persönliche Entscheidungsfindung?

Dazu gibt es nur begrenzt Studien, die das umfassend beschreiben. Bleiben wir also beim Beispiel sozialer Medien. Diese werden – übertrieben gesagt – oft als größtes Übel dargestellt, wenn es um diese algorithmische Filterung geht. Das liegt zum Beispiel daran, dass soziale Medien gerade von jüngeren Menschen viel und manchmal sogar ausschließlich genutzt werden, um sich über Nachrichten zu informieren. Damit stellen sie ein wichtiges Medium für die Informiertheit vieler Bürger*innen dar. Zudem darf man eins auf keinen Fall vergessen: Menschen sind wahnsinnig gut darin, selbstständig Informationen zu filtern. Das beginnt schon damit, welche Zeitungen oder Radiosender man auswählt.

„So ergibt sich aus meinen eigenen Handlungen und der Filterung durch Algorithmen eine Spirale.“ Cornelia Sindermann
Bei sozialen Medien interagieren die eigenen und die algorithmisierten Filtermechanismen dann miteinander. Das heißt: Ich folge bestimmten Personen, habe bestimmte Freunde, markiere bestimmte Beiträge als „gefällt mir“. Dadurch filtere ich bereits Inhalte. Diese eigene Filterung oder eigenen Präferenzen fließen dann in mein Profil und werden wiederum vom Algorithmus genutzt – in Anführungszeichen – um noch weitere und spezifischere Inhalte für mich herauszusuchen. Die markiere ich dann wieder als „gefällt mir“ etc. So ergibt sich aus meinen eigenen Handlungen und der Filterung durch Algorithmen eine Spirale. Soziale Medien werden dadurch potenziell zu extrem homogenen Informationsumfeldern. Das große Problem ist hier aber nicht nur, dass dem wohl so ist, sondern vor allem, dass man extrem wenig über die genauen Mechanismen der Filterung weiß und somit auch nicht allzu viel dagegen tun kann.

Die sozialen Medien sind also eine Filter-Blackbox?

Genau. Seit etwa 2016 gibt zum Beispiel Facebook quasi keine Daten mehr an Wissenschaftler*innen heraus und auch viele andere Plattformen arbeiten kaum mit uns zusammen. Außerdem gibt keine Plattform Informationen zu ihren Algorithmen selbst heraus, weil das ganz klar Geschäftsgeheimnisse sind. Das führt vor allem dazu, dass wir aus wissenschaftlicher Sicht kaum Aussagen darüber treffen können, welche Auswirkungen die Filterung auf bestimmten Plattformen für die Informationsbeschaffung der Nutzer*innen wirklich hat und wie dies wiederum mit der Meinungsbildung zusammenhängt.

„Dennoch kann man davon ausgehen, dass zum Beispiel politische Informationen zumindest zu einem gewissen Grad für die Nutzer*innen vorgefiltert werden und das kann eben Auswirkungen haben.“ Cornelia Sindermann
Es gibt allerdings ein paar Studie2 von vor vier, fünf Jahren, die zwei Dinge zeigen: Auf Ebene der Plattformen hängt der Nachrichtenkonsum, etwa über soziale Medien, mit der verstärkten ideologischen Segregation des Publikums zusammen. Allerdings zeigen die Studien auch, dass die Nutzer*innen auf sozialen Medien durchaus auch Inhalte präsentiert bekommen, die nicht ihren Ansichten entsprechen. Dennoch kann man davon ausgehen, dass zum Beispiel politische Informationen zumindest zu einem gewissen Grad für die Nutzer*innen vorgefiltert werden und das kann eben Auswirkungen haben. Zum Beispiel kann es zu einer Extremisierung politischer Ansichten führen.

Was bedeutet das aus Sicht von Kommunikator*innen für deren Strategien in sozialen Medien?

Spannend fand ich die Debatte um den Start der Tagesschau auf Tiktok. Da wurde unter anderem kritisiert, dass das doch kein Kanal für diese Redaktion sei. Diese hat wiederum argumentiert, dass die Plattform sehr beliebt ist, dort aber klassische Nachrichtenjournale noch kaum präsent sind. Ich halte das durchaus für einen sinnvollen Ansatz: Wenn sich Redaktionen oder auch gesellschaftliche Institutionen aus den sozialen Medien zurückziehen, wird die Informationssituation dort nicht besser, sondern erhalten im Gegenteil Kanäle und Personen mit ganz anderen Agenden noch mehr Aufmerksamkeit.

Was weiß man denn über das Informationsverhalten der Nutzer*innen in sozialen Medien?

„Das deutet schon darauf hin, dass das Algorithmusproblem nicht für alle gleich groß ist.“ Cornelia Sindermann
Vor eineinhalb Jahren haben wir eine Studie durchgeführt und darin herausgefunden, dass nur rund vier Prozent der Teilnehmer*innen Nachrichten ausschließlich über soziale Medien konsumieren – hauptsächlich jüngere Leute. Die meisten nutzen allerdings sowohl Online- als auch Offlinemedien. Das deutet schon darauf hin, dass das Algorithmusproblem nicht für alle gleich groß ist.

Was bedeuten diese Mechanismen für die persönliche Entscheidungsfindung?

„Egal in welchem Kontext, ob es um Impfungen oder Wahlentscheidungen geht, kann algorithmisierte Filterung auf bestimmte Personen großen Einfluss haben.“ Cornelia Sindermann
Egal in welchem Kontext, ob es um Impfungen oder Wahlentscheidungen geht, kann algorithmisierte Filterung auf bestimmte Personen großen Einfluss haben. Das betrifft zum Beispiel die Personen, die sich ausschließlich über soziale Medien informieren, da man dort eben vorrangig gefilterte Informationen und somit nicht alle Informationen präsentiert bekommt. Auch Personen, die sich bereits in extrem gefestigten Meinungsgruppen bewegen, könnten eher betroffen sein. Wenn in so einem Kreis etwa die Wirksamkeit eines Impfstoffes in Frage gestellt wird, kann das einen großen Einfluss auf die persönliche Entscheidungsfindung haben durch die bereits diskutierten Prozesse von Meinungsbildung in Gruppen.

Das betrifft aber auch Menschen, die dem Thema Impfen grundsätzlich eher positiv gegenüberstehen. Diese Gruppe erhält auf die gleiche Weise durch Filterungsprozesse eher positive Informationen über die Corona-Impfung und/oder kann durch andere Personen und deren Meinungen beeinflusst werden. Darum ist es grundsätzlich empfehlenswert, sich eben nicht nur über soziale Medien zu informieren, sondern sich insgesamt möglichst breit über wichtige Themen zu informieren.

Wo setzen Sie mit Ihrer Studie genau an, um diese Effekte weiter zu untersuchen?

„Wir fragen uns, ob man die Filterblase auf einem Kanal tatsächlich durch Informationskonsum auf anderen Plattformen und Kanälen ausgleichen kann.“ Cornelia Sindermann
In diesem Interaktionsprozess zwischen Mensch und Algorithmus interessiert uns vor allem der Faktor Mensch. Niemand ist dazu gezwungen, beispielsweise seine Nachrichten über soziale Medien zu beziehen. Wir konzentrieren uns zudem vor allem auf politische Nachrichten und Informationen, weil dieses Feld gerade im Wahljahr 2021 extrem interessant ist. Wir fragen uns, ob man die Filterblase auf einem Kanal tatsächlich durch Informationskonsum auf anderen Plattformen und Kanälen ausgleichen kann. Das wird zwar vielfach angenommen, aber dazu scheint es bisher noch keine Studie zu geben, die das wissenschaftlich be- oder widerlegt. Dementsprechend ist bis heute nicht geklärt, wie groß die negativen Effekte von Algorithmen auf bestimmten Plattformen tatsächlich sind. Genau hier setzen wir an, um in Zukunft empirisch fundiert argumentieren zu können und nicht immer nur sagen zu müssen: „Wir befürchten …“

Das Modell der Filterblase ist nicht unumstritten. Wie definieren Sie den Begriff für Ihre Forschung?

„Zum anderen sind sich viele Nutzer*innen durchaus bewusst, dass es Filtermechanismen gibt, weshalb die Filterblase auch nicht komplett unsichtbar ist.“ Cornelia Sindermann
Geht man bei dem Begriff von der Filterung durch Algorithmen aus3, dann stecken einen diese auf den ersten Blick tatsächlich in eine unsichtbare und einsame Blase. Unsichtbar, weil man nicht viel über die Algorithmen weiß. Einsam, weil die eigenen Feeds tatsächlich für einen ganz persönlich zusammengestellt sind. Dadurch unterscheiden sich die Informationswelten der einzelnen Besucher*innen. Wo ich nicht zustimme, ist, dass das Ganze absolut ist. Zum einen zeigen eben Studien, dass man auch auf Plattformen, die algorithmisierte Filterung nutzen, durchaus Informationen mit anderen Ansichten angezeigt bekommt. Zum anderen sind sich viele Nutzer*innen durchaus bewusst, dass es Filtermechanismen gibt, weshalb die Filterblase auch nicht komplett unsichtbar ist. Aber wie bereits erwähnt bleiben zumindest die genauen Abläufe unklar.

Wie gehen Sie methodisch vor?

Wir führen eine recht umfangreiche Onlineumfrage durch, in der die Teilnehmenden Informationen zu ihrer Persönlichkeit und ihren demographischen Variablen sowie zu ihren politischen Ansichten preisgeben sollen. Gleichzeitig fragen wir auch nach ihrem Vertrauen in verschiedene Medien, ihrem Nachrichtenkonsum und wie häufig sie sich auf verschiedenen Plattformen mit unterschiedlichen Ansichten auseinandersetzen oder konfrontiert sehen. Wer will kann uns außerdem noch den eigenen Twitter-Account nennen, damit wir auch objektiv Daten, zumindest zum Nachrichtenkonsum über Twitter, erfassen können.

Was sind Ihre nächsten Schritte?

Die Onlinebefragung läuft noch mindestens den Februar über und da hoffen wir natürlich auf möglichst viele Teilnehmer*innen, um eine robuste Datenlage zu erhalten. Wer möchte kann auch die E-Mail-Adresse hinterlassen und wir schicken bis nach der Bundestagswahl monatlich einen weiteren Link zu einer kurzen Umfrage, um die Entwicklung der Entscheidungsfindung bezüglich der Wahl zu erfassen. So haben wir am Ende hoffentlich einen Längsschnitt, mit dem wir wirklich Aussagen über Kausalitäten treffen können – also etwa: Hatte die Meinung eher einen Einfluss auf den Medienkonsum oder hat hingegen der Medienkonsum die Meinung beeinflusst? Wie ist hier die Wechselwirkung? Das möchten wir herausfinden.