Foto: ThisisEngineering RAEng

„Wir müssen die Prozesse regulieren“

Falschnachrichten, Hetze und bewusste Meinungsmache sind kein neues Phänomen, erreichen im digitalen Raum aber ein neues Ausmaß. Im Interview erklärt die Professorin für Informationsrecht Natali Helberger, wie die Europäische Union plant, gegen Desinformation und Manipulation auf Social-Media-Plattformen vorzugehen.

Schon früh in der Pandemie warnte die Weltgesundheitsorganisation (WHO) vor einer Infodemie, einer Flut an Covid-19-Informationen, die auch zu Falsch- und Desinformation beitragen kann. Welche regulatorischen Instrumente können eingesetzt werden, um Desinformation in den sozialen Medien entgegenzuwirken?

Natali Helberger ist Professorin für Law & Digital Technology mit Schwerpunkt auf Künstlicher Intelligenz an der Universität Amsterdam. Sie forscht zu Europäischem Recht sowie zu Diversität und Medienpluralismus. Helberger berät die Europäische Kommission und ist Mitglied des Europaratkomitees „Human Rights Dimensions of Automated Data Processing and Different Forms of Artificial Intelligence (MSI-AUT)“.

Aktuell arbeitet die Europäische Kommission an dem „Gesetz über digitale Dienste“, dem Digital Services Act oder kurz DSA. Es schreibt strengere und verpflichtende Regeln für große digitale Plattformen vor, vor allem sehr große Social-Media-Plattformen. Viele der Probleme wie Desinformation oder Hassrede und digitale Gewalt gegen Wissenschaftler*innen oder Journalist*innen finden auf nur wenigen solcher Plattformen statt. Der DSA will sie in Zukunft dazu verpflichten, ein regelmäßiges Monitoring für – wie die Europäische Kommission es nennt – „systemische Risiken“ durchzuführen. Damit ist weniger die Regulierung einzelner Inhalte, sondern die Bewertung gemeint, inwieweit ihre Netzwerke und deren Algorithmen zu Desinformation, Hassrede oder Manipulation beitragen. Die Plattformen wären verpflichtet, diese Risiken durch entsprechende Maßnahmen zu mindern. Das könnten eine Anpassung ihrer Content-Moderation oder eine Veränderung ihrer Algorithmen sein. Im Falle von Verstößen könnte die Kommission empfindliche Geldstrafen verhängen.

Könnten Sie näher erklären, was man unter „systemischen Risiken“ versteht?
Als Juristin bin ich dazu geneigt, den Gesetzestext zu zitieren (lacht). Unter „systemischen Risiken“ versteht man die Gefahr, dass die Plattformen Schäden für die Gesellschaft oder die Demokratie als Ganzes verursachen. Darunter fallen die Verbreitung von illegalem Content, alle Akte, die fundamentale Rechte verletzen – Hassrede, Zensur – und auch die Manipulation des demokratischen Prozesses. Beispiele dafür wären politische Desinformation, der Fall „Cambridge Analytica“ oder die Einmischung in Wahlen durch Dritte.

Welcher gesetzliche Rahmen gilt im Moment für digitale Plattformen?
Der DSA baut auf die E-Commerce-Richtlinie der Europäischen Union auf. Sie bildet bis jetzt den gesetzlichen Rahmen, wie auf EU-Ebene digitale Plattformen reguliert werden. Sie besagt, dass soziale Netzwerke nicht verantwortlich sind für den Content, den Nutzer*innen hochladen – es sei denn, die Plattform weiß, dass es sich um unrechtmäßigen Content handelt.

„Unter „systemischen Risiken“ versteht man die Gefahr, dass die Plattformen Schäden für die Gesellschaft oder die Demokratie als Ganzes verursachen.“ Natali Helberger
Das Problem an der aktuellen Gesetzeslage ist, dass die Plattformen relativ viel Spielraum haben, weshalb die Regelung häufig als „Safe Harbor“ bezeichnet wird. Die sozialen Medien haben unglaublich viel Freiheit im Vergleich zu traditionellen Medien, die alles vor Veröffentlichung auf Richtigkeit überprüfen müssen. Diese Diskrepanz hat auch dazu geführt, dass die Plattformen enorm groß werden konnten.

Desinformation ist zum Teil auch das Resultat ökonomischer Interessen der Plattformbetreiber*innen, möglichst viel Content weit zu verbreiten. Da die Plattformen zum Problem beitragen, sollten sie auch in der Verantwortung sein, es zu lösen. Deshalb kam die Europäische Kommission nach Jahren der Diskussion zum Schluss, die E-Commerce-Richtlinie zu modernisieren, um den Plattformen mehr Verantwortlichkeiten zu übertragen.

Definiert der DSA Desinformation und welche Inhalte darunterfallen?
Nein, Desinformation ist nicht im DSA definiert. Desinformation ist stark kontextabhängig, das macht eine Definition schwierig. Ich bin Teil eines Expert*innengremiums des Europarates zu Künstlicher Intelligenz und dem Recht auf freie Meinungsäußerung. Eine Schlussfolgerung unserer Arbeit ist es, dass die Gesetzgebung nicht definieren sollte, was Desinformation ist. Das würde Tür und Tor öffnen für Zensur. Stattdessen muss sie die Prozesse regulieren, mit denen wir Desinformation erkennen, unschädlich machen und sie muss festlegen, wer das übernehmen sollte.

Dabei müssen alle Maßnahmen, die wir gegen Desinformation ergreifen, verhältnismäßig sein und die Grundrechte berücksichtigen. Dazu zählen die Meinungsfreiheit, Datenschutz und Freiheit vor Diskriminierung. Leider sehen wir in den sozialen Medien, dass Inhalte bestimmter Gruppen öfter gelöscht werden als von anderen. Das lässt vermuten, dass auch Diskriminierung bei der Content-Moderation stattfindet.

Welche Gruppen sind beispielsweise von dieser Art von Diskriminierung betroffen?

„Alle Maßnahmen, die wir gegen Desinformation ergreifen, müssen verhältnismäßig sein und die Grundrechte berücksichtigen.“ Natali Helberger
Wir haben Hinweise, dass Inhalte von Social-Media-Creator*innen, die der LGBTQIA+-Community oder bestimmten kulturellen Gruppen angehören, schneller gelöscht werden. TikTok war eine Zeit in Aufruhr, weil Videos von Menschen mit Behinderung von der Plattform entfernt wurden. Es gibt bekanntere Fälle, in denen Aktfotos gelöscht wurden, die eigentlich ikonografische Fotografien und Ausdruck von Pressefreiheit waren. Das sind einzelne Beispiele, die zeigen, wie wichtig ein systemisches Monitoring der Content-Moderation ist. Diese Fälle würden sonst in der schieren Masse der Moderationsentscheidungen untergehen.

Sie sprechen die Content-Moderation an: Wie läuft diese ab?
Im Moment ist der Stand der Wissenschaft, dass man die Content-Moderation noch nicht komplett automatisieren kann, ohne eine menschliche Kontrolle einzubauen. Vielleicht kennen Sie die Dokumentation „The Cleaners“? Sie zeigt, unter welchen haarsträubenden Arbeitsbedingungen die Content-Moderator*innen arbeiten. Das Expert*innengremium, dem ich angehöre, hat 2021 eine Richtlinie zu Content-Moderation herausgegeben. Darin weisen wir auch darauf hin, dass sich diese Bedingungen verbessern müssen.

Facebook hat ein sogenanntes Oversight-Board ins Leben gerufen, Twitter experimentiert mit Birdwatch mit einem Community-Ansatz, um gegen Desinformation und Hassrede vorzugehen. Welche Arten der Selbstregulierung von Plattformen gibt es aktuell und inwieweit greifen diese?
Hierbei müssen wir verschiedene Level von der Selbstregulierung unterscheiden. Jede Social-Media-Plattform hat Community-Guidelines und Nutzer*innenbedingungen, die jede*r vorab unterschreiben muss, der*die das soziale Netzwerk nutzen möchte. Darin wird plattformintern definiert, welches Verhalten akzeptabel ist und welches nicht. Daneben gibt es eine Initiative der EU zur Selbstregulierung, der sich die meisten großen Plattformen wie Google, Facebook und Twitter angeschlossen haben. Mit dem „Verhaltenskodex für den Bereich der Desinformation“ verpflichten sie sich selbst, gegen Desinformation vorzugehen.

Das Oversight-Board von Facebook muss unabhängige Entscheidungen treffen, ob die Art, wie Facebook Content moderiert hat, zulässig ist und in Einklang mit fundamentalen Rechten steht. Das ist quasi eine Art „Plattform-Gerichtshof“ oder Schiedsstelle.

„Neben der Selbstverpflichtung der Plattformen geht es auch darum, dass Menschen lernen sollen, Desinformation zu erkennen.“ Natali Helberger
Wie unabhängig sind diese Entscheidungen, wenn das Oversight-Board von Facebook selbst berufen wurde?
Darüber lässt sich streiten. Es ist auf Initiative von Facebook gegründet worden und wird aus einer unabhängigen Stiftung bezahlt. Die Idee ist durchaus, dass es eine unabhängige Kontrolle ist.

Wie wirkmächtig sind die Entscheidungen des Oversight-Board?
Facebook hat sich zumindest verpflichtet, sie umzusetzen.

Der Verhaltenskodex zu Desinformation ist Teil eines europäischen Aktionsplans für Demokratie. Welche Maßnahmen werden darin empfohlen, um gegen Desinformation vorzugehen?
Neben der Selbstverpflichtung der Plattformen geht es auch darum, dass Menschen lernen sollen, Desinformation zu erkennen. Es geht dabei um „Media Literacy“. Oft denken wir dabei an Kinder, aber wir vergessen, dass häufig auch Erwachsene Opfer von Desinformation werden – sogar öfter als junge Menschen.

Daneben soll auch der Journalismus gestärkt werden. Desinformation ist kein neues Phänomen. Traditionell hat der Journalismus eine wichtige Rolle, vertrauenswürdige Information zu produzieren und zu verbreiten. Mittlerweile erstreckt sich diese Funktion mehr und mehr auch auf die journalistischen Angebote in oder rund um die sozialen Medien wie beispielsweise Fact-Checking.
Welche Risiken bergen regulatorische Maßnahmen für den Diskurs in den sozialen Medien?
Das ist eine gute Frage. Problematisch ist es, dass viele EU-Mitgliedstaaten im Laufe der Covid-19-Pandemie selbst Desinformationsgesetze geschrieben haben. Manche der darin verwendeten Definitionen gehen sehr weit und sind sehr vage gefasst. Sie können auch vollkommen legitime Formen der Kommunikation betreffen und die Gefahr von Zensur bergen. Das ist vor allem in Ländern ein Problem, die ein weniger demokratisch gefestigtes System haben.

Wie beeinflusst die Plattformregulierung die Wissenschaftskommunikation?
Ein Punkt im DSA, der auch für die Wissenschaftskommunikation wichtig ist, ist der Artikel 31. Zum ersten Mal erhalten Wissenschaftler*innen ein Recht auf Zugang zu den Daten – beispielsweise zur Art von politischer Reklame oder den Effekten von Content-Moderation auf die Nutzer*innen –, sodass sie beispielsweise die systemischen Risiken untersuchen können.

Dadurch müssen wir für die Risikobewertung nicht ausschließlich auf die Plattformen vertrauen, sondern erhalten einen unabhängigen wissenschaftlichen Check. Das klingt allerdings in der Theorie schöner, als es in der Praxis ist. Die Zugangsbestimmungen sind noch sehr beschränkt und schließen Journalist*innen und Wissenschaftsjournalist*innen nicht ein. Immerhin hat die Europäische Kommission eine neue Richtlinie zu politischer Werbung beziehungsweise „Political Microtargeting“ veröffentlicht, durch die auch Journalist*innen Dateneinsicht erhalten sollen und über Missstände berichten können.

Auf der anderen Seite muss man auch Bedingungen schaffen, unter denen die Wissenschaftler*innen überhaupt in der Lage sind, diese Daten zu untersuchen. Viele der Forschungsprojekte sind nur für kurze Zeit gefördert. Das ersetzt aber kein systemisches und unabhängiges Monitoring. Deshalb müssen Plattform-unabhängige und strukturellere Kontrollmechanismen geschaffen werden.

In Deutschland ist das Internet eine der am häufigsten genutzten Informationsquellen. Was bedeutet das für Wissenschaftskommunikation und -journalismus?
Was wir in der Forschung sehen, ist, dass viele Menschen ihr Verständnis für die Prozesse in der Wissenschaft aus den Medien bekommen. Insofern haben die Medien eine wichtige Aufklärungs- und Monitoring-Funktion. Sie sind ein Korrektiv. Sie können über Forschung zu Desinformation und Content-Moderation berichten, aber auch Fälle von Diskriminierung aufzuzeigen und Alarm schlagen. Die Wissenschaft braucht hier die Medien, damit ihre Erkenntnisse in öffentliche Debatten einfließen können.

Was sind zukünftige Herausforderungen im Umgang mit Desinformation?
Desinformation sieht in Zukunft vielleicht ganz anders aus als heute. Das Problem von visueller Desinformation, also manipuliertem Bild- oder Videomaterial wie Deepfakes, wird sicherlich zunehmen. Wir werden auch mehr und mehr mit Audio-Deepfakes zu tun bekommen. Jede*r von uns hat digitale Assistenten in der Hosentasche. Wie sorgen wir dafür, dass die Informationen, die wir durch sie erhalten, vertrauenswürdig sind? Insofern müssen wir uns fragen, ob die Maßnahmen, die wir jetzt ergreifen, auch in Zukunft noch effektiv sein werden.