Foto: Sharon McCutcheon

„Uns geht es um die kritische Reflexion von Informationen“

Desinformation zu Covid-19 mithilfe von künstlicher Intelligenz erkennen? Beim Projekt VERITAS arbeiten Forscher*innen von Fraunhofer FOKUS an einer Online-Plattform, die Menschen bei der Überprüfung von Informationen unterstützt. Einblicke in den Entwicklungsprozess gibt Projektleiterin Tatiana Ermakova. 

Was verbirgt sich hinter VERITAS?

VERITAS ist eine Plattform mit mehreren Funktionalitäten. Nutzer*innen sollen beliebige Links oder Informationen in ein Textfeld kopieren können. Das System soll diese dann zum einen auf Hinweise prüfen, ob es sich um Desinformation handeln könnte. Zum anderen sollen verwandte Informationen von verschiedenen Plattformen, zum Beispiel Nachrichtenportalen, aus wissenschaftlichen Studien oder sozialen Medien, gesammelt und strukturiert dargestellt werden. 

Tatiana Ermakova ist Forschungsgruppenleiterin am Fraunhofer FOKUS und am Weizenbaum-Institut für die vernetzte Gesellschaft. Die Wirtschaftsinformatikerin hat an der Technischen Universität Berlin zum Thema „Security and Acceptance of Cloud Computing in Healthcare“ promoviert. In ihrer bisherigen Forschung entwickelte sie sichere und datenschutzkonforme Architekturen, implementierte und verbesserte mathematische Algorithmen der Kryptographie, analysierte die Lesbarkeit von Datenschutzrichtlinien und die Robustheit von Internetkonnektivität und untersuchte sicherheits- und datenschutzbezogenes Verhalten von Internetnutzer*innen. Foto: Mohammed AbuJarour

Dabei geht es uns hauptsächlich um die kritische Reflexion von Informationen. Wir wollen die Nutzer*innen der Plattform dazu anregen, sich auf vielfältige Weise zu informieren. Letztlich müssen diese selbst entscheiden, inwieweit es sich bei der überprüften Information um wahre oder unwahre Nachrichteninhalte oder Aussagen handelt.

Was war die Idee bei der Gründung des Projekts? 

Während der Vorbereitung des Antrags wurden viele falsche Informationen über Corona verbreitet. Unseres Wissens nach suchen viele Menschen im Internet nach medizinischen Informationen, noch bevor sie zum Arzt gehen. Wenn sie jedoch etwas Falsches lesen, kann das ernste Folgen für ihre Gesundheit haben. Deshalb wollen wir mit diesem Projekt einen Beitrag zu ihrer Sicherheit leisten. 

Wir haben in unserem Antrag aber auch andere Zielgruppen definiert, für die dieses Projekt relevant sein könnten – zum Beispiel Journalist*innen oder Wissenschaftler*innen, die Informationen zu einem bestimmten Thema suchen. Das wollen wir in Zukunft angehen.

Geht es bei VERITAS nur um Covid-19?

Das Projekt wurde mit einem medizinischen Schwerpunkt definiert, daher wollen wir uns zunächst auf Corona konzentrieren. Im Gesundheitsbereich haben wir den Vorteil, dass wir Fach- und Expertenportale und Datenbanken mit wissenschaftlichen Veröffentlichungen haben, die glaubwürdige Informationen liefern. Daher kann ein Projekt wie VERITAS in diesem Kontext gut funktionieren. 

Wir sehen auch viel Potenzial für den Einsatz in anderen Kontexten und sind daran interessiert, herauszufinden, inwieweit wir es thematisch erweitern können.

VERITAS

Zum Jahresbeginn hat das Forschungsprojekt VERITAS (VERIfication through Trusted ASsociation), gefördert vom Bundesministerium für Bildung und Forschung (BMBF) und unter der Leitung von Fraunhofer FOKUS, seine Arbeit aufgenommen. Im Projekt „VERITAS − Mit Künstlicher Intelligenz Desinformationen zu Gesundheitsthemen erkennen und bekämpfen“ wollen die beteiligten Forscher*innen eine digitale Plattform aufbauen, die Informationen von öffentlich-rechtlichen Nachrichtenportalen, sozialen Medien sowie Fach- und Expertenwissen strukturiert aufbereitet und Faktenprüfende gezielt bei der Erkennung von Falschmeldungen unterstützt. Projektpartner sind die Trustami GmbH und Ubermetrics Technologies GmbH. Das Projekt läuft bis Ende 2024.

Zurück zur Plattform: Wenn ich Posts zu Gesundheitsthemen auf Facebook entdecke, kann ich diese Informationen in ein Feld kopieren? Was wird mir dann angezeigt? 

Wenn Sie die Informationen dort hineinkopieren, werden diese automatisch auf der Grundlage dessen geprüft, was über diesen Link oder Text bekannt ist und ermittelt werden kann. Das System prüft hierbei insbesondere, ob es Hinweise auf Desinformation gibt: Wie ist der Text verfasst? Ist er sehr emotional geschrieben? Wer ist der*die Autor*in? Sie erhalten dann eine Zusammenfassung dieser Prüfung. 

Das System sucht auch nach anderen Quellen zu dem Thema und stellt sie in einer benutzerfreundlichen Weise dar, um aufzuzeigen, dass es andere Meinungen und Darstellungen zu diesem Thema gibt. Wie das genau aussehen soll und was für Nutzer*innen am besten funktioniert, versuchen wir derzeit zu ermitteln.

Die Überprüfung wird mittels künstlicher Intelligenz durchgeführt. Wie funktioniert das?

Wir wollen die Überprüfung des Suchinputs unter verschiedenen Gesichtspunkten ermöglichen, insbesondere im Hinblick auf das enthaltene falsche Wissen, den Schreibstil, Emotionalität, Subjektivität, die Verbreitungsmuster einschließlich Resonanz und Reaktion, die Glaubwürdigkeit der Quelle und der*s Autor*in. Einige dieser Prozesse werden in einer späteren Phase mit NLP, Natural Language Processing, und KI nachgebildet.

Das heißt, es werden äußere Merkmale des Texts bestimmt. Kann die künstliche Intelligenz auch überprüfen, ob die Inhalte stimmen?

Es gibt einige Forschungsstudien in der englischsprachigen Welt, in denen die Textklassifizierung Fake News/Non-Fake News auf der Grundlage von externen Textmerkmalen gut funktioniert hat. Wir haben jedoch keine Informationen darüber, ob und inwieweit diese vielversprechenden Modelle genau und in der täglichen Praxis anwendbar sind. Aufgrund unserer Erfahrungen gehen wir davon aus, dass weitere Evaluierungen mit qualitativ hochwertigen Daten und im deutschsprachigen Raum noch erfolgen sollten.

„Wir sind auch dabei zu testen, ob wir eine Wissensdatenbank aufbauen können, mit der wir dann abgleichen können, was richtig oder falsch ist.“ Tatiana Ermakova
Wir sind auch dabei zu testen, ob wir eine Wissensdatenbank aufbauen können, mit der wir dann abgleichen können, was richtig oder falsch ist. Dazu muss man sich ansehen: Was ist eigentlich über dieses Thema bekannt? Die Bewertung würde sich dann auf einzelne Aussagen beziehen, nicht auf den gesamten Text. Dieser kann aus einer bunten Mischung von richtigen und falschen Informationen bestehen. Wir hoffen, in den nächsten Monaten über die Einzelheiten informieren zu können. 

Wer steckt hinter dem Projekt?

Fraunhofer FOKUS hat die Hauptverantwortung für die verschiedenen Konzeptionen, die Evaluation und die Koordination zwischen den Partnern. Wir haben verschiedene Komponenten in dem Projekt, die wir entwickeln wollen. Es gibt einen Crawler, also einen Webscanner, der verschiedene Quellen durchsucht und alle Informationen zusammenführt. Dafür ist hauptsächlich Ubermetrics verantwortlich, aber auch die anderen Partner sind daran beteiligt. 

Die Entwicklung eines Fake-Detektors, der die Anhaltspunkte für Desinformation herausfiltert, ist hauptsächlich Aufgabe von Trustami, wobei die anderen Partner auch eine unterstützende Rolle spielen. 

„Wenn wir sagen: Alle Fake News sind emotional geschrieben, werden diejenigen, die Fake News produzieren, ihren Stil ändern.“ Tatiana Ermakova
Wir bei Fraunhofer FOKUS wollen den Feed-Generator für die Präsentation der Ergebnisse des Web-Scanners und des Fake-Detektors für die Nutzer*innen entwickeln. Dieser soll für Nutzer*innen – je nachdem, wie sie mit den bereitgestellten Informationen umgehen möchten, konfigurierbar sein.

Vor welchen Herausforderungen stehen Sie bei dem Projekt?

Unsere Pläne sind sehr ambitioniert. Wir brauchen sowohl technologisches Wissen als auch Wissen darüber, wie Nutzer*innen solche Plattformen nutzen. Das Projekt schlägt eine Brücke zwischen den Disziplinen wie Informatik, Data Science, Linguistik, Medizin, Psychologie, Soziologie und Kommunikationswissenschaften.

Wichtig ist auch, die Grenzen der Erkennung von angeblich desinformativen Nachrichtenteilen zu berücksichtigen, zum Beispiel, wenn wir Emotionalität als Feature werten, das auf Desinformation hinweist, faktisch aber auch richtige Nachrichten in einem emotionalen Ton verfasst sein können. Wenn wir sagen: Alle Fake News sind emotional geschrieben, werden diejenigen, die Fake News produzieren, ihren Stil ändern. Das müssen wir bedenken.

Im Januar 2022 haben Sie begonnen. Wo stehen Sie gerade?

Wir befinden uns noch überwiegend in der konzeptionellen Phase. Wir evaluieren theoretische und methodische Grundlagen im Forschungsbereich, insbesondere Definitionen, Merkmale/Charakteristika, algorithmische Verfahren und Technologien zur Textklassifikation oder Dokumentenkategorisierung. Wir kümmern uns um den Aufbau von Datensätzen für die Entwicklung neuer linguistischer Analyseverfahren für den deutschsprachigen Raum. Außerdem führen wir Interviews mit potenziellen Nutzer*innen durch.

Gesundheit ist ein sensibler Bereich. Gibt es nicht die Gefahr, dass die KI auch mal falsch liegt?

Ja, aber eben deswegen überlassen wir die endgültige Entscheidung den Nutzer*innen. Sie erhalten mit unserem System lediglich Hinweise, Indikatoren, dass es sich bei der Meldung um Fake News handeln könnte. Alles andere wäre zu dem jetzigen Zeitpunkt nicht angemessen.