Ein Jahr nach dem Hype um DALL-E und ChatGPT steht der Journalismus immer noch vor der Frage, wie eine gute Berichterstattung aussehen sollte. Der Journalist Marcus Anhäuser stellt im Gastbeitrag Kriterien als Recherchehilfe für den Redaktionsalltag vor.
Wir müssen darüber reden, wie wir über Künstliche Intelligenz berichten.
Es ist rund ein Jahr her, dass die Firma OpenAI erst ihren Bildgenerator DALL-E im September 2022 und dann ihren Textgenerator ChatGPT der breiten Öffentlichkeit verfügbar machte. Es brach ein Sturm der Begeisterung (und Warnungen) los angesichts der Möglichkeiten und der Qualität der Endprodukte. Es folgte ein Hype um Künstliche Intelligenz (KI) und Maschinelles Lernen wie man ihn wohl nur alle paar Jahrzehnte erlebt.
Im Journalismus begann man auszutesten, welche Möglichkeiten die neuen Applikationen bieten. Ein Magazin mit Kochrezepten erschien, vollständig mit der Unterstützung von KI erstellt, und es gab auch die erste Entlassung einer Chefredakteurin, weil ihr Magazin ein Interview mit Michael Schumacher durch ChatGPT halluzinieren ließ.
Zunehmend machen sich Redaktionen Gedanken darüber, wie sie die neue Technologie für den Journalismus nutzen können. Inzwischen vergeht kaum ein Tag, an dem nicht irgendjemand in Seminaren, Workshops oder auch Newslettern die neuesten Tricks, Kniffe und Prompts – also die beschreibenden Befehle für die Ausführung der KI – für den journalistischen Arbeitstag vorstellt. Erste Redaktionssysteme haben die KI gleich mit eingebaut, um Redakteur*innen die lästige Suchmaschinen-Optimierung abzunehmen oder drei Varianten desselben Teasers für einen Artikel zu erstellen. Einige Medien präsentieren KI-Anwendungen in ihren Publikationen wie etwa bei der ZEIT, wo man Antworten auf Fragen bekommt, die sich auf das Archiv der Zeitung stützen.
Wie aber sollen wir darüber berichten?
Wenn die Auswirkungen so tiefgreifend in die Gesellschaft reichen, dass viele von einer Revolution sprechen, dann muss sich der Journalismus schleunigst rüsten, um die vorhergesagte Flut an Anwendungen und Einsatzbereichen mit kritischen Berichten zu begleiten.
Bei all der Begeisterung für die Technologie und dem Diskutieren über Chancen und Risiken für Gesellschaft und Journalismus kommt ein Aspekt bisher ein wenig zu kurz, der aber den Kern der journalistischen Arbeit betrifft. Wie sollten Journalist*innen (und auch Kommunikator*innen) über Anwendungen, die auf Künstlicher Intelligenz und Maschinellem Lernen basieren, berichten? Was braucht es, um Rezipient*innen angemessen und mit einem kritischen Blick über die neuesten Entwicklungen zu informieren? Welche Fragen müssen sie stellen, um sich reflektiert mit KI auseinanderzusetzen?
Tatsächlich gibt es bisher nur vereinzelte Beiträge, die Journalist*innen eine Hilfestellung geben, auch wenn es KI-Berichterstattung nicht erst seit dem November 2022 gibt. Die Technologie entsteht seit den fünfziger Jahren und erlebte einen letzten großen technologischen Aufschwung ab 2012 mit dem Aufkommen der Kombination von „künstlichen neuronalen Netzen“ und „Deep Learning“, die letztlich auch die Grundlage für die Text- und Bildgeneratoren wie ChatGPT und Midjourney sind.
„Rechenschaft für Rechenverfahren”
Es hat immer schon kritische Berichterstattung über KI und Maschinelles Lernen gegeben, vor allem im Technikjournalismus. 2014 prägte der Techjournalist und Journalismus-Forscher Nicholas Diakopoulos den Begriff „Algorithmic Accountability Reporting“, den der deutsche Datenjournalist Lorentz Matzat als „Rechenschaft für Rechenverfahren“ übersetzt. Damit verbunden sind meist aufwändige, investigative Recherchen, die sich ganz in die Tiefe des Codes und der Algorithmen begeben, um Fehlentwicklungen und Missstände beim Einsatz solcher Anwendungen in der Gesellschaft aufzudecken.
Basierend auf diesem Ansatz gibt es einige wenige Ratgeber für diese besondere Form des kritischen Journalismus. Das „AI + Automation Lab“ des Bayerischen Rundfunks hat etwa ein anschauliches Whitepaper zu dieser „Black Box-Berichterstattung“ veröffentlicht.
Die UNESCO präsentierte kürzlich ein Handbuch für Lehrkräfte zum Thema „Reporting on Artificial Intelligence“, weil sie eine klare Notwendigkeit sieht: „60 Prozent der Technews ist dominiert von Industrieprodukten. Die Hauptgruppe an Quellen sind Personen, die mit der Wirtschaft verbunden sind (30%).“
Doch diese Form des tiefschürfenden KI-Journalismus gibt es viel zu selten, beklagt der Algorithmus- und Datenjournalist Nicolaus Kaiser-Bril in seinem empfehlenswerten Newsletter Algorithm-Watch. Er stellte als Beispiel eine Recherche von Wired und Lighthouse Reports vor, über ein Bewertungssystem für Sozialhilfeempfänger, dass diese diskriminierte: „Das System ging zum Beispiel per se von einem großen Betrugsrisiko aus, wenn eine Frau Kinder hat und nicht fließend Niederländisch spricht.“ Die Autor*innen stiegen für ihre Recherche sogar in den Quell-Code der Applikation ein.
Wir brauchen eine Lösung für das Tagesgeschäft
Doch für das Tagesgeschäft des schnellen Nachrichtenjournalismus oder die Drei-Tage-Story im Lokaljournalismus sind diese Formen der Berichterstattung nicht zu stemmen. Der Aufwand ist immens, Journalist*innen müssen sich ausführlich mit der Technologie befassen und spezialisieren.
Hinzu kommt: Ähnlich wie beim Bericht über wissenschaftliche Studien finden sich KI-Anwendungen in unterschiedlichsten Bereichen des Lebens und der Gesellschaft und damit auch in vielen verschiedenen Ressorts wieder: Medizin, Wirtschaft, Soziales, Politik, Sport und mehr. Wer in diesen Bereichen über KI-Anwendungen berichten will, hat kaum die Möglichkeit, sich die Kenntnisse eines spezialisierten Techjournalisten anzueignen.
Trotzdem sollte es – genau wie für Artikel über wissenschaftliche Studien – ein grundlegendes Handwerkszeug geben, das es auch weniger spezialisierten Berichterstatter*innen ermöglicht, die richtigen Fragen zu stellen. Sonst droht, was schon bei wissenschaftlich-medizinischen Studien immer wieder geschieht: Der Hinweis „basiert auf einer KI“ wird zur bloßen Phrase für schlechten Journalismus. So passiert es schon mit „wie eine neue Studie belegt“ tagtäglich in den Medien. Ein hohler Hinweis, dass das Berichtete auf soliden Füßen stehe, ohne jede Einordnung zur Aussagekraft der Studie oder ihrer Einbettung in die restliche Studienlandschaft.
Kriterien als Recherchehilfe
Für den täglichen Nachrichtenjournalismus und die Regionalberichterstattung haben wir vom Medien-Doktor-Team am Lehrstuhl für Wissenschaftsjournalismus der TU Dortmund in den letzten 13 Jahren Kriteriensets für verschiedene Themenfelder entwickelt, mit denen man die Qualität eines Beitrags über Gesundheits-, Umwelt- oder Ernährungsthemen beurteilen kann. Die Sammlung an veröffentlichten Gutachten beinhaltet hunderte Beispiele für guten und schlechten Journalismus.
Die Kriteriensets haben wir bereits als Hilfestellung für das oft hektische Tagesgeschäft empfohlen, weil sie auch nicht-spezialisierten Journalist*innen helfen, die wichtigen Punkte einer Medizin-Geschichte abzuklopfen oder die richtigen Fragen bei Umweltthemen zu stellen.
Auch für die KI-Berichterstattung heißt das: Ausgehend von allgemeinjournalistischen Kernkriterien wird es spezifische Kriterien geben, die eine Geschichte auf KI-typische Fragen überprüfen. Zu diesen gehören Parameter wie Fairness, Garantien, Robustheit oder Unsicherheit. Es sind Faktoren, die eine Künstliche Intelligenz erklärbar machen sollen, soweit dies zumindest möglich ist. Journalist*innen könnten dann etwa nachfragen, ob die zugrundeliegenden Daten für eine Software zur Auswahl von neuen Mitarbeiter*innen fair sind, weil sie Faktoren wie Alter, Geschlecht oder Hautfarbe nicht berücksichtigen. Ebenso könnte man die Robustheit einer Applikation hinterfragen, die nur auf Testläufen unter idealisierten Laborbedingungen beruht nicht aber auf Daten aus der echten Welt. Neben diesen Aspekten, die Entscheidungen und Ergebnisse nachvollziehbar machen, zählen aber auch Parameter wie der Schutz der persönlichen Daten dazu, wenn es etwa um medizinische Anwendungen geht. Die Aufgabe von Journalist*innen wird es sein, solche Faktoren zu kennen oder zumindest zu wissen, dass es sie gibt. Nur dann können sie Anwendungen aus der Industrie überprüfen oder Entwickler*innen danach fragen, ob diese Faktoren berücksichtigt werden. Etwa, um Verzerrung in den Ergebnissen zu vermeiden oder private Daten hinreichend zu schützen. Nur so wird KI nachvollziehbar.
Auch für die Wissenschaftskommunikation wichtig
Und das Ganze soll nicht auf den Journalismus beschränkt sein. Jede Pressemitteilung einer Forschungseinrichtung oder Firma über KI-Anwendungen kann von einem solchen Kriterien- und Fragenset profitieren. Im Medien-Doktor-Projekt PR-Watch hat sich gezeigt wie gut das im Bereich Medizin und Umwelt funktioniert. Fast alle Kriterien, die für journalistische Beiträge entwickelt wurden, lassen sich auch auf Pressemitteilungen anwenden. Die Medien-Doktor-Kriterien waren daher auch eine Basis für die Checkliste der „Leitlinien für gute Wissenschaft-PR“ des Siggener Kreises, der 2019 auch ein Impulspaper und eine Checkliste zur KI in der Wissenschaftskommunikation veröffentlicht hat.
Sich auch auf die Wissenschafts-PR zu konzentrieren ist wichtig, weil aus der Forschung bekannt ist, dass informativere Pressemitteilungen zu besseren journalistischen Artikeln führen. Zugleich bekommen alle anderen Leser*innen dieser Pressemitteilungen die Informationen über Künstliche Intelligenz und Maschinelles Lernen, die sie benötigen.
Damit sollte es auch im Tagesgeschäft von Journalismus und Wissenschafts-PR gelingen, die Black Box der Künstlichen Intelligenz zumindest ein wenig zu erhellen.
Zum Weiterlesen
- Columbia Journalism Review: How to report better on artificial intelligence
- Siggener Kreis: Künstliche Intelligenz als Herausforderung für die Wissenschaftskommunikation
- UNESCO: Reporting on artificial intelligence: a handbook for journalism educators
- Whitepaper des AI+Automation Lab des Bayerischen Rundfunks
Die redaktionelle Verantwortung für diesen Beitrag lag bei Anna Henschel. Gastbeiträge spiegeln nicht zwangsläufig die Meinung unserer Redaktion wider.