Bild: Freepik

KI in der Wisskomm: „Eher kritisch“

Künstliche Intelligenz kann viel, aber nicht alles. Besonders wenn es um Wissenschaftskommunikation geht. Warum es gerade jetzt Menschen braucht, die komplexe Zusammenhänge vermitteln, erklärt Clara Helming von AlgorithmWatch.


Wie bewertet AlgorithmWatch den verstärkten Einsatz von KI-Tools in der Wissenschaftskommunikation?

Eher kritisch. Man kann sich nicht darauf verlassen, dass Chatbots korrekte Antworten liefern, auch wenn sie plausibel klingen. Gerade in der Wissenschaftskommunikation, wo Details entscheidend sind, ist das problematisch.

Grundsätzlich muss man sehr vorsichtig sein, weil Large Language Models (LLMs) keinen Begriff von richtig oder falsch haben. Sie basieren auf statistischen Verfahren und erzeugen Texte, die glaubwürdig wirken, aber nicht zwangsläufig wahr sind. Das muss man immer im Hinterkopf behalten. Ich plädiere nicht grundsätzlich dagegen, LLMs zu nutzen, entscheidend ist aber, wofür genau man solche Tools einsetzt.

Clara Helming ist Senior Advocacy & Policy Managerin bei AlgorithmWatch und beschäftigt sich mit Plattformregulierung und KI in der öffentlichen Meinungsbildung. Früher arbeitete sie für die Antikorruptionsorganisation abgeordnetenwatch.de, eine internationale Public-Affairs-Agentur und das Wissenschaftsmuseum der Universität Göttingen. Clara hat in Leipzig, Bremen und Istanbul Politikwissenschaft studiert. Foto: Studio Monbijou, CC BY 4.0

Welche Maßnahmen sollten Wissenschaftseinrichtungen ergreifen, um den verantwortungsvollen Umgang mit generativer KI sicherzustellen?

Grundsätzlich sollte man alle von generativer KI erzeugten Fakten und Quellen überprüfen. Viele Chatbots haben heute integrierte Suchfunktionen und geben Quellen an, aber man muss genau hinschauen, ob diese wirklich verlässlich sind.

Im Zweifelsfall dauert die Überprüfung länger, als einen Text selbst zu schreiben.

Denken Sie, dass KI-Tools den Menschen in der Wissenschaftsvermittlung überflüssig machen könnten?

Nein. Es ist wirklich kompliziert, Dinge gut zu erklären. Gerade angesichts der aktuellen Weltlage ist es aus meiner Sicht wichtiger denn je, dass Menschen Wissen vermitteln – und vorher gut darüber nachdenken. KI-Anwendungen sind zwar gut darin, plausibel klingende Erklärungen zu generieren, diese pauschalisieren aber oft und laufen eher auf das Mittelmaß hinaus.

Ich glaube, dass Menschen das noch lange Zeit besser können als KI, einfach weil ihr Wissen meist so spezialisiert ist. Deshalb ist das eigentlich ein „Moment to shine” für die Wissenschaftskommunikation. Gerade in einem Internet, das von KI-Schrott und schlechten Texten überflutet wird, haben Wissenschaftskommunikator*innen eine besonders wichtige Aufgabe.

„Man kann sich nicht darauf verlassen, dass Chatbots korrekte Antworten liefern, auch wenn sie plausibel klingen. Gerade in der Wissenschaftskommunikation, wo Details entscheidend sind, ist das problematisch.“ Clara Helming
Sollte KI-generierter Content in der Wissenschaftskommunikation verpflichtend gekennzeichnet werden?

Teilweise ist die Kennzeichnung von KI-generierten Inhalten schon vorgeschrieben, etwa durch den AI Act, das umfassende Gesetz zur Regulierung von KI in der Europäischen Union. Auf Social Media sieht man das zum Beispiel bei der Kennzeichnung von KI-generierten Bildern.

Wird ein kompletter Text von einer KI erstellt, sollte man das auf jeden Fall kennzeichnen. Wenn man dagegen nur kleinere Hilfestellungen nutzt, wie etwa Titelvorschläge, ist das vielleicht anders zu bewerten. Grundsätzlich sollte aber immer Transparenz darüber bestehen, welche Tools verwendet wurden.

Die Kommunikation über KI wird stark von großen Tech-Unternehmen dominiert. Was könnte man tun, um auch wissenschaftlichen Inhalten Gehör zu verschaffen?

Die Big-Tech-Unternehmen verfügen nicht nur über eine enorme Marktmacht, sondern auch über eine große Meinungsmacht. Beides ist in ihren Händen gebündelt. Das ist ein Problem.

Diese Unternehmen finanzieren zudem einen erheblichen Teil der KI-Forschung. Schaut man sich zum Beispiel große KI-Konferenzen an, sind Google, Amazon, Meta, Apple und andere sehr präsent.

Das aktuelle System führt dazu, dass die Markt- und Meinungsmacht der Big-Tech-Unternehmen weiter gefestigt wird. Wenn wir dem entgegenwirken wollen, müssen wir die bestehenden Gesetze – etwa auf EU-Ebene – konsequent umsetzen. Darüber hinaus müssen wir überlegen, welche alternativen Strukturen wir aufbauen können.

„Es ist wirklich kompliziert, Dinge gut zu erklären. Gerade angesichts der aktuellen Weltlage ist es aus meiner Sicht wichtiger denn je, dass Menschen Wissen vermitteln – und vorher gut darüber nachdenken.“ Clara Helming
Sie setzen sich mit dem Algorithmic Accountability Reporting Fellowship Programm für investigative Berichterstattung über ‚Blackbox‘-Systeme ein. Was für Ratschläge haben Sie für Journalist*innen, die über KI berichten?

Mit dem Fellowship-Programm vergeben wir Stipendien an Journalist*innen, um dem entgegenzuwirken, dass fast nur die Perspektiven der großen Tech-Unternehmen sichtbar sind.

Für Journalist*innen ist es aus meiner Sicht besonders wichtig zu verstehen, dass Tech-Unternehmen schöne Geschichten erzählen, die einer kritischen Überprüfung häufig nicht Stand halten. Ihre Versprechen klingen sehr gut: KI werde alle komplexen Probleme lösen – Klimawandel, Armut, wirtschaftliche Krisen und so weiter.

Dahinter steckt viel magisches Denken, für das wir alle anfällig sind. Aber Journalist*innen sollten sich von diesen Erzählungen  lösen und stattdessen kritisch untersuchen: Wofür geben die Unternehmen Geld aus? Woher kommt die Technologie? Was wird tatsächlich umgesetzt?

Wie kann man sich von diesen Narrativen lösen?

Mein Rat ist: Schaut nicht auf Ankündigungen, sondern auf tatsächliche Umsetzungen und deren Auswirkungen, auch die negativen. Bei den Chatbots sehen wir, dass es bisher keinem Unternehmen gelungen ist, damit nachhaltig Geld zu verdienen. Gleichzeitig sind diese Modelle extrem ressourcenintensiv. Sie benötigen riesige Rechenzentren, was zu Strom- und Wasserknappheit führt und erhebliche Umweltauswirkungen hat. Das sind Ressourcen, die an anderer Stelle fehlen.

„So könnten zum Beispiel auch mehr spezialisierte KI-Projekte gefördert werden, die konkrete Probleme adressieren und dabei weniger Ressourcen verbrauchen.“ Clara Helming
Was wir stattdessen brauchen ist ein Perspektivwechsel. Also nicht die Frage „Wie können wir noch größere KI-Modelle bauen?“, sondern „Welche gesellschaftlichen Probleme haben wir und wie können wir sie wirklich sinnvoll lösen?“.

Momentan läuft es oft andersherum. Erst werden riesige KI-Projekte umgesetzt und dann werden Probleme gesucht, die man mit KI lösen könnte. Sozusagen erst der Hammer, dann der Nagel. Leider folgen auch die deutsche Bundesregierung und die EU-Kommission häufig dieser Logik und investieren viel Geld in diese hochskalierte Mehrzweck-KI, als sei das die einzige Lösung. Hier können Journalist*innen helfen, wieder mehr Realismus in die Debatte zu bringen. So könnten zum Beispiel auch mehr spezialisierte KI-Projekte gefördert werden, die konkrete Probleme adressieren und dabei weniger Ressourcen verbrauchen.

Wie gut gelingt es denn aktuell, Erkenntnisse aus der Forschung über die gesellschaftlichen Auswirkungen von KI in politische Entscheidungsprozesse einfließen zu lassen?

Mit Blick auf den Koalitionsvertrag fällt auf, dass darin die Stärkung europäischer Unternehmen und die Investition in Rechenzentren eine zentrale Rolle spielen. Das Narrativ, Deutschland müsse aufholen und dürfe nicht abgehängt werden, ist dort sehr präsent. Das wurde von den Tech-Unternehmen geprägt.

Ich würde nicht sagen, dass die KI-Ethikforschung überhaupt nicht gehört wird, aber sie ist auf jeden Fall nicht die dominierende Stimme.

Stattdessen sehen wir: KI soll stärker für den wirtschaftlichen Standort genutzt werden, aber auch zur Stärkung von Polizei und Überwachung. Die Perspektive von Organisationen wie AlgorithmWatch, dass es auch um Grundrechte gehen muss, ist darin nicht so stark vertreten.