Foto: Google DeepMind

„Wir haben Angst, die falschen Fragen zu stellen“

Wie sollte über ChatGPT informiert werden? Brauchen wir neue Konzepte der Urheberschaft? Welche Entwicklungen sind in Zukunft zu erwarten? Solche Fragen standen im Mittelpunkt der virtuellen Diskussionsrunde des Munich Science Communication Lab zum Thema ChatGPT in der Wissenschaftskommunikation.

„Wie und wo ziehen wir Grenzen?“ Julika Griem vom Rhine-Ruhr Center for Science Communication Research spricht hier von Grenzen für den Einsatz des Chatbots GPT. Gemeinsam mit Olaf Kramer, Jakob Ohme und Steffen Brandt, Vertretern der drei anderen von der VolkswagenStiftung geförderten Zentren für Wissenschaftskommunikation, diskutierte sie am 24. April auf einer englischsprachigen Online-Veranstaltung über die Rolle von ChatGPT in der Wissenschaftskommunikation. Eingeladen hatte das Munich Science Communication Lab (MSCL), zunächst in Vorträgen ihre Perspektiven zu ChatGPT vorzutragen und im Anschluss mit Teilnehmer*innen über offene Fragen zu diskutieren.

Neue Konzepte für Urheberschaft und Kreativität?

Nach den Einführungsvorträgen eröffnet Bernhard Godwin, Managing Director of the Institute for Communication Science and Media Research die Diskussion mit der Frage an Julika Griem, ob die Nutzung von ChatGPT für die Wissenschaftskommunikation vielleicht sogar von Vorteil sein könne.

Griem zufolge nutzen bereits viele Menschen aus Wissenschaftskommunikation und Journalismus den Chatbot, problematisch sei jedoch, dass Fragen der Urheberschaft, Kreativität und Originalität noch nicht geklärt seien. Auch Olaf Kramer, Direktor des Center for Rhetorical Science Communication (RHET AI), betonte in seinem vorangegangenen Vortrag wie wichtig es sei, darüber nachzudenken, was einen Text definiere und was Autorschaft überhaupt bedeute. Denn unser heutiges Verständnis von Urheberschaft, bei dem Texte immer eng mit der Kreativität der Autor*innen verbunden sein müssen, beruhe auf Vorstellungen des 18. Jahrhunderts. Diese Perspektive auf Texte zu übertragen, die von einer künstlichen Intelligenz produziert werden, führe unweigerlich zu Problemen. Ein Blick noch weiter zurück in die Geschichte könne hier neue Ideen liefern. Das Prinzip der Patchwork Texts, bereits vorhandene Strukturen und Inhalte für einen neuen Text zu nutzen, ähnlich wie es ChatGPT macht, sei nicht neu. Schon in der aristotelischen und römischen Tradition existierte dieses Prinzip. Diese Ideen könnten uns auch heute helfen, um unsere Vorstellung von Textproduktion zu überdenken und sie mit dem Konzept der Textproduktion durch künstliche Intelligenz (KI) in Einklang zu bringen, sagt Kramer.

„Wir brauchen einen interdisziplinären Dialog zwischen technischen, ethischen und sozialen Disziplinen, um die Auswirkungen von KI und ChatGPT auf die Gesellschaft zu verstehen.“ Olaf Kramer

Auf die Frage von Godwin, ob es in der Wissenschaftskommunikation zu viel Kreativität gebe und zu wenig gut etablierte Praktiken, antwortet Griem, dass sie eher das Gegenteil beobachte, nämlich wenig Kreativität und eine eher standardisierte Kommunikation. Besonders Institutionen seien zum Teil enttäuschend unoriginell.

Godwin interessierte sich zudem für gute Beispiele aus der Wissenschaftskommunikation zum Thema KI, die die Wahrnehmung der Gesellschaft widerspiegeln. Problematisch sei, so Kramer, dass sich die Wissenschaftskommunikation über KI oft auf technische Themen beschränke. „Wir brauchen einen interdisziplinären Dialog zwischen technischen, ethischen und sozialen Disziplinen, um die Auswirkungen von KI und ChatGPT auf die Gesellschaft zu verstehen.“

Zwischen Optimismus, Sorge und Überforderung

Nach einiger Ermutigung durch die Moderatorin Paulina Schaaf melden sich auch weitere Zuhörer*innen zu Wort. „Ich bin selbst besorgt über dieses Thema und ich glaube, dass auch die anderen Teilnehmenden keine Fragen stellen, weil sie besorgt sind. Wir haben Angst, die falschen Fragen zu stellen“.

„Ich bin selbst besorgt über dieses Thema und ich glaube, dass auch die anderen Teilnehmenden keine Fragen stellen, weil sie besorgt sind. Wir haben Angst, die falschen Fragen zu stellen“ Teilnehmerin
Die Teilnehmerin fragt, ob wir vor einer neuen Wissenskluft zwischen Menschen stehen, die mit den technologischen Möglichkeiten von Chatbots vertraut sind, und denen, die es nicht sind. Außerdem möchte sie wissen, wer Gatekeeper sein könnte, und knüpft damit an Jakob Ohmes Vortrag an, der von der Illusion sprach, dass ChatGPT eine epistemische, also wissensbasierte Autorität sei. „Es wird immer Knowledge-Gaps geben und keine wird sich jemals für immer schließen“, antwortet Jakob Ohme, Forschungsgruppenleiter am Weizenbaum-Institut. Wichtig im Umgang mit generativer KI sei es, die Nachrichtenkompetenz von Menschen zu fördern. In seinem Vortrag hat Ohme das Problem thematisiert, dass viele Nutzer*innen ChatGPT eher nutzen, um gezielt nach Informationen zu fragen und nicht um mit dem Bot zu chatten. Die Verbreitung von Wissen sei jedoch nicht die Aufgabe des Bots, dies werde auch von OpenAI selbst explizit so kommuniziert. Dennoch würden viele Menschen durch die leichte Handhabung und Auffindbarkeit von Informationen vergessen, kritisch zu hinterfragen, wie verifiziert diese Informationen sind.

Dass es eine restriktive Haltung gegenüber generativer KI geben wird, glaubt Ohme nicht. „Der Journalismus hat seine Gatekeeper-Funktion verloren und hatte sie im Fall von KI auch nie.“ Das Modell selbst, und wie transparent es sein wird, werde der Gatekeeper sein, so Ohme. „Ich glaube auch nicht an politische Empfehlungen, die Entwicklung zu stoppen. Das würde einen Schwarzmarkt schaffen, wo niemand mehr Gatekeeper sein könnte.“

„Der Journalismus hat seine Gatekeeper-Funktion verloren und hatte sie im Fall von KI auch nie.“ Jakob Ohme

Steffen Brandt vom Kiel Science Communication Network lenkt die Aufmerksamkeit zurück auf die Entwicklung von Chatbots. Denn seiner Meinung nach, werden sich künftig wichtige gesellschaftliche Fragen stellen, etwa wie ein Modell mit den Nutzer*innen kommunizieren sollte.

Aufgrund kultureller Unterschiede, würden künftig unterschiedliche Modelle existieren – ein Modell in China werde anders mit den Nutzer*innen kommunizieren als eines in den USA. Jedes Land werde daher seine eigenen Richtlinien schaffen müssen, wie ChatGPT mit seinen Nutzer*innen kommunizieren soll. Brandt mahnt auch, die Schnelligkeit der Entwicklung von ChatGPT zu bedenken: „Wenn wir heute über ChatGPT diskutieren, sollten wir uns darüber im Klaren sein, dass dies nur eine kurze Momentaufnahme ist. In ein oder zwei Monaten wird dies schon nicht mehr aktuell sein.“ Wichtig sei auch, sich nicht nur auf ChatGPT zu beschränken, sondern sich allgemein mehr auf die Entwicklung und den Einfluss von künstlicher Intelligenz auf die Gesellschaft zu fokussieren.

Sowohl die Teilnehmenden, als auch die Referent*innen sprechen immer wieder von einer Überforderung von den technischen Möglichkeiten, die ChatGPT bietet, wie auch von gesellschaftlichen Veränderungen, die mit dessen Nutzung einhergehen. „Wir hatten kaum Gelegenheit, diese Entwicklungen zu reflektieren und zu verstehen, was passiert“, fasst ein Teilnehmer seine Eindrücke zusammen. Er kritisiert zudem einen technologischen Optimismus in dieser Diskussion, den er weder für sinnvoll, noch für hilfreich hält.

Mensch oder Maschine – wer hat‘s geschrieben?

Eine Teilnehmerin fragt nach den nächsten großen Entwicklungsschritten und Features, die zu erwarten sind. „Es ist ein Horrorszenario, aber irgendwann werden wir wahrscheinlich nicht mehr unterscheiden können, ob die Information von einem Menschen oder einer Maschine kommt“, antwortet Ohme.

„Wir hatten kaum Gelegenheit, diese Entwicklungen zu reflektieren und zu verstehen, was passiert“ Teilnehmer
Denn ChatGPT werde in Zukunft in vielen Anwendungen implementiert werden. Und das sei der nächste große Entwicklungsschritt, der zu erwarten sei. Dies werde vermutlich zu einem weiteren Vertrauensverlust in Informationen führen, so Ohme weiter.

Brandt hingegen sieht den Vorteil, dass durch ChatGPT mehr Menschen bewusst wird, dass nicht alle Informationen im Internet von Menschen stammen. Schon seit einigen Jahren gebe es viele Texte im Netz, die von künstlichen Intelligenzen produziert worden seien, aber das sei vielen Menschen nicht bewusst. Aus Sicht der Wissenschaftskommunikation sei es wichtig, darüber aufzuklären, wie präsent diese Texte bereits sind.

Auf die Frage, wie Wissenschaftler*innen KI nutzen könnten und ob es ethische Limits geben sollte, antwortet Ohme, dass er selbst ChatGPT zur Kürzung seiner eigenen Abstracts benutze und diese Zeitersparnis sehr schätze. Er vermutet, dass es vielleicht in fünf Jahren keine KI-freien Texte mehr geben wird. Ethische Standards für die Nutzung von ChatGPT für die Wissenschaftskommunikation gebe es zwar noch nicht, aber „vielleicht können wir uns an ethischen Standards orientieren, die für wissenschaftliches Arbeiten bereits gelten.“