Foto: Ilona Frey

Vom plappernden Papageien zum nützlichen Werkzeug?

Künstliche Intelligenz schreibt Geschichten und fasst wissenschaftliche Publikationen in einfachen Sätzen zusammen: Was können lernende Algorithmen und Sprachmodelle? Und gibt es bald Robotertexte in der Wissenschaftskommunikation? Hannes Schlender geht den Fragen im Beitrag nach.


Ruft man Mitte März 2022 die Website tldrpapers.com auf, erscheint auf dem Bildschirm „Under Maintenance“. Schade. Das Kürzel tl;dr steht für „too long; didn´t read“. tldrpapers.com nutzt Künstliche Intelligenz (KI), um aus Abstracts langer und oftmals schwer verdaulicher wissenschaftlicher Publikationen kürzere Texte zu machen – drei oder vier einfache Hauptsätze. „Science abstracts a second grader can understand“, ist der Claim der Seite. Ob das stimmt? Auf Twitter gibt es im Januar zumindest viele überraschte und lobende Kommentare zu dem Tool. Aber die Urheber der Seite haben beschlossen, diese nicht weiter zu betreiben.

Hinter tldrpapers.com steht GPT-3 (Generative Pretrained Transfomer 3), ein selbst lernendes Sprachproduktionssystem, das die kalifornische Firma OpenAI im Juni 2020 der Öffentlichkeit vorgestellt hat. Es gilt im Kontext Sprache derzeit als eines der leistungsfähigsten KI-Modelle. Das liegt sowohl an der Rechenpower als auch an dem enormen Trainingsumfang, den GPT-3 für seinen Spracherwerb absolviert hat. GPT-3 kann Fragen beantworten, Sätze korrigieren, mathematische Probleme lösen, programmieren, Geschichten und sogar Gedichte schreiben – und eben auch wissenschaftliche Texte zusammenfassen.

Es handelt sich dabei um einen lernenden Algorithmus, der massenhaft Beispieltexte analysiert, um dann selbst Sprache zu generieren. Die Struktur, die er dafür nutzt, ist ein dem menschlichen Gehirn nachempfundenes neuronales Netz1. Der Computer simuliert die Arbeitsweise dicht miteinander verwobener Nervenzellen und verarbeitet Informationen auf verschiedenen Ebenen. Von einfachen Mustern wie einzelnen Buchstaben geht er immer weiter in Richtung komplexer Strukturen – Worte, Satzfragmente, ganze Sätze und schließlich Texte. Das System ist in der Lage, sich selbst zu korrigieren und so bei seinem Textverständnis immer besser zu werden. Deep Learning heißt das Verfahren.

Im Gegensatz zu einem lernenden Menschen braucht das Modell riesige Mengen an Trainingsmaterial, bis es einen verwertbaren Output liefern kann. Dank großer Rechenleistung und einer als „Transformer“ bezeichneten Rechenmethode ist es mittlerweile möglich, das Training parallel auf vielen verschiedenen Prozessoren laufen zu lassen. Allerdings: Das Verständnis geht nicht so weit, wie es beim Menschen der Fall ist. Der Computer setzt seine Textbausteine auf der Basis der Erfahrung zusammen, die er beim Erfassen der Trainingstexte gesammelt hat. Forscher*innen bezeichnen solche Modelle deshalb auch als „stochastische Papageien“: Worüber der Computer schreibt, weiß er nicht. Auch Nonsense kann dabei herauskommen, Hate Speech, Sexismus oder Rassismus. Wissenschaftler*innen arbeiten an Konzepten, um solche Probleme in den Griff zu bekommen.

Für die Wissenschaftskommunikation sind GPT-3 und ähnliche Systeme von großem Interesse. Denn sie bieten neben den Risiken auch viele Chancen. Bereits 2019 hat sich der Think Tank „Siggener Kreis“ mit dem Thema KI beschäftigt. Er sieht sie unausweichlich auf das Berufsfeld zukommen: „Wir berichten bereits über KI als Thema und werden eher früher als später auch selbst mit Instrumenten aus der KI arbeiten oder in ihrer Arbeit von ihr beeinflusst.“ Proaktiv hat der Kreis deshalb Richtlinien für den Umgang mit KI in der Wissenschaftskommunikation erarbeitet. Doch wie praxisnah sind die Verfahren tatsächlich?

Künstliche Intelligenz, Algorithmen und Co: Definitionen

Künstliche Intelligenz
Spezifische Art, wie Systeme externe Daten interpretieren, daraus lernen und das Gelernte anwenden. Ziel ist, dass Computer menschenähnlich intelligent agieren können. Der Begriff ist nicht trennscharf definiert – auch weil der Begriff der menschlichen Intelligenz nicht eindeutig zu fassen ist.
Selbstlernende Algorithmen
Rechenverfahren, die sich während ihrer Ausführung selbst (autonom) verbessern.
Neuronales Netz
Mathematisches Konzept, das die Funktionsweise des Gehirns nachahmt. Information wird auf verschiedenen Ebenen verarbeitet – vom einfachen Muster hin zu komplexen Strukturen.
Machine Learning (Maschinelles Lernen)
Mathematische Verfahren zur Mustererkennung.
Deep Learning
Maschinelles Lernen unter Nutzung künstlicher neuronaler Netze.

Auf diese Frage weiß Angelica Lermann Henestrosa, Doktorandin am Leibniz-Institut für Wissensmedien (IWM) in Tübingen, eine Antwort. Sie untersucht, wie Menschen automatisiert erstellte Inhalte zu Wissenschaftsthemen akzeptieren und aufnehmen: „Die Technik für die Erstellung solcher Texte existiert bereits“, sagt Lermann Henestrosa: „Allerdings werden sie in der Wissenschaftskommunikation, die sich an Lai*innen richtet, noch nicht eingesetzt.“ Anders sei das innerhalb der Scientific Community. Hier gebe schon seit Jahren die Möglichkeit des Text Minings, bei dem große Textmengen, tausende von Publikationen nach bestimmten Stichworten oder Bedeutungsmustern durchsucht werden. Ansätze, wissenschaftliche Texte sinnvoll für eine wissenschaftliche Leser*innenschaft zusammenzufassen und so besser vergleichbar zu machen, verfolgt TIB, das Leibniz Informationszentrum Technik und Naturwissenschaften an der Universität Hannover. Der Open Research Knowledge Graph (ORKG) ist ein dynamischer Wissensgraph, in dem „verschiedene Forschungsideen, -ansätze, -methoden und -ergebnisse maschinenlesbar dargestellt werden“. An interessierte Lai*innen richtet sich das Angebot nicht.

Für die Praxis der Wissenschaftskommunikator*innen im Sinne der Textproduktion spielt KI also heute noch keine Rolle. „Aber das wird sich bald ändern“, sagt Elisabeth Hoffmann, Leiterin des Dezernats Kommunikation und Marketing der Universität Köln: „Die Techniken sind in der Welt. In wenigen Jahren werden sie unsere Arbeit stark beeinflussen. Und wir müssen darauf achten, dass wir von dem Prozess nicht überrollt werden, sondern ihn aktiv gestalten.“ Die Siggener Empfehlung ist dafür ein Anfang.

Den Arbeitsplatz der Menschen in den Kommunikationsabteilungen sieht Hoffmann dabei nicht in Gefahr: „Unsere Aufgabe wird es in Zukunft sein, zu kuratieren: Die Wissenschaftskommunikator*innen können zum Beispiel von der KI kurze Zusammenfassungen zu allem bekommen, was in ihrer Institution publiziert worden ist. Die Menschen entscheiden dann, welche Themen sie aufbereiten und veröffentlichen – entweder, weil das Thema für die Rezipient*innen bedeutsam sein könnte oder weil die Institution das Thema in die Öffentlichkeit bringen will.“

Den Kreis derjenigen, die KI nutzen, um das vorhandene Wissen zu sichten und bei Bedarf weiter zu benutzen, sieht Hoffmann nicht nur auf Menschen im Wissenschaftssystem begrenzt: „In Zeiten von Open Science werden auch Bürger*innen außerhalb der Forschungseinrichtung Zugriff auf die Kurzzusammenfassungen haben, die die KI liefert. Jede Interessierte kann dann entscheiden, welche Publikation für sie relevant ist und ob sie das Original lesen will.“

Akzeptanzprobleme der künstlich erzeugten Texte sieht Angelica Lermann Henestrosa vom Leibniz-Institut für Wissensmedien derzeit nicht: „Meine ersten Forschungsergebnisse deuten darauf hin, dass Menschen den Ergebnissen, die Sprach-KI im Bereich Wissenschaftskommunikation liefert, durchaus vertrauen“, so Lermann Henestrosa. Das könnte – sollten sich Risiken wie Falschinterpretationen, Sexismus, Rassismus oder Frauenfeindlichkeit wirksam ausmerzen lassen – eine Chance für die Wissensgesellschaft sein: Vorhandenes Wissen könnte besser als bisher aus dem Elfenbeinturm der Wissenschaft in die Gesellschaft hineindiffundieren.

Hannes Schlender berichtet in unserem Auftrag zu diesem Thema.