KI als Doping für die Wisskomm? 

Wie kann die Hochschulkommunikation ChatGPT & Co nutzen – und dabei Glaubwürdigkeit, Authentizität und Transparenz wahren? Bei der Jahrestagung des Bundesverbands Hochschulkommunikation in Hamburg bewegten sich die Diskussionen zwischen Begeisterung und Skepsis. 

Das Thema ist naheliegend, aber noch lange nicht ausdiskutiert. Die Jahrestagung des Bundesverbands Hochschulkommunikation, die dieses Jahr an der Universität Hamburg zu Gast war, trug den Titel „Willkommen im Team: Wie KI die Kommunikation verändert“. War dies eine Einladung, Chatbots wie ChatGPT freudestrahlend als „neue Kolleg*innen“ zu begrüßen? In einem Wettbewerb konnten die mehr als 700 Tagungsgäste sich mithilfe von KI ein solches neues Teammitglied visualisieren lassen. Heraus kamen Superheld*innen, Roboter und Personen, die frisches Obst mit ins Büro bringen. 

Das Gesicht des Präsidenten für ein Deepfake?

Die Idee mit den frischen Früchten mal beiseite: Welche Potenziale bieten KI-Tools im Alltag der Hochschulkommunikation tatsächlich? Wo werden sie genutzt, an welchen Stellen gibt es offene Fragen und Diskussionsbedarf? Hauke Heekeren, Präsident der Universität Hamburg, hat keine neuen Teammitglieder generieren lassen, sondern direkt seinen eigenen Avatar mit einer Videobotschaft geschickt. Damit machte er deutlich, dass es immer schwieriger wird, „echte“ von KI-generierten Inhalten zu unterscheiden.

Während des KI-Grußworts betrat Heekeren selbst die Bühne und begrüßte die Teilnehmenden zusätzlich mit einem analogen Grußwort. Wäre es nicht sehr effizient, einen solchen Avatar zu nutzen? „Klingt praktisch. Also warum nicht?“ Intern habe das Experiment jedoch für Diskussionen gesorgt: „Ist es richtig, dass der Präsident sein Gesicht hergibt, um ein Deepfake zu erstellen?“ 

Heekeren unterstrich die Verantwortung von Hochschulen, gegen Fake News vorzugehen und eine Vorbildfunktion in Sachen Authentizität und Transparenz einzunehmen. Gleichzeitig sei es wichtig, neue Technologien zu nutzen und herauszufinden, in welchen Bereichen KI-Anwendungen als Ergänzung menschlicher Fähigkeiten und Impulsgeber einer neuen Diskussionskultur dienen könnten. 

Das Stichwort „Transparenz“ wird während der Tagung immer wieder als Bedingung dafür genannt, als glaubwürdig wahrgenommen zu werden. Doch funktioniert das tatsächlich? Oder ist KI „das neue Doping der Wisskomm“? Alle nutzen es, aber niemand spricht darüber? Mit dieser Frage wurde die Fishbowl-Diskussion zum Auftakt der Tagung eröffnet. Wer im Publikum hat schon einmal KI-Tools genutzt und nicht darüber gesprochen? Lachen in den Reihen des Hamburger Audimax, einige Zuschauer*innen meldeten sich mehr oder weniger schüchtern. 

Leitlinien: Nötig oder lästig?

Immer wieder wurde in der Diskussion auf die Bedeutung von Leitlinien verwiesen, die festlegen, wie genau die Nutzung von ChatGPT & Co aussehen soll. Es regte sich jedoch auch Skepsis: Wie sollen Leitlinien für etwas erarbeitet werden, das einem so schnellen Wandel unterworfen ist? Schränkt ein zu enges Korsett an Regeln möglicherweise den kreativen Umgang mit neuen Möglichkeiten zu sehr ein?

Deutlich wurde, dass generative KI-Tools in der Hochschulkommunikation bereits für verschiedene Zwecke genutzt werden – sei es die Generierung von Pressemitteilungen, Visualisierungen oder Texten für Social Media. Das bestätigt die Ergebnisse der Studien von Justus Henke vom Institut für Hochschulforschung (HoF) Halle-Wittenberg: KI ist im Berufsfeld angekommen. Allerdings mit unterschiedlichen Geschwindigkeiten. 

Die Diskussionen zeigen: Mit welcher Intensität und für welche Aufgaben ChatBots und andere Tools genutzt werden, hängt unter anderem davon ab, wie viel Personal vorhanden ist ob es KI-Spezialist*innen gibt. Auch Ungleichheiten innerhalb von Organisationen werden thematisiert: Wer die Möglichkeit habe, teurere Versionen von ChatGPT zu nutzen, könne auch bessere Ergebnisse erzielen, heißt es in der Diskussion.

Kommunikator*innen als KI-Knechte?

Eine kritische Frage, die an mehreren Stellen aufgeworfen wurde, lautet: Was bedeutet der Einzug von „Kolleg*in KI“ für die Aufgaben und die beruflichen Perspektiven von Mitarbeiten, beispielsweise Grafikdesigner*innen, Übersetzer*innen und Redakteur*innen? Werden sie in Zukunft auf die einseitige Rolle verpflichtet, KI-generierte Ergebnisse zu prüfen und zu überarbeiten? Statt SEO-Optimierung stehe nun KI-Optimierung der Inhalte an, sagte Elisabeth Hoffmann, Chief Communication Officer der Universität zu Köln – und fragte: „Machen wir uns zu KI-Knechten?“. Gerade für die jüngere Generation von Hochschulkommunikator*innen sei es wichtig zu überlegen, warum und wie genau ihr Beruf sinnvoll und wichtig bleibt. 

Düsteren Zukunftsaussichten standen in den Debatten sehr rosigen gegenüber: Andere Kommentator*innen argumentierten, dass Chatbots vor allem lästige, redundante Aufgaben übernehmen und somit im Arbeitsalltag mehr Zeit für kreative Tätigkeiten bleibe. So berichtete es auch Benjamin Waschow, der die Unternehmenskommunikation des Universitätsklinikums Freiburg leitet. Er erhob die Nutzung von KI-Anwendungen in seinem Team zur Pflicht. „Gerade als Universitäten dürfen wir das nicht den anderen überlassen“, sagte er.  

Seine Abteilung habe früh viele Einsatzmöglichkeiten von KI-Tools ausprobiert. Manches funktioniere gut, etwa das automatisierte Erstellen von Pressemitteilungen mithilfe eines ChatGPT-Agenten. Ein KI-Avatar hingegen, der medizinische Themen auf Social Media erklärte, sei bei der Presse gut angekommen, bei den Nutzer*innen jedoch weniger. Deshalb wurde das Projekt eingestellt. Grußworte und Reden hingegen werden an der Uniklinik Freiburg inzwischen von ChatGPT generiert. Diese Art von Texten werde auch nicht besser, wenn Menschen dahinterstünden, sagt Waschow. Kreativere Aufgaben hingegen würden weiterhin von Menschen übernommen, Chatbots dienten ihnen dabei als „Sparringspartner“.

Bei vielem spare dies Zeit. Statt ein ganzes Team darüber brüten zu lassen, habe man ChatGPT beispielsweise nach Ideen für einen Aprilscherz für Social Media gefragt, erzählte Waschow. Die Ergebnisse: größtenteils nicht zu gebrauchen. Aber schließlich reiche ein Ergebnis, das funktioniert. „Das war nicht wahnsinnig kreativ, aber spart und Manpower“, sagt Waschow. Es sei selbstverständlich, dass dabei immer der Datenschutz eingehalten und auf Glaubwürdigkeit geachtet werde. Eine Grenze, die nicht überschritten werden dürfe, sei, einen Avatar als echten Menschen auszugeben. Wenn ein Podcast aber von einer KI-generierten Stimme gesprochen werde, halte er es für vertretbar, dies nicht explizit zu kennzeichnen. 

Kennzeichnungspflicht war eines der Themen, die immer wieder diskutiert wurden. Die Tagungsgäste berieten sich in Workshops zu KI und Recht, Chatbots auf der Hochschul-Webseiten, Videoproduktion, Qualitätssicherung, Automatisierung von Marketingprozessen, Datenqualität, Entwicklung von Leitlinien und Wissenschaftskommunikation mithilfe von KI. Die Hochschulkommunikator*innen sind mitten drin in der Debatte. Einige Themen will der Bundesverband unter anderem in Form von Lunchtalks aufgreifen und fortführen.