Foto von kuu akura auf Unsplash

Wie ein Chatbot Forschende auf öffentliche Auftritte vorbereitet

Ein Chatbot, der Forschende auf Talkshows, Vorträge und Workshops vorbereitet. Lara Wüster von der LMU München hat ihn entwickelt und erklärt, wie er Formatwissen, Rollen- und Wertereflexion und Resilienztraining innerhalb von nur 30 Minuten bietet.

Sie haben einen Chatbot entwickelt, der Wissenschaftler*innen hilft, sich auf öffentliche Auftritte vorzubereiten. Wie kann der Chatbot konkret unterstützen?

Es ist ein niedrigschwelliges und kostenloses Kommunikationstraining sowie ein ethischer Sparringspartner für alle Fragen zur Präsentation der eigenen Forschung. Zunächst kann der Chatbot Eckdaten zu einem spezifischen Format geben. Welche Position vertritt der Sender, wie führt die Moderation das Gespräch, wie viel Redezeit habe ich? Dann können Wissenschaftler*innen mit ihm eine Rollenreflexion durchführen. In welcher Rolle spreche ich und was möchte ich mit meiner Kommunikation erreichen? Außerdem kann man mit dem Chatbot evaluieren, welche Werte und ethischen Annahmen hinter den eigenen Aussagen stehen.

Lara Wüster ist Schriftstellerin und Philosophin. An der LMU München forscht und lehrt sie zu politischer Theorie, Ethik und Wissenschaftskommunikation. Sie leitet das Kulturprojekt turtle magazin(e) und entwickelt Formate verantwortungsvoller, reflektierter Kommunikation und emotionaler Bildung zwischen Theorie, Praxis und Öffentlichkeit. Foto: Lucas Lemnitzer

Auf Basis des Formatwissens, der Rollen- und Wertereflexion erarbeitet der Chatbot eine Strategie für den Auftritt, an der sich Forschende orientieren können. Und zuletzt können Wissenschaftler*innen noch eine Art Resilienztraining machen, indem sie nach möglichen kritischen Rückfragen und Worst-Case-Szenarien fragen und Antworten darauf einüben. Die Idee des Chatbots ist, dass die gesamte Vorbereitung im Bestfall weniger als eine halbe Stunde Zeit in Anspruch nimmt.

Warum brauchen Forschende diese Unterstützung?

Mein ehemaliger Professor, Olaf Müller von der HU Berlin, wurde in die Talkshow „Hart aber Fair“ eingeladen. Es ging um das Thema Aufrüsten in Deutschland und er hatte ein Buch über pragmatischen Pazifismus geschrieben. Die Einladung musste er aus terminlichen Gründen ablehnen. Im Nachgang war er darüber sehr froh, da er den Eindruck hatte, dass er seine Erwägungen nicht hätte zur Diskussion stellen können. Es ist schade, wenn manche Stimmen nicht gehört werden, weil Forschende sich nicht ausreichend gerüstet fühlen, um öffentlich sprechen zu können.

Auf welche Informationen greift der Chatbot zurück?

Es gibt zwei theoretische Hauptquellen, auf die der Chatbot zugreift. Die eine ist ein Paper, in dem ich die erwähnte Sendung von „Hart aber fair“ ausführlich analysiere und eine  mögliche Auftrittsstrategie für eine*n Geisteswissenschaftler*in entwerfe. Die zweite Quelle ist das Papier vom Wissenschaftsrat aus dem Jahr 2021, das Kriterien für gute Wissenschaftskommunikation beschreibt. Der Chatbot ist so programmiert, dass er sich hauptsächlich auf diese Quellen bezieht und sich an ihnen orientiert.

Um produktiv mit dem Chatbot zu arbeiten, ist wichtig, dass man im Vorfeld eine Tabelle ausfüllt und diese in den Chat kopiert. In dieser Tabelle kann man Angaben zur eigenen Forschung und zum anstehenden Auftritt machen. Man sollte auch konkretisieren, zu welchen Fragen man Unterstützung vom Chatbot wünscht. Für diese Vorbereitung und für das Formulieren der passenden Prompts gibt es ein Begleithandbuch.

Welche Rollen können Forschende konkret mit dem Chatbot reflektieren?

In seinem Buch „The Honest Broker“ hat Roger Pielke vier Rollen beschrieben, die Wissenschaftler*innen einnehmen können: Wissenschaftler*innen, die ausschließlich auf Fakten fokussieren. Wissenschaftler*innen, die klar abgegrenzte Fachfragen gegenüber Entscheidungsträgern beantworten. Interessensvertreter*innen, die sich aktiv für bestimmte politische Optionen einsetzt. Und unvoreingenommene Vermittler*innen, die mehrere Handlungsoptionen auf Grundlage wissenschaftlicher Erkenntnisse präsentiert, ohne eine Option zu bevorzugen.

Für Geisteswissenschaftler*innen habe ich noch eine fünfte Rolle ergänzt, die Diskurshygienewächter*innen. Sie achten in besonderer Weise darauf, dass wir nicht nur auf emotionale Rhetorik zielen und transparent kommunizieren, was wir wissen und was wir nicht wissen. Bei gesellschaftlich und politisch kontrovers diskutierten Themen, reicht es in öffentlichen Formaten oft nicht aus, lediglich die Rolle der reinen Wissenschaftler*innen einzunehmen. Hier kann es wichtig sein, in verschiedenen Phasen des Gesprächs unterschiedliche Rollen einzunehmen und diese klar zu markieren.

Welche Rückmeldungen haben Sie bisher von Nutzer*innen erhalten?

Da der Chatbot bisher noch ein Prototyp ist, ist die Testgruppe noch nicht so groß. Aber ich habe zum Beispiel von Dr. Bernhard Goodwin vom Munich Science Communication Lab die Rückmeldung erhalten, dass sein Test ein gutes Ergebnis hervorgebracht hat. Konkret hat er damit ein Zielgruppenformat zum Thema Umgang mit Hitzewellen erstellen lassen, weil er hier schon ausführliches Material hatte und so die Qualität überprüfen konnte.

Ich selbst habe den Chatbot verwendet, um mich auf meinen Vortrag beim Forum Wissenschaftskommunikation 2025 vorzubereiten. Gerade die Vorbereitung auf kritische Rückfragen verschiedener Zuschauer*innengruppen fand ich hilfreich. Der Chatbot gab zum Beispiel folgende mögliche Frage aus dem Fachpublikum an: „Woran messen Sie, dass Ihr Bot Denken verbessert, statt nur Output zu beschleunigen?“ Oder diese journalistische Frage: „Ist Ihr Bot nicht schlicht ein PR-Coach in Ethik-Gewand?“ Ich konnte dann mit dem Chatbot zu diesen Fragen interagieren und eine kritische Diskussion simulieren.

Wo liegen die Grenzen eines Chatbots hinsichtlich ethischer Fragen?

Wichtig ist mir zu betonen, dass der Chatbot keine ethischen Werte vorgibt, sondern dabei hilft sie zu reflektieren. Kürzlich wurde ich auf einer Veranstaltung zu Künstlicher Intelligenz damit konfrontiert, dass in dem Chatbot meine persönliche Ethik drinstecken würde. Ziel war es nie, einer KI bestimmte moralische Grundsätze einzufüttern, die sie dann wiedergibt. Die Idee ist, dass der Chatbot dabei hilft, konsistent in dem eigenen moralischen und epistemischen Framework zu sein. Aber natürlich spielen mein Verständnis von Demokratie, gutem öffentlichen Diskurs und Deliberation eine Rolle bei den Antworten des Bots, deswegen habe ich seine Wissensbibliothek offengelegt.

Welche Wünsche hätten Sie hinsichtlich einer Weiterentwicklung des Chatbots?

Es würde mich sehr freuen, wenn aus dem Prototyp, der derzeit auf ChatGPT läuft, ein professionelles Tool mit eigener Plattform entwickelt würde. Dieses könnte dann von Universitäten und Wissenschaftler*innen als philosophisches Coaching für Wissenschaftskommunikation genutzt werden. In der Weiterentwicklung könnten es auch Bürger*innen als demokratisches Tool für reflektierte Meinungsbildung und Deliberation im öffentlichen Diskurs nutzen.