Foto: Moises Alex

„Auch Tennis lernt man nicht, indem man darüber redet“

Hat Kommunikationstraining keinen Effekt bei Wissenschaftler*innen? Margaret Rubega hat mit einem amerikanisch-kanadischen Forschungsteam Praxis-Seminare an einer Universität konzipiert und evaluiert. Das Ergebnis ihrer Studie legt nahe, dass Studierende Schwierigkeiten haben, Gelerntes in die Praxis umzusetzen.

   

Frau Rubega, was war der Ausgangspunkt Ihrer Studie? 

Unser Ausgangspunkt war, dass es viele unterschiedliche Arten von Trainings zum Thema Wissenschaftskommunikation gibt, aber keine anerkannte Methode, diese miteinander zu vergleichen. Ich unterrichte seit mehr als zehn Jahren Doktorand*innen im Bereich der Wissenschaftskommunikation. Als ich damit anfing, war das noch nicht so verbreitet. Inzwischen gibt es sogar Wettbewerbe, bei denen Leute ihre Dissertationen tanzen. Auch mit Improvisationstechniken aus dem Schauspiel wird gearbeitet. Es ist schwer zu beurteilen, was davon tatsächlich funktioniert. Genau das aber möchten wir wissen, wenn wir Menschen unterrichten. Wir dachten, der beste Weg sei, Außenstehende zu befragen, ob sie denken, dass die Studierenden gut kommunizieren. Wenn Menschen das sagen, die keine Spezialist*innen sind, ist das das beste Urteil. Das Publikum hat das letzte Wort. 

Um den Erfolg von Kommunikationstrainings zu messen, haben Sie für die University of Connecticut eine Lehrveranstaltung konzipiert, die Sie in den beiden darauffolgenden Jahren wiederholten. Was war Inhalt des Kurses? 

Margaret Rubega ist Professorin für Ökologie & Evolutionsbiologie an der University of Connecticut in den USA und spezialisiert auf die Anatomie und Biomechanik von Vögeln. Sie forscht zudem zum Thema Wissenschaftsvermittlung und gibt Kurse im Bereich der Wissenschaftskommunikation. 
Margaret Rubega ist Professorin für Ökologie & Evolutionsbiologie an der University of Connecticut in den USA und spezialisiert auf die Anatomie und Biomechanik von Vögeln. Sie forscht zudem zum Thema Wissenschaftsvermittlung und gibt Kurse im Bereich der Wissenschaftskommunikation. Foto: Robert and Patricia Switzer Foundation

Es war ein 15-wöchiger Kurs für Doktorand*innen aus MINT-Disziplinen, also Mathematik, Informatik, Naturwissenschaft und Technik. Diese haben sich zweimal in der Woche für anderthalb Stunden getroffen. Im Kurs selbst haben wir einschlägige Literatur über Wissenschaftskommunikation gelesen, zum Beispiel zur Vertrauenswürdigkeit der kommunizierenden Personen. Wir haben Übungen zum Kommunikationsverhalten von Wissenschaftler*innen und zum Thema Framing gemacht. Zusätzlich haben die Teilnehmer*innen zweimal Probe-Interviews mit Journalismus-Studierenden über ihre Forschung geführt. Die Interviews wurden gefilmt und der Klasse gezeigt. In einem Feedback-Prozess haben wir versucht herauszufinden, was die Journalist*innen verstanden haben und was sie verwirrend fanden.

Wie haben Sie gemessen, was die Studierenden in dem Kurs gelernt haben?

Am Anfang des Kurses haben wir sie gefragt: „Wie würden Sie jemandem, der kein*e Wissenschaftler*in ist, erklären, wie Wissenschaft funktioniert? Sie haben drei Minuten Zeit, sprechen Sie in die Kamera.“ Dieselbe Aufgabe haben die Studierenden am Ende des Semesters bekommen. Wir hatten erwartet, dass sie beim zweiten Mal alles anwenden, was sie im Kurs gelernt haben. Wir hatten auch eine Kontrollgruppe von Doktorand*innen, die nicht im Kurs waren. Die Kontrollgruppe hat am Anfang und am Ende des Semesters die gleiche Aufgabe bekommen. Die Filmaufnahmen der beiden Gruppen haben wir dann Bachelor-Studierenden gezeigt. Zu der Filmaufnahme, die die Kursteilnehmenden machen sollten, gab es keinen Input von uns – abgesehen von dem, was wir im Unterricht gelehrt hatten. 

Laut der Bewertungen durch die Studierenden gab es keine großen Unterschiede zwischen den Kursteilnehmenden und der Kontrollgruppe. Was bedeutet das?

Zuerst einmal: Wir glauben nicht, dass die Studierenden nichts in dem Kurs gelernt haben.

Sicherlich wissen sie auf einer intellektuellen Ebene, was wichtig ist, wenn sie mit der Öffentlichkeit kommunizieren. Was die Ergebnisse aber zeigen, ist, dass sich ihr Verhalten zu wenig ändert, wenn das darum geht, aktiv zu kommunizieren. Die Zuschauer*innen bewerten die Videos vom Ende des Kurses nicht viel anders als jene, die am Anfang des Semesters aufgenommen wurden. Das ist so, als wenn ich nach 15 Wochen Tenniskurs den Ball immer noch nicht übers Netz spielen kann. Die Leute, die den Kurs nicht besucht haben, konnten den Ball auch nicht übers Netz schlagen. Aber sie haben auch keine Zeit investiert, um es zu lernen. Was auffällt, ist, dass es nicht gelingt, das Gelernte so in die Praxis umzusetzen, dass das Publikum etwas davon bemerkt. 

Wie wurde denn bewertet?

„Was auffällt, ist, dass es nicht gelingt, das Gelernte so in die Praxis umzusetzen, dass das Publikum etwas davon bemerkt.“ Margaret Rubega
Die Zuschauer*innen sollten mit Noten bewerten, ob der Vortrag klar ist, ob das Thema interessant dargestellt wird und ob die Vortragenden vertrauenswürdig und engagiert erscheinen. Was die Anschaulichkeit betraf, verbesserten sich die Kursteilnehmenden mit der Zeit ein bisschen. Sie steigerten sich aber nicht stärker als die Kontrollgruppe. Der Verbesserungseffekt rührt einfach daher, dass man eine Aufgabe zweimal macht. Man denkt nach dem ersten Mal: „Hmm, vielleicht hätte ich das anders sagen sollen.“ Beim zweiten Mal macht man es dann etwas besser. 

Denken Sie, dass die Ergebnisse anders aussehen würden, wenn es einen stärkeren Zusammenhang zwischen der Aufgabenstellung und den Kursinhalten gegeben hätte? 

Das ist eine gute Frage. Es gab einen Zusammenhang zwischen dem Kursinhalt und der Aufgabe, die die Studierenden bekamen. Wir hätten auch Übungen aus dem Kurs nehmen können – Interviews oder schriftliche Aufgaben – und diese dann von den Zuschauer*innen bewerten lassen. Aber zu diesen Aufgaben hatten die Studierenden schon Feedback von uns bekommen. Unsere Expertise steckte dort also schon drin. Der Beweis dafür, dass jemand etwas gelernt hat, ist erbracht, wenn er*sie eine Aufgabe bewältigt, die zwar in Beziehung zum Unterrichtsstoff steht, sich aber davon unterscheidet. Wir haben die Frage nach der Funktionsweise von Wissenschaft gewählt, weil sie sich nicht auf eine bestimmte Disziplin bezieht. Hypothetisch sollte sie jede*r der Kursteilnehmenden mit den Tools aus dem Kurs beantworten können.

Ist es vielleicht ein zu großes Ziel, über Wissenschaft im Allgemeinen sprechen zu können?

Ich glaube, es geht nicht darum, allgemein über Wissenschaft zu reden. Es geht darum, über das Gebiet zu reden, in dem man Expertise hat. Wenn du als Wissenschaftskommunikator*in etwas gefragt wirst, was du nicht weißt, dann solltest du sagen: Das weiß ich nicht. Aber alle Wissenschaftler*innen sollten wissen, wie der wissenschaftliche Prozess funktioniert. Es ist wichtig, dass wir bewerten, ob das, was wir mit Studierenden tun, funktioniert oder nicht. Wenn wir nur annehmen, dass es funktioniert, ist das keine gute Art, Zeit und Ressourcen einzusetzen. Ich denke, die Ergebnisse legen nahe, dass Studierende viel mehr Übung brauchen, als wir denken. Auch Tennis lernt man nicht, indem man darüber redet. Man lernt es, indem man immer und immer wieder versucht, den Ball übers Netz zu bekommen.

Was zeigen Ihre Ergebnisse noch?

„Ich denke, die Ergebnisse legen nahe, dass Studierende viel mehr Übung brauchen, als wir denken.“ Margaret Rubega
Interessant ist, wie das Publikum die Vortragenden bewertet: Es gibt sehr große Variationen zwischen den Bewertenden. In anderen Worten: Sie sind sich nicht wirklich einig, ob jemand klar, interessant und glaubwürdig ist. Das könnte bedeuten, dass wir falsche Vorstellungen davon haben, worauf das Publikum reagiert. Wenn man gute Kommunikation definiert, sollte man ein vorhersehbares Ergebnis bekommen. Wenn das nicht so ist, kann das heißen, dass unsere Ideen davon, was beim Publikum gut ankommt, nicht ganz richtig oder sogar komplett falsch sind.

Die Ergebnisse Ihrer Studie zeigen auch, dass die Studierenden sich selbst besser bewerteten, als es die Zuschauer*innen taten. Was bedeutet das für die Wissenschaftskommunikation? 

Diese Beobachtung kennen wir schon seit Jahrzehnten aus anderen Bereichen. Wenn man am Ende eines Trainings fragt: „Wie war es? Glaubst du, dass du jetzt besser bist?“, kann man davon ausgehen, dass Leute dazu tendieren, sich zu überschätzen. Das ist problematisch, aber weit verbreitet. Solche Befragungen sind ein einfacher Weg, um zu erfahren, wie das Training lief. Leider ist das, was du wirklich wissen willst nicht, was Leute glauben, gelernt zu haben. Es ist zwar auch wichtig, dass Menschen aus dem Training kommen und für das Thema brennen. Aber wenn man wissen will, ob sie danach bessere Kommunikator*innen sind, muss man das Publikum fragen.

In Ihrer Studie untersuchen Sie eine Stichprobe von insgesamt 30 Kursteilnehmer*innen und 30 Personen in der Kontrollgruppe. Ist das genug, um daraus Schlussfolgerungen zu ziehen?

„Für mich ist unklar, ob man in einem so kurzen Zeitraum genug Praxis bekommen kann, um einen großen Effekt zu erzielen. Das müssen wir erforschen.“ Margaret Rubega
Ob wir eine größere Stichprobe gewollt hätten? Auf jeden Fall. Große Stichproben sind aber vor allem dann wichtig, wenn man keine so große experimentelle Kontrolle hat. Wenn ich kein gutes Tool habe, brauche ich eine große Stichprobe, um einen Effekt zu sehen. Aber weil wir wussten, dass es logistisch sehr schwierig werden und viel Zeit brauchen würde, eine große Stichprobe für einen Kurs zu bekommen, der 15 Wochen dauert, und man nur eine bestimmte Gruppengröße unterrichten kann, haben wir stattdessen viel intensiver an der experimentellen Kontrolle gearbeitet. Die Studierenden kamen aus verschiedenen Disziplinen, standen auf verschiedenen Stufen ihrer akademischen Karriere, waren zu gleichen Teilen Männer und Frauen. Einige von ihnen hatten Englisch nicht als Muttersprache gelernt. Wir stellten sicher, dass wir die gleichen Kriterien für die Kontrollgruppe anwandten. Alle Faktoren, die eine kleine Stichprobe problematisch machen könnten, haben wir im experimentellen Design kontrolliert. Ich denke deshalb, dass das Ergebnis sehr aussagekräftig ist. Ob wir mit einer anderen Gruppe von Leuten ein anderes Ergebnis bekommen würden? Das könnte sein. Aber ich glaube nicht, dass die Ergebnisse zufällig sind. Wir denken, dass 30 Studierende reichen, um einen großen Effekt zu zeigen, wenn die Trainings sehr gut funktioniert hätten. Es ist möglich, dass es einen kleinen Effekt gibt. Aber es ist klar, dass es keinen großen Effekt gibt. 

Was wären mögliche Schlussfolgerungen aus den Ergebnissen? 

Ich weiß nicht, was die Lösung sein könnte. Ich habe nur die Vermutung, dass Praxis wichtig ist und wir mehr davon brauchen. Für mich ist unklar, ob man in einem so kurzen Zeitraum genug Praxis bekommen kann, um einen großen Effekt zu erzielen. Das müssen wir erforschen. Wir glauben, das wichtigste Ergebnis der Studie ist, dass wir, die wir Wissenschaftskommunikator*innen ausbilden, mehr darüber sprechen müssen, was wir tun, wie wir es tun und wie wir feststellen, ob wir damit Studierende zu besseren Wissenschaftskommunikatikator*innen machen.

Haben Sie weitere konkrete Forschungsfragen? 

Eine wichtige Forschungsfrage, die sich daraus ergibt, ist: Warum ist sich dieses relativ homogene Publikum nicht darüber einig, was gute Kommunikation ist? Eine andere wichtige Frage ist: Wie können wir unterschiedliche Arten von Trainings vergleichen? Und ich glaube, da ist noch eine wichtige Frage: Warum setzen Studierende die Dinge, die wir ihnen beibringen und die sie theoretisch wissen, nicht in die Praxis um? Ich glaube, dass jemand, der an solchen Kursen teilnimmt, durchaus Bedeutsames mitnimmt. Aber was hindert sie daran, etwas, das sie als Wert begreifen, tatsächlich umzusetzen?

Rubega, M., Burgio, K. R., MacDonald, A. M., Oeldorf-Hirsch, A., Capers, R. S., Wyss, R. (2021). Assessment by Audiences Shows Little Effect of Science Communication Training. Science Communication. https://doi.org/10.1177/1075547020971639