Foto: Possessed Photography

Evaluation von den Zielen her denken!

Kurzfristige Begeisterung oder langfristiges Interesse? Dorothe Kienhues und Friederike Hendriks blicken aus psychologischer Sicht auf das Thema Evaluation in der Wissenschaftskommunikation und fordern, bewusster zu definieren, was Kommunikationsmaßnahmen bewirken sollen. 

Die Evaluation von Wissenschaftskommunikation wird in der Praxis zunehmend als wichtig empfunden und auch durchgeführt – ist aber bei weitem noch nicht so etabliert, dass ihre positiven Effekte voll wirken könnten. Aus Sicht der Psychologie zeichnet sich Evaluation explizit durch die Anwendung von Methoden der empirischen Sozialforschung aus. So wird eine verlässliche, rationale Grundlage für zielgerichtete Optimierungen und Entscheidungen geschaffen. Das Thema Evaluation hat damit Überschneidungen mit Begleitforschung zu Wissenschaftskommunikation. Allerdings kann letztere auch „nur“ dem reinen Erkenntnisgewinn ohne eine Bewertung dienen, zum Beispiel dem besseren Verständnis bestimmter Wirkungen und Wirkweisen von Wissenschaftskommunikation. 

Derzeit findet in der Wissenschaftskommunikation (noch) nicht immer eine systematische Überprüfung von Maßnahmen statt. Dies kann verschiedene Gründe haben, etwa fehlende Ressourcen und Zuständigkeiten, Unwissen, zu geringe Erwartungen an Evaluation, Widerstand gegenüber dem Aufdecken unerwünschter Effekte oder kurze Laufzeit und Einmaligkeit von Projekten. Damit wird das Potenzial von Evaluation vielfach nicht ausgeschöpft, denn sie könnte rationale, empirische Antworten auf Fragen nach der Wirksamkeit (Ist ein Programm effektiv?), nach der Akzeptanz (Sind die Adressat*innen der Kommunikation von einer bestimmten Maßnahme eher überzeugt?) oder auch nach der Qualität einer Maßnahme (Ist meine Maßnahme gut im Sinne eines zuvor bestimmten Kriterienkatalogs?) bereitstellen. Und sie kann so auch Entscheidungen begründen und Argumente für den Dialog mit dem Projektträger (der Universität, dem Förderer) liefern (Soll ein Projekt fortgesetzt werden?).

Zielklarheit als Startpunkt gelingender Evaluation

„Nur wenn Klarheit über die Ziele besteht, kann auch eine entsprechend aussagekräftige Evaluation geplant werden.“
Evaluation kann also durchaus unterschiedliche Funktionen haben. Sie strebt aber immer danach zu erfassen, ob die Ziele erreicht werden konnten, die bei der Planung des Vorhabens gesteckt wurden. Die Ziele des Vorhabens können dabei unterschiedlich sein – dazu kommen wir gleich – entscheidend ist aber, dass diese möglichst präzise durchdacht und formuliert werden. Nur wenn Klarheit über die Ziele besteht, kann auch eine entsprechend aussagekräftige Evaluation geplant werden. 

Häufig werden für motivierende und überprüfbarer Zielvereinbarungen die Kriterien der SMART-Methode1 2herangezogen. Ein Ziel gilt als „S-M-A-R-T“, wenn es S-pezifisch, M-essbar, A-ktivierend, R-ealistisch und T-erminiert ist. Ein Beispiel: Eine Universität bietet auf ihren Webseiten einen Podcast zur Wissenschaftskommunikation an, Ziel sind mehr Zugriffe auf die Website als im Jahr zuvor (Spezifizität), beobachtet werden also Zugriffszahlen (Messbarkeit) und zwar ein Jahr lang (Terminiertheit). Aktivierend wird ein Ziel, wenn es erreichbar ist, aber trotzdem einer gewissen Anstrengung bedarf. Hier könnte zum Beispiel festgelegt werden, dass jeden Monat ein neuer Podcast hinzukommt. Im Sinne der SMART-Regel bedeutet „Realistisch“ erst einmal nur, dass das Ziel machbar sein sollte. 

Insgesamt erscheint uns die SMART-Zielsetzung unverhältnismäßig oberflächlich für die Evaluation von Wissenschaftskommunikation. In der Regel möchte man ja vor allen Dingen auch wissen, ob die kommunizierte Information Auswirkungen auf das Denken oder sogar Handeln der Menschen hat. Für diese Art von Zielen bringt es (zu) wenig, entlang der SMART-Regel beispielsweise eine gewisse Anzahl Podcasts in der festgelegten Regelmäßigkeit zu erzeugen, aber die anvisierten Auswirkungen bei den Hörer*innen nicht zu elaborieren. Was soll also erreicht werden: Mehr Wissen? Mehr Vertrauen? Mehr Unterhaltung? Eine Verhaltensänderung?

Diese Benennung zu verändernder Faktoren bietet zugleich eine Metaperspektive, denn sie geht mit der Frage nach realistischen Zielsetzungen einher: Was kann eigentlich durch Wissenschaftskommunikation erreicht werden – und was sind unrealistische (oder auch nicht notwendige) Ziele? Vielleicht macht es bei vielen Projekten wenig Sinn, zu sehr auf Zuwachs von Wissen zu hoffen. So ist es vermutlich nicht zwingend, dass man nach dem Besuch einer wissenschaftsbezogenen Ausstellung, zum Beispiel zur Sichtbarmachung von Prozessen in Zellen mehr über solche Prozesse weiß, diese Prozesse also wirklich verstanden hat. Möglicherweise ist das naheliegendere Ziel, dass die Besucher*innen den Eindruck gewinnen, dass die Wissenschaftler*innen wissen, was sie tun, und dass sie dies zum Wohle der Menschen tun und dass die aktuellsten Möglichkeiten bildgebender Verfahren schlichtweg faszinierend sind. Daher berühren die vorbereitenden Fragen von Evaluation Kernfragen der Mission von Wissenschaftskommunikation, wie etwa die Frage, ob Vertrauen oder Faszination lautere Ziele sind.

„Für die ganz konkrete Planung von Evaluation bedeutet dies, gerade aus Sicht der Psychologie: Macht euch Gedanken über Ziele und deren Messung!“
Für die ganz konkrete Planung von Evaluation bedeutet dies, gerade aus Sicht der Psychologie: Macht euch Gedanken über Ziele und deren Messung! Als Beispiel das Konzept „Interesse“, das unter anderem in Begleitforschung zu Schülerlaboren gut untersucht und etwa durch Fragebögen messbar gemacht wurde. Hier muss vorab geklärt werden, was die Maßnahme erreichen soll und kann. Wenn ein Besuch von Mädchen im Schülerlabor geplant wird, ist dann das Ziel, dass diese nachher MINT-Fächer wählen (dispositionales Interesse fördern)? Die Forschung zeigt34: Um eine nachhaltige Entwicklung von Interesse anzuregen, braucht es einige Zeit, also langfristige Programme. Naheliegender für einen kurzen Besuch im Labor wäre daher, zunächst einmal situationales Interesse anzuregen (etwa Lust machen, mehr zu lernen) – und eben auch zu messen. 

Evaluationsplanung liefert Innovationspotential 

Durch das Spezifizieren der Ziele einer Maßnahme und der darauf abgestimmten Planung einer Evaluation kann und sollte also wiederum ein Überprüfen der dazugehörigen Ziele anregt werden. Dieser Feedback-Prozess der Evaluation auf die Gestaltung von Wissenschaftskommunikation lässt sich anhand der Methode des Constructive Aligment nach Biggs5 erläutern: Hier geht es darum, eine Lehrveranstaltung von den Zielen her zu denken. Dabei werden Lernziele unterschiedlichen Stufen zugeordnet6: beispielsweise steht „Erinnern“ auf einer niedrigeren Stufe als „Analysieren“. Auf der höchsten Stufe steht „Erschaffen“. Auf den Laborbesuch übertragen hieße das, dass auf niedrigeren Stufen vielleicht „Zielgruppe erreicht“ steht, auf höheren „situationales Interesse geweckt“ und ganz oben „nachhaltig zur Mitarbeit begeistert“. Im zweiten Schritt des Constructive Alignment folgt dann die Erstellung einer Prüfung. Dies dient dazu festzulegen, was es eigentlich heißt, eine Kompetenz zu besitzen. Es beschreibt also die Phase der Operationalisierung, der Messbarmachung. Schlussendlich wählt man dann Lerngelegenheiten aus: Wie können die festgelegten Kompetenzen so gefördert werden, dass Lernende in der Prüfung erfolgreich beweisen können, dass sie diese erlernt haben? 

Das zeigt, dass man auch in der Wissenschaftskommunikation Gelegenheiten bieten muss, die zur Zielerreichung dienen. So kann situationales Interesse beispielsweise kurzfristig entstehen, wenn die Schülerinnen in Gruppen experimentieren können. Doch wie kann Interesse nach einem Besuch längerfristig erhalten werden? Über den Fokus auf inhaltliche Ziele im Rahmen von Evaluation – und die genaue Festlegung durch ihre Messung – können also auch inhaltliche Aspekte des Kommunikationsprojektes kritisch hinterfragt werden.

„Ein stärkerer Austausch von Forschung und Praxis wäre fruchtbar für beide Seiten.“
Uns ist es wichtig, Evaluation nicht nur als Selbstzweck zu sehen (oder zur Legitimation gegenüber Projektträgern), sondern auch ihr Innovationspotential zu nutzen. Für eine erfolgreiche Auseinandersetzung mit Evaluationszielen und den dahinterliegenden Konzepten können etablierte Testverfahren aus den Sozial- und Bildungswissenschaften zur validen und verlässlichen Messung herangezogen werden. Mit diesen lassen sich beispielsweise Wissen über wissenschaftliche Inhalte und Methoden erheben, aber auch Emotionen, Vorstellungen zur Natur des Wissens und des Wissenserwerbs (epistemische Kognition), themenbezogene Einstellungen, bis hin zu Vertrauen in Wissenschaft. Die Wissenschaftskommunikationsforschung kann also Evidenz zu Inhalten und Messung von Evaluation beitragen und könnte zukünftig noch einiges mehr bereitstellen. Wünschenswert wären Initiativen zur systematischen Aufarbeitung von Forschungsergebnissen für die direkte Kommunikation und Umsetzung in der Praxis – analog zu Initiativen aus der Bildungsforschung (etwa Clearing House Unterricht der TUM; Systematische Reviews des DIPF). 

Nicht zuletzt sollte die Begleitung von Kommunikationsmaßnahmen durch Wissenschaftskommunikationsforscher*innen mitgedacht werden. Ein stärkerer Austausch von Forschung und Praxis wäre fruchtbar für beide Seiten. So kann Evaluation auch einen Dialog anregen: Wissenschaftskommunikator*innen verständigen sich darüber, was der Evaluationsgegenstand sein soll, aber eben auch darüber, was „gute“ Wissenschaftskommunikation ist. Sie können dann auch Forderungen stellen: Welche Informationen aus und welche Zusammenarbeit mit der Wissenschaftskommunikationsforschung braucht es?