Wie zeichnen sich Telegram-Kanäle von Impfgegner*innen aus? Welche ethischen Fragen beschäftigen Wissenschaftskommunikator*innen? Und was treibt Stakeholder in China, Deutschland und den USA beim Thema künstliche Intelligenz um?
Ethik in der Wisskomm: Neues aus der Forschung
In unserem monatlichen Forschungsrückblick besprechen wir aktuelle Studien zum Thema Wissenschaftskommunikation. In diesem Monat geht es um Ethik, Fake News und KI.
- Woran denken Forscher*innen und Praktiker*innen, wenn sie sich. mit Ethik in der Wissenschaftkommunikation beschäftigen? Ein Team von britischen Wissenschaftler*innen hat dazu Gespräche geführt.
- Wodurch zeichnen sich impfgegnerische Kanäle auf Telegram aus? Und wie kann man sie erforschen? Ein litauisches Forschungsteam hat einen konzeptionellen Rahmen entworfen und diesen an Beispielen getestet.
- Wie sieht eine wünschenswerte Zukunft in Sachen künstlicher Intelligenz aus? Ein Forschungsteam hat dazu Stakeholder aus China, Deutschland und den USA befragt.
- In der Rubrik „Mehr Aktuelles aus der Forschung“ geht es unter anderem um Visualisierungen von KI.
Welche Rolle spielt Ethik für Wissenschaftskommunikator*innen?
Es wird viel darüber diskutiert, wie „gute Wissenschaftskommunikation“ aussehen kann –vor allem im Sinne von „gelungener Wisskomm“. Inwieweit spielen dabei ethische Überlegungen eine Rolle – sei es zur Kommunikation von Unsicherheiten, zur Ansprache auf Augenhöhe oder zur Einbeziehung vielfältiger Perspektiven in der Forschung? Auch globale Herausforderungen wie die Klimakrise, die Coronapandemie und politische Konflikte erfordern ethische Abwägungen und Positionierungen. Bisher sei jedoch wenig darüber bekannt, wie Forscher*innen und Praktiker*innen ethische Dimensionen in der Wissenschaftskommunikation berücksichtigen, schreiben Clare Wilkinson von der UWE Bristol, Michael Parker und Milly Farrell von der University of Oxford zusammen mit Aleksandra Stelmach vom King’s College London. Die Forscher*innen sind dieser Frage in Interviews und Fokusgruppengesprächen in England nachgegangen.
Methode: Die Pilotstudie konzentrierte sich auf die Städte Bristol und Oxford, in denen es jeweils zwei Universitäten gibt, die unterschiedliche Schwerpunkte erforschen. An den Fokusgruppen, die online oder hybrid stattfanden, nahmen jeweils fünf Forschende unterschiedlicher Karrierestufen teil, die an verschiedenen Wissenschafts- und Gesundheitsthemen arbeiten.
Die Fokusgruppen-Gespräche und Interviews wurden aufgezeichnet, transkribiert und mithilfe der Software NVivo 14 einer reflexiven thematischen Analyse unterzogen. Diese konzentrierte sich auf Bedeutungszuschreibungen und reflektierte Annahmen sowie Widersprüche und Unsicherheiten in den Gesprächen sowie die Rolle der Forschenden selbst.
Ergebnisse: Die wichtigsten Themenfelder, die die Autor*innen identifizierten, waren: Beziehungen, Vertrauen, Hierarchien und Macht. Die Teilnehmenden berichteten beispielsweise von hierarchischen Beziehungen zwischen Museen und Universitäten. Teilweise „betrachteten“ („to look at“) Forscher*innen Museen eher als dass sie mit ihnen „zusammenarbeiteten“ („to collaborate with“), hieß es. Forschende hingehen berichteten über hierarchische Beziehungen zwischen unterschiedlichen Disziplinen innerhalb der Wissenschaft.
Insgesamt wurde die Bedeutung von Respekt und Verständnis bei der Zusammenarbeit in Wissenschaftskommunikations-Projekten hervorgehoben. Die Teilnehmenden warnten vor Defizitansätzen, die von vornherein von einem Mangel an Wissen oder einer negativen Einstellung gegenüber der Wissenschaft bei anderen Personen ausgingen. Auch wurde betont, dass Wissenschaftskommunikation nicht mit PR verwechselt werden dürfe. Kommunikator*innen sollten stattdessen offen für Austausch sein.
Bei einigen Teilnehmenden, die viel kommunizieren und sich stark engagieren, zeigte sich in den Gesprächen ein ausgefeiltes Verständnis für die ethischen Dimensionen der Kommunikation mit der Öffentlichkeit. Sie sorgten sich jedoch, dass dies von Kolleg*innen oder Forschenden, die seltener kommunizieren, nicht geteilt werde. Praktiker*innen berichteten oft, dass sie sich in einer vermittelnden Position befänden, denn sie trügen die Verantwortung gegenüber den Communities, mit denen sie zusammenarbeiten. Einige beschrieben, wie Forschende im Kontakt mit lokalen Communities aus einer privilegierten Position heraus handelten und dabei hierarchische Beziehungen entstünden.
Sowohl Praktiker*innen als auch Forschende kritisierten, dass Projekte häufig nur kurzfristig finanziert seien. Man müsse sich oft schon um das nächste Projekt kümmern, bevor eines abgeschlossen sei. Das wirke sich negativ auf das Engagement aus und verhindere, dass nachhaltige Beziehungen aufgebaut werden können.
Viele Teilnehmende betonten, dass öffentliche Kommunikation und Input von außen wichtig für ethische und verantwortungsvolle Forschung seien. Ethische Aspekte wurden auch angesprochen, wenn es um die Kommunikation der Auswirkungen von Forschung geht, beispielsweise von CRISPR oder selbstfahrenden Autos. Es wurden auch Fälle diskutiert, in denen es aus ethischen Erwägungen nicht geraten sei, zu kommunizieren, beispielweise wenn es um persönliche Daten gehe.
Die Teilnehmenden dachten auch über mögliche schädliche Folgen von Kommunikation und Partizipation nach. Einige Projekte konzentrierten sich beispielsweise zu sehr auf die Bedürfnisse der Forschung, andere würden Teilnehmende ermüden oder desillusionieren. Auch wurden negative Folgen für Forschende diskutiert – beispielsweise, wenn sie sich unter Druck fühlten, sich zu engagieren, das eigentlich aber nicht leisten können oder wenn ihre Sicherheit gefährdet sei, weil sie in kontroversen Forschungsbereichen arbeiten. Was das institutionelle Umfeld angehe, sprachen viele Forschende Dekolonisierung im akademischen Kontext als wichtigstes ethisches Thema an.
Schlussfolgerungen: Häufig wurde die Notwendigkeit betont, Wissenschaftskommunikationsmaßnahmen sorgfältig auf ihre Auswirkungen zu prüfen. Es zeigte sich, dass es bei der Zielsetzung zu Spannungen zwischen den verschiedenen Beteiligten kommen kann. Lokale Communities, Forschende und Institutionen haben mitunter unterschiedliche Prioritäten und Vorstellungen. Das deutet laut der Autor*innen darauf hin, dass die normativen Aspekte von Wissenschaftskommunikation Gegenstand von Verhandlungen seien. Die praktische Aushandlung ethischer Lösungen sei Teil von Kommunikations- und Partizipationsprozessen.
Wichtig waren die Themen Gleichstellung, Diversität und die Inklusion vielfältigen Wissens, die Vermeidung diskriminierender Praktiken und die Berücksichtigung physischer, sozialer und kultureller Barrieren bei der Partizipation. Die vielen Kommentare zur Dekolonisierung deuteten auf den Wunsch hin, dass das Thema zentraler Teil von Bildung und Wissensvermittlung sein solle.
Sowohl die befragten Forschenden als auch die Praktiker*innen zeigten ein großes Bewusstsein für die potenziellen (negativen) Auswirkungen von Wissenschaftskommunikationsprojekten. Es zeigte sich jedoch auch, dass die Teilnehmenden sich mit ihren ethischen Überlegungen oft einsam fühlten und nicht das Gefühl hatten, unterstützt zu werden. Die Fokusgruppengespräche und Interviews wurden deshalb laut der Autor*innen als willkommene Gelegenheit angesehen, sich über diese Fragen auszutauschen. Die Perspektiven von Praktiker*innen und Forscher*innen könnten nützlichen Input für die Entwicklung von Leitlinien liefern, schreiben die Autor*innen. Denn bisher fehle es an Orientierung, was die ethischen Aspekte von Wissenschaftkommunikation betreffe.
Einschränkungen: Die Haupteinschränkung der Studie betrifft die kleine Stichprobengröße und den Fokus auf nur zwei Städte in Großbritannien. In den Gesprächen verschwammen die Grenzen zwischen Forschung, Kommunikation und Engagement – was im Kontext von Koproduktion und Co-Kreation jedoch unvermeidlich sei, schreiben die Autor*innen.
Skarzauskiene A, Maciuliene M, Dirzyte A and Guleviciute G (2025) Profiling antivaccination channels in Telegram: early efforts in detecting misinformation. Front. Commun. 10:1525899. doi: 10.3389/fcomm.2025.1525899
Wie wird die Zukunft von KI verhandelt?
Was wir unter KI verstehen, wie sie entwickelt, genutzt und reguliert wird, ist Teil eines gesellschaftlichen Aushandlungsprozesses. Dabei spiele der Einfluss mächtiger Interessengruppen eine große Rolle, schreiben Vanessa Richter von der Universität Amsterdam, Christian Katzenbach von der Universität Bremen und Jing Zeng von der Universität Zürich. Die drei Forscher*innen haben Interviews mit Stakeholdern aus Industrie, Wissenschaft, Medien und Nichtregierungsorganisationen in China, den USA und Deutschland geführt. Ziel war, die Verhandlungen und Machtdynamiken zu untersuchen, die Diskurse um künstliche Intelligenz in diesen drei Ländern prägen. Dabei stützen sie sich auf das Konzept soziotechnischer Vorstellungen (,Sociotechnical Imaginaries‘) als kollektive, institutionell stabilisierte Vorstellungen davon, welche Zukünfte wünschenswert erscheinen. Solche Imaginationen könnten einen erheblichen Einfluss darauf haben, wie zu KI geforscht und wie diese reguliert wird, schreiben die Autor*innen.
Methode: Grundlage der Studie bilden 40 Interviews mit KI-Expert*innen aus Deutschland, den USA und China – also drei Ländern, in denen KI-Entwicklung eine wichtige Rolle spielt. Unter den Befragten waren unter anderem Mitarbeitende hochrangiger Technologieunternehmen, Forschende von KI-Forschungsclustern oder Redakteur*innen bei Tech-Zeitschriften. Die Fragen bezogen sich auf ihr Verständnis von KI, die Rolle und die Ziele der Nutzung von KI in ihrer Institution und die dazugehörige Kommunikationsstrategie. Die Interviews dauerten zwischen 30 und 60 Minuten und wurden persönlich oder online geführt.
Die Interviews wurden automatisch transkribiert und manuell überarbeitet. Dann wurden sie kodiert und Memos erstellt. Dabei wurden übergreifende Themen identifiziert und die Entwicklung von Vorstellung über die verschiedenen Interessengruppen hinweg kartiert. Die Ergebnisse für die drei Länder wurden verglichen und kontextualisiert.
Ergebnisse: Die Ergebnisse zeigen klare Unterschiede, aber auch einige Gemeinsamkeiten der soziotechnischen Vorstellungen in Bezug auf KI. Die Autor*innen haben die jeweils dominanten Vorstellungen untersucht.
KI-Vorstellungen in Deutschland
- In Deutschland zeigt sich einerseits ein Fokus auf stärkere Regulierung und andererseits ein Wunsch nach mehr Innovationen und Offenheit.
- Privatsphäre, Datenschutz und demokratische Ideale in der KI-Regulierung und -Innovation werden häufig als europäische Werte bezeichnet. Diese werden als zentrale Wettbewerbsfaktoren für ,ethische Innovationen‘ gesehen.
- Eine dominante soziotechnische Vorstellung, die vor allem von staatlichen Akteuren, Industrieverbänden und NGOs vertreten wird, bezeichnen die Autor*innen als „Wettrennen um digitale Souveränität“. Die USA und China werden darin oft als globale Gegenspieler begriffen.
- „KI als Werkzeug in menschlicher Kontrolle“ sei die zweite dominante Vorstellung, die unter anderem in den Medien vertreten wird. Der Fokus wird auf Handlungsfähigkeit und Verantwortung von Menschen gelegt. KI wird als intelligentes Werkzeug, nicht als Ersatz für Menschen gesehen. Aufgrund potenzieller Risiken sei es wichtig, dass Menschen die Vor- und Nachteile von KI verstünden.
- Die dritte dominante Vorstellung wird durch „KI-Kooperation für Innovation“ gekennzeichnet. Hier wird der Fokus auf eine Zusammenarbeit zwischen deutschen und internationalen KI-Akteuren in der Entwicklung und Regulierung gelegt, damit Deutschland im Wettbewerb eine Chance habe.
KI-Vorstellungen in den USA
- In den USA wechseln die Interessenvertreter*innen häufig zwischen den drei Bereichen Wissenschaft, Industrie und NGOs. Nichtregierungsorganisationen profitieren von der Finanzierung durch die Industrie, widersprechen aber oft deren Ansichten.
- Auch hier zeichnen sich drei dominante Vorstellungen ab: die Regierung und die Industrie vertreten vor allem die Idee eines „KI-Wettlaufs um die globale (politische) Vorherrschaft“. KI wird als Technologie gesehen, die das Potenzial hat, die Vorherrschaft der USA zu stärken. Die Vorstellung eines „KI-Wettlaufs“ wird auch angeführt, um Ängsten in der Bevölkerung, beispielsweise in Bezug auf den Wegfall von Arbeitsplätzen, zu begegnen. Die USA werden in dieser Vorstellung als Innovationstreiber und Europa als regulierende Kraft betrachtet.
- „KI als Schlüsseltechnologie für die Zukunft“ ist die zweite dominante Vorstellung, die vor allem von der Industrie vertreten wird. Im Zentrum stehen die Unternehmen des Silicon Valley und wirtschaftliche Ziele, auch wenn in der öffentlichen Kommunikation viel Wert auf das gesellschaftliche Wohl gelegt wird. Die großen Akteure in der Branche verfügen laut der Befragten inzwischen über Ethikabteilungen, die jedoch begrenzte Befugnisse hätten. Es gelte nach wie vor das Ideal „Innovation vor Regulierung“.
- Diese Diskrepanz spiegelt sich auch in der dritten dominanten Vorstellung „KI als Werkzeug“ wider, die von Akademiker*innen, Nichtregierungsorganisationen, Forscher*innen und Journalist*innen vertreten wird. KI wird als etwas betrachtet, das durch Menschen gesteuert wird und einer technikbezogenen Kritik bedarf. Es wird Bedarf an Regulierung und Verantwortung von KI-Technologien betont. Es brauche „eine Stimme der Vernunft“, um der Panikmache und dem Hype rund um künstliche Intelligenz entgegenzutreten.
KI-Vorstellungen in China
- Chinas Akteurslandschaft wird von einem starken Top-Down-Einfluss der Zentralregierung geprägt. Anders als in Europa und den USA spielen unabhängige, zivilgesellschaftliche Akteure und die Wissenschaft nur eine begrenzte Rolle.
- In der ersten dominanten Vorstellung, die von vielen Interessengruppen geteilt wird, gilt KI als „vertrauenswürdige Allzwecklösung“ für viele gesellschaftliche Herausforderungen wie soziale Ungleichheit, demografische Krisen und Kriminalität. Befragte sagten, dass der Nutzen der Technologie für viele Menschen ausschlaggebender sei als Bedenken in Bezug auf Privatsphäre und Datensicherheit. Außerdem hätten viele Chines*innen großes Vertrauen, dass Daten nicht missbraucht werden (können).
- Die zweite dominante Vorstellung ist die von „China als stolpernde KI-Supermacht“. Einerseits ist KI-Entwicklung eine Quelle nationalistischen Stolzes, es werden aber auch Probleme diskutiert – beispielsweise, dass vor allem große Tech-Giganten und weniger die kleinen, innovativen Teams gefordert würden. Ein weiterer Engpass sei die Abhängigkeit von Halbleitern. Geopolitische Spannungen hätten zu erheblichen Unsicherheiten in Bezug auf die KI-Ambitionen des Landes geführt.
- Die dritte Vorstellung bezieht sich auf die „Tech-Kultur des Landes, die schnelle Gewinne begünstigt, aber langfristig Schaden verursache“. ChatGPT von OpenAI wurde häufig als US-amerikanische Innovation genannt, die in China noch kein Pendant hätte. Viele Befragte äußern sich frustriert über die Diskrepanz zwischen dem Streben nach einer Vormachtstellung und der Realität. Es wurde kritisiert, dass aktuellen Trends hinterhergelaufen werde, statt in langfristige Forschung zu investieren. Auch die Bemühungen um eine Regulierung von KI wurden als „kosmetisch“ kritisiert und die EU als positives Gegenbeispiel herangezogen.
Schlussfolgerungen: In den drei Ländern spielt die Vorstellung um einen Wettlauf in Sachen KI eine wichtige Rolle. Dabei wird vor allem die Rivalität zwischen China und den USA sehr deutlich. In allen drei Ländern herrscht Angst, selbst zurückzubleiben und an wirtschaftlicher Macht zu verlieren. Verschiedene Stakeholder nutzen diese Furcht laut der Forschenden dazu, den KI-Diskurs in ihrem Sinne zu gestalten. Die Industrie etwa mobilisiere Ressourcen und poche auf für sie vorteilhafte Regulierungen. Auch wird die KI-Entwicklung vorangetrieben und dafür gesorgt, dass weltweit enorme Ressourcen in Innovation fließen.
In allen drei Ländern sind zentrale Stakeholder aus unterschiedlichen Bereichen miteinander vernetzt. Die Beziehungen zwischen Wissenschaft und Industrie sind in allen drei Ländern eng. In Deutschland haben zum Beispiel Forscher*innen aus großen Unternehmen Professuren an Universitäten inne und Forschungszentren arbeiten teilweise direkt mit der Industrie zusammen. In den USA sei die Beziehung zwischen Universitäten, akademischen Instituten und der Technologiebranche noch symbiotischer, schreiben die Autor*innen.
Die Interviews zeigen, wie KI als Gegenstand der (Wissenschafts-)Kommunikation zwischen mächtigen Stakeholdern ausgehandelt wird, schreiben die Forschenden. Die Machtverhältnisse zwischen den Interessengruppen variieren von Land zu Land. Dabei habe nicht nur die Industrie großen Einfluss auf den KI-Diskurs, sondern auch der Staat, wie sich besonders in China, aber auch in Deutschland zeige.
Einschränkungen: In China stießen die Forschung an Grenzen, was den Zugang zu bestimmten Stakeholder-Gruppen angeht. Daraus ergeben sich Einschränkungen im Ländervergleich.
Richter, V., Katzenbach, C. and Zeng, J. (2025). ‘Negotiating AI(s) futures: competing imaginaries of AI by stakeholders in the U.S., China, and Germany’. JCOM 24(02), A08. https://doi.org/10.22323/2.24020208
Impfgegner*innen auf Telegram:Profilierung von Kanälen
Telegram präsentiert sich als schneller und sicherer Messenger-Dienst und zieht dadurch auch Nutzer*innen an, die extreme Standpunkte vertreten. Die Verschlüsselung erschwere, Falschinformationen zu erkennen und stelle auch Forschende bei der Datenerhebung vor Herausforderungen, schreiben Aelita Skarzauskiene, Monika Maciuliene, Aiste Dirzyte und Gintare Guleviciute von der Mykolas Romeris University im litauischen Vilnius. Die Forscher*innen stellen einen konzeptionellen Rahmen für die Erforschung von Falschinformationen auf Telegram vor, den sie an einem konkreten Beispiel getestet haben: Kanälen von Impfgegner*innen.
Methode: Auf Grundlage von Forschungsliteratur zu Falschinformationen auf Telegram entwickelten die Forscher*innen einen konzeptionellen Rahmen, der folgende Merkmale von Nachrichten berücksichtigt: (1) Merkmale der Verfasser*innen und Verbreiter*innen: böswillig vs. nicht böswillig, Individuum vs. Gruppe, Mensch vs. Bot; (2) Zielpersonen: Aktivist*innen, Politiker*innen, Wissenschaftler*innen, Minderheiten, unbestimmt; (3) Nachrichteninhalt: sprachliche (unter anderem Verschwörung, Politik, Extremismus, Hassrede, spitzfindige Sprache, Trolling) und visuelle/multimodale Strategien (Dokumentenmanipulation, Diskursmanipulation, ,Beweiscollage‘, ,verteilte Verstärkung‘, ,verschleierte Wissenschaft‘); und (4) sozialer Kontext: aktuelle Krisen, Wahlperioden, Streitthemen.
Eine ,Beweiscollage‘ fasst Informationen aus mehreren Quellen zusammen, um überzeugend zu wirken, während bei der ,verteilten Verstärkung‘ die Kampagnenbetreiber*innen dazu aufrufen, das Material weit zu verbreiten. Die ,verschleierte Wissenschaft‘ wiederum verwendet wissenschaftlichen Jargon, um falschen Behauptungen Glaubwürdigkeit zu verleihen. Die Forscher*innen definieren ,bösartige Kanäle‘ als solche, in denen absichtlich Fake News erstellt, veröffentlicht und verbreitet werden, um persönliche Ziele – beispielsweise finanzielle – zu verfolgen.
Ergebnisse: Die meisten Nachrichten (3.158) wurden als nicht bösartig eingeordnet. Es wurden nur fünf eindeutig bösartige Verfasser*innen identifiziert. Laut der Forscher*innen war es schwierig, allein aufgrund des Nachrichtentextes zwischen Verfasser*in und Verbreiter*in von Nachrichten zu unterscheiden. Auch die Unterscheidung zwischen Einzel- und Gruppenakteur*innen sowie zwischen Menschen und Bots gestaltete sich schwierig. Die Zielgruppen der Nachrichten waren unter anderem Aktivist*innen (1), politische Organisationen (2), die wissenschaftliche/medizinische Gemeinschaft (14). Als inhaltliche Themen wurden häufig Verschwörungstheorien (1.235), Politik (105) und Erfahrungsberichte (141) identifiziert, während Extremismus (6) und Hassreden (21) seltener vorkamen. In der visuellen/multimodalen Kategorie waren Beweiscollagen (1.194) und Diskursmanipulation (67) vorherrschend, während verschleierte Wissenschaft (17) und verteilte Verstärkung (25) seltener beobachtet wurden. Bei vielen Nachrichten fehlten Informationen, um den Kontext zu bestimmen. Häufig gab es einen inhaltlichen Zusammenhang mit aktiven Krisen (1.117) und Eilmeldungen (270); Streitthemen (218) und Wahlperioden (27) wurden seltener identifiziert. Bei der latenten Profilanalyse (LPA) wurden zwei Profile identifiziert.
Erstes Profil:
- Enthält etwa 38,4 Prozent der Kanäle (genauer gesagt 58 Kanäle).
- Es enthält im Vergleich zum zweiten Profil weniger nicht bösartigen Inhalte und mehr bösartige Inhalte.
- Es gibt einen stärkeren Bezug auf Verschwörungstheorien und Krisen sowie stärkere Hinweise auf Techniken der Diskursmanipulation (z.B. Beweiscollagen, „verdeckte Wissenschaft“) und Trolling.
- Häufiger ist die Identität des*r Verfasser*in unklar (z.B. ob Mensch oder Bot).
- Es gibt deutlich häufiger vage Angaben zu den adressierten Zielgruppen.
Zweites Profil
- Es umfasst etwa 61,6 Prozent der Kanäle.
- Es finden sich mehr nicht bösartige Inhalte und weniger bösartige Inhalte
- Es gibt einen stärkeren Bezug zu aktuellen Nachrichten, politischen Ereignissen und Eilmeldungen und mehr politisch orientierte Botschaften.
Schlussfolgerungen: Das Verständnis von bösartigen Kanälen innerhalb von Impfgegnerbewegungen sei entscheidend für die Entwicklung wirksamer Strategien zur Bekämpfung von Fehlinformationen und zum Schutz der öffentlichen Gesundheit, unterstreichen die Autor*innen. Ihre Ergebnisse deuten auf zwei unterschiedliche Stile bzw. „Profile“ von Fehlinformations-/Desinformationsaktivitäten hin. Im ersten, „böswilligeren“ Profil zeigen sich mehr konspirative Inhalte, Trolling, vage oder nicht identifizierbare Quellen und eine unbestimmte Zielgruppenausrichtung. Die Kanäle setzen auf Techniken der Diskursmanipulation wie Beweiscollagen oder verfängliche Sprache, was auf eine bewusste Absicht zur Irreführung hindeute. Diese Gruppe führt eher einen irreführenden, emotional aufgeladenen und manipulativen Diskurs, der mit verschwörungstheoretischen Narrativen in Verbindung steht.
Die Ergebnisse dieser Studie unterstreichen laut der Forscher*innen die Komplexität von Impfgegner-Inhalten auf Telegram und verdeutlichen den Bedarf an verfeinerten Analysetechniken. Denn es zeigen sich Grenzen des konzeptionellen Rahmens: Viele Nachrichten konnten allein aufgrund des Nachrichteninhalts nicht klassifiziert werden. Das unterstreiche den Bedarf an weiteren Daten, beispielsweise Metadaten und Daten zum Nutzer*innenverhalten. Da bösartige Kanäle laut der Forscher*innen deutlich andere Engagement-Strategien zeigten als nicht-bösartige, könnte die Einbeziehung von koordinierten Aktivitäten nützlich sein (zum Beispiel bot-ähnliche Posting-Muster, wiederholte Nachrichtenweiterleitung.)
Einschränkungen: Die Studie konzentrierte sich auf öffentliche Kanäle. Deshalb kann es ein, dass wichtige Desinformationsaktivitäten in privaten oder halbprivaten Gruppen übersehen wurden. Um mehr über die Motivation der Akteur*innen herauszufinden, wäre zusätzlich zur Analyse der Inhalte die Einbeziehung von Metadaten und Engagement-Mustern nützlich.
Skarzauskiene A, Maciuliene M, Dirzyte A and Guleviciute G (2025) Profiling antivaccination channels in Telegram: early efforts in detecting misinformation. Front. Commun. 10:1525899. https://www.frontiersin.org/journals/communication/articles/10.3389/fcomm.2025.1525899/fulldoi: 10.3389/fcomm.2025.1525899
Mehr Aktuelles aus der Forschung
Cyborgs überall? Wie deutsche Printmedien Artikel zum Thema künstliche Intelligenz visualisieren, hat ein Team um Melanie Leidecker-Sandmann vom Karlsruher Institut für Technologie* untersucht. Die Ergebnisse der Analyse von mehr als 800 Bildern deuten darauf hin, dass Menschen – und nicht Roboter – hauptsächlich als Visualisierungen dienen. Die Forscher*innen fanden keine großen Diskrepanzen zwischen KI-Darstellungen im Text und im Bild. Insgesamt scheinen deutsche Printmedien eine differenzierte Sichtweise auf KI zu haben, schlussfolgern die Forscher*innen aus ihren Beobachtungen. Mehr zum Thema hier auch im Artikel von Anna Henschel.
Die Coronapandemie hat die Wissenschaft ins Rampenlicht gebracht, aber auch Raum für Unsicherheiten geschaffen. Forscher*innen um Nina Lorenzoni von der UMIT Tirol – Private Universität für Gesundheitswissenschaften und -technologie haben Interviews mit 13 Wissenschaftler*innen in Österreich geführt, um über ihre Erfahrungen mit Wissenschaftskommunikation während der Pandemie zu sprechen. Häufig genannte Herausforderungen waren: Zeitmangel, Unsicherheit aufgrund von mangelnder Ausbildung, Umgang mit Widersprüchen zwischen wissenschaftlichen Ratschlägen und politischen Entscheidungen sowie öffentliche Skepsis gegenüber der Wissenschaft. Fast alle befragten Wissenschaftler*innen berichteten von Angriffen per E-Mail und über soziale Medien nach öffentlichen Auftritten. Sie betonten die Bedeutung von Transparenz und Offenheit, um Verständnis für wissenschaftliche Prozesse zu fördern. Sie schlugen unter anderem vor, Wissenschaftskommunikation stärker in Lehrplänen zu verankern.
JCOM bringt Sonderausgabe zu Künstlicher Intelligenz heraus
Generative KI-Tools bringen der Wissenschaftskommunikation neue Möglichkeiten. Sie werden zum wichtigen Vermittler wissenschaftlicher Informationen, aber es werden auch Bedenken laut – beispielsweise bezüglich mangelnder Transparenz, möglicher Voreingenommenheit und der Verbreitung von Falschinformationen. Das Journal of Science Communication (JCOM) widmet dem Themenfeld “Wissenschaftskommunikation im Zeitalter von KI” eine Sonderausgabe mit zehn Beiträgen.
Ein Thema ist, wie Künstliche Intelligenz in den Medien, der Politik und dem öffentlichen Diskurs gestaltet und diskutiert wird. Auch wird diskutiert, wie KI die Kommunikation verändert, welchen Einfluss sie auf den Journalismus, die institutionelle Kommunikation und die Wissenschaft selbst hat. Die JCOM-Sonderausgabe geht auf die Konferenz „Science Communication in the Age of Artificial Intelligence“ an der Universität Zürich zurück, die Jahrestagung 2024 der Fachgruppe „Wissenschaftskommunikation“ der Deutschen Gesellschaft für Publizistik- und Kommunikationswissenschaft (DGPuK).