KI-generiertes Bild einer Wissenschaftlerin von Freepik

Fiktion oder Fakten? Was für eine Kennzeichnung fotorealistischer KI-Bilder spricht

Künstliche Intelligenz bietet der Wissenschaftskommunikation neue Möglichkeiten – unter anderem zur Visualisierung. Für eine Kennzeichnung fotorealistischer KI-Bilder spricht sich Felix Koltermann vom CISPA Helmholtz-Zentrum für Informationssicherheit aus. Warum er dies für wichtig hält und wie das in der Praxis aussehen kann, erläutert er im Gastbeitrag.

Faktengetreu zu kommunizieren ist für eine glaubwürdige Wissenschaftskommunikation essentiell. Visualisierung, sei es über Fotografien oder Datenvisualisierung, spielt dabei eine wichtige Rolle. Durch die zunehmende Verbreitung von KI-generierten Bildern wird Faktentreue jedoch zu einer Herausforderung. Denn insbesondere bei qualitativ hochwertigen fotorealistischen KI-Bildern lassen sich Fakt und Fiktion immer schwerer voneinander unterscheiden, da Menschen KI-generierte Medieninhalte nicht mehr zuverlässig erkennen können.

„Dadurch, dass fotorealistische KI-Bilder die Wahrnehmungsnähe von Fotografien für sich beanspruchen, stellen sie das Repräsentationsprivileg des Mediums Fotografie in Frage.“ Felix Koltermann
Für eine gelungene und glaubwürdige Wissenschaftskommunikation, die sich guter wissenschaftlicher Praxis und Fakten verpflichtet fühlt, ist es jedoch wichtig, dass Menschen zwischen authentischen fotografischen Bildern und KI-generierten oder -manipulierten Bildern unterscheiden können. Dies gilt umso mehr, als dass fotorealistische KI-Bilder eine immer größere Rolle bei Desinformationskampagnen sowie der Verbreitung von Falschnachrichten in sozialen Netzwerken spielen.

Ist das Dargestellte echt oder ein Fake?

Fotorealistische KI-Bilder sind deswegen so attraktiv, weil sie extrem einfach zu erstellen sind und dabei wie Fotografien aussehen. Sie profitieren von einem Privileg des Mediums Fotografie: ihrer großen Wahrnehmungsnähe. Mit dieser geht einher, dass eine Fotografie als vermeintlich real erscheint und Menschen sich selbst oder andere in einer Fotografie wiedererkennen. Dabei ist unstrittig, dass Fotografien immer nur einen Ausschnitt aus der Realität zeigen und kontextbezogen gelesen werden müssen.

Dadurch, dass fotorealistische KI-Bilder die Wahrnehmungsnähe von Fotografien für sich beanspruchen, stellen sie das Repräsentationsprivileg des Mediums Fotografie in Frage. Können die Menschen ausgehend vom Bild nicht mehr unterscheiden, ob es sich um die Fotografie eines realen Geschehens oder ein fotorealistisches KI-Bild einer fiktiven Szene handelt, bleibt ihnen nur der Zweifel, ob das Dargestellte echt oder Fake ist. Begegnen lässt sich dem nur über eine für Nutzer*innen klar erkennbare Kennzeichnung von fotorealistischen KI-Bildern.

Einsatzmöglichkeiten von fotorealistischen KI-Bildern

Dass KI-generierte Bilder langsam auch in der Wissenschaftskommunikation Einzug halten, darauf weist eine Erhebung unter Pressestellen deutscher Hochschulen hin. Gaben im Jahr 2023 noch 3 Prozent von ihnen an, generative KI-Tools zu Bildgenerierung zu nutzen, waren es 2024 bereits 27 Prozent. Die Hauptbedürfnisse bei der Nutzung von KI-Tools sind Zeiteinsparung, Effizienzsteigerung sowie die Vereinfachung von Arbeitsprozessen. Angesichts des Umstands, dass vermutlich nur wenige Pressestellen über eigene Fotograf*innen verfügen, sind diese Faktoren für die visuelle Kommunikation besonders wichtig. Theoretisch bieten sich eine Vielzahl konkreter Einsatzmöglichkeiten für fotorealistische KI-Bilder.

Im Studierendenmarketing etwa könnten sie Symbol- und Stockfotos ersetzen, ohne ein aufwendiges Fotoshooting mit Studierenden organisieren zu müssen. In der Unternehmenskommunikation könnten KI-generierte Porträts von Mitarbeitenden eine praktische Alternative zu professionellen Mitarbeiter*innenporträts im Fotostudio bieten. Und die Wissenschaftskommunikation könnte davon profitieren, Wissenschaftler*innen bei Labortätigkeiten oder Experimenten realistisch abzubilden. Zudem könnte die KI das Nachstellen historischer Situationen ermöglichen, um vergangene Ereignisse visuell veranschaulichen können.

Was sagen die Leitlinien guter Wissenschaftskommunikation?

Den berufsethischen Rahmen für die Wissenschaftskommunikation setzen unter anderem die gerade erst mit breitem Konsens neu formulierten „Leitlinien zur guten Wissenschaftskommunikation“. Dort wird wertegeleitet zu kommunizieren und faktentreu zu arbeiten als Grundprinzipien der Wissenschaftskommunikation definiert. Als konkrete Werte werden etwa Transparenz und die Prinzipien der guten wissenschaftlichen Praxis benannt. Hinweise für den Umgang mit Bildern gibt es in den Leitlinien nicht, weshalb hier eine Regelung notwendig ist.

„Eine Kennzeichnung von fotorealistischen KI-Bildern ist auf verschiedene Arten denkbar.” Felix Koltermann
Die Werte Transparenz und Faktentreue lassen sich in Bezug auf Bilder dahingehend deuten, dass Konsument*innen Zugang zu Kontextinformationen über ein Bild bekommen und Bildproduktion und Bildverwendung in einem klaren Bezug zueinander stehen müssen. In diese Richtung gehen auch die Empfehlungen der Siggener Impulse aus dem Jahr 2021. Dort wird gefordert, „die Prozesse der Produktion, Bildgestaltung, Redaktion und auch Manipulation von Bildern transparent (zu) gestalten.“ In Bezug auf fotorealistische KI-generierte oder KI-manipulierte Bilder ließe sich daraus ableiten, dass diese gekennzeichnet werden sollten, da ihre künstliche Generierung eine entscheidende Kontextinformation ist.

Wie kann eine Kennzeichnung umgesetzt werden?

Eine Kennzeichnung von fotorealistischen KI-Bildern ist auf verschiedene Arten denkbar. In Frage kommt etwa eine Kennzeichnung in der Bildunterschrift oder im Begleittext. Bekannt ist dieses Prinzip aus dem Journalismus. Dort werden Hinweise über Bildbearbeitung oder eine symbolische Bildverwendung in der Regel in der Bildunterschrift platziert. Eine weitere Option ist eine Kennzeichnung im Bild. Dies kann über ein Wasserzeichen oder ein Symbol am Bildrand geschehen. Auch eine Kennzeichnung in den Metadaten ist möglich. Jede einzelne dieser Lösungen hat dabei ihre eigenen Herausforderungen.

Wie schwierig es ist, eine gemeinsame Lösung für eine Kennzeichnung zu finden, zeigen die Versuche der Content Authority Initiative (CAI), einen Standard zu etablieren. In der CAI haben sich Bildsoftwareanbieter sowie große Digital- und Medienkonzerne zusammengeschlossen. Sie schlagen ein dynamisches, anklickbares Symbol im Bild vor, über das Kontextinformationen zum Bild abgerufen werden können.

Das KI-generierte Bild zeigt die Biologin Rachel Louise Carson und ist Teil der Ausstellung „Versäumte Bilder“ von Gesine Born.

Ein konkretes Beispiel für eine nachvollziehbare Kennzeichnung von fotorealistischen KI-Bildern in der Wissenschaftskommunikation über ein Symbol im Bild liefert das Projekt „Versäumte Bilder“ von Gesine Born. Sie ließ einen KI-Bildgenerator fotorealistische Bilder von Wissenschaftlerinnen generieren, von denen es kaum oder kein fotografisches Bildmaterial gibt. Ziel war, eine historische visuelle Leerstelle mithilfe einer KI zu füllen. Die fotorealistischen KI-Bilder zeigen die Wissenschaftlerinnen in fiktiven Arbeitssituationen. Eben weil keine dokumentarischen Fotografien der Wissenschaftlerinnen existieren, ist es wichtig, dass die fiktiven Szenen der KI-Bilder als solche erkennbar sind. Denn würden ihre KI-generierten fotorealistischen Bilder fälschlicherweise für historische Fotografien gehalten, würde ihr Projektansatz, eine visuelle Leerstelle mit KI zu füllen, ad absurdum geführt. Gesine Born hat sich aus diesem Grund dafür entschieden, auf jedem Bild ein grafisches Symbol zu platzieren, dass die Buchstaben AI in eckigen Klammern zeigt.

Plädoyer für eine neue Leitlinie der Wissenschaftsverbände

Eine verantwortungsvolle Nutzung von fotorealistischen KI-Bildern in der Wissenschaftskommunikation ist nur mit einer Kennzeichnungspflicht und transparenten Regeln für deren Einsatz ethisch vertretbar. Am einfachsten umzusetzen wäre dies über ein einheitliches Symbol im Bild sowie standardisierte Hinweise in den Metadaten. Um dies zu ermöglichen und um breite Akzeptanz innerhalb der Wissenschafts- und Hochschulkommunikations-Community zu erreichen, braucht es eine Leitlinie der Wissenschaftsverbände zum Umgang mit fotorealistischen KI-Bildern. Darüber hinaus ist die Abstimmung mit Verbänden und Interessenvertretungen aus anderen professionellen Feldern der öffentlichen Kommunikation wie dem (Bild-)Journalismus und der PR notwendig, auch unter Einbeziehung der Bildsoftwareanbieter. Denn je einheitlicher die Regelungen, umso besser können sich Konsument*innen daran orientieren. Über die verschiedenen Felder hinweg würde dies die Glaubwürdigkeit der Kommunikation in digitalen Medien stärken und den gemeinsamen Kampf gegen Manipulation und Desinformation vereinfachen.