Foto: Alina Constantin / Better Images of AI / Handmade A.I / CC-BY 4.0

Humanoide Roboter und Dystopien: Bilder von KI

Wie wir über künstliche Intelligenz sprechen, prägt die Wahrnehmung und das Wissen über diese Technologie. Ein Gespräch mit der Linguistin Nina Kalwa über die Erforschung des KI-Diskurses, Blackboxes und täuschende (Sprach-)Bilder.

Frau Kalwa, wie beeinflusst die Art und Weise, wie wir über künstliche Intelligenz sprechen, unsere Wahrnehmung und das Wissen über diese Technologie?

Nina Kalwa forscht am Zentrum für rhetorische Wissenschaftskommunikationsforschung zur Künstlichen Intelligenz (RHET AI) zu Diskursen und Narrativen zu künstlicher Intelligenz. Die promovierte Linguistin arbeitet am Lehrstuhl für Wissenschaftskommunikation mit Schwerpunkt Linguistik am Karlsruher Institut für Technologie (KIT). Foto: Sarah Hähnle

Die Art und Weise, wie wir über Künstliche Intelligenz sprechen, beeinflusst unser Wissen sehr stark. Alles, was wir als Gesellschaft über KI wissen, haben wir etwa in Zeitungsartikel, vielleicht auch wissenschaftlichen Artikeln oder Blogposts gelesen. Meiner Forschung liegt ein konstruktivistischer Grundgedanke zugrunde. Das meint, dass die Art und Weise, wie wir über künstliche Intelligenz sprechen, das gesellschaftliche Wissen über künstliche Intelligenz in starker Weise formt. Künstliche Intelligenz ist also das, als was es im Diskurs erscheint, und zwar sowohl in wissenschaftlichen als auch nicht-wissenschaftlichen Debatten. Wenn künstliche Intelligenz zum Beispiel immer wieder mit negativ-konnotierten Ausdrücken wie Kontrollverlust vorkommt, dann erhält der Ausdruck KI schließlich auch selbst negative Bedeutung.

Was bedeutet konstruktivistischer Ansatz?
Es gibt verschiedene konstruktivistische Ansätze in den Sozialwissenschaften oder der Philosophie. Der linguistische Konstruktivismus geht davon aus, dass Sprache und auch andere Zeichen unser Denken formen. Wir gehen davon aus, dass Sprache das, was wir wissen, nicht nur abbildet, sondern gesellschaftliches Wissen auch aktiv formt.

„Wenn künstliche Intelligenz immer wieder mit negativ-konnotierten Ausdrücken wie Kontrollverlust vorkommt, dann erhält der Ausdruck KI schließlich auch selbst negative Bedeutung.“ Nina Kalwa
Was meinen Sie mit anderen Zeichen?
Dazu zählen beispielsweise Bilder. Wenn wir in öffentlichen Debatten mit Texten in Kontakt kommen, sind diese eigentlich immer bebildert. Und darüber wird auch Wissen über künstliche Intelligenz konstituiert. Auch die Darstellung von künstlicher Intelligenz in Filmen ist ganz wesentlich beteiligt daran.

Wie wird künstliche Intelligenz dargestellt?
Die Bilder zu Pressetexten sind oft sehr ähnlich. Häufig sieht man Bilder eines weißen Roboters oder eine Roboterhand. Manchmal liegt in dieser Roboterhand ein Apfel, um den Gegensatz zwischen Natur und Technik darzustellen oder als Anspielung auf die Schöpfung. Eine tolle Seite und ein toller Twitteraccount ist „Not My Robot“. Der Account twittert regelmäßig Bilder von KI, bei denen man das sehr schön sieht und sich fragt: Warum wird ein Text, in dem es um einen Algorithmus geht, mit einem menschenähnlichen Roboter bebildert? Diese Bilder kehren immer wieder und haben natürlich auch Auswirkungen auf die gesellschaftliche Vorstellung von künstlicher Intelligenz. So einen Account könnte man auch über Sprachbilder machen, um sich bewusst zu machen, wie bestimmte Narrative und Topoi immer wieder auftauchen. Und dann könnte man sich fragen, wie man KI eigentlich besser beschreiben und darstellen könnte. Ein gutes Beispiel für Bilder ist „Better Images of AI“. Allerdings geht es mir in meiner persönlichen Forschung nicht darum, Handlungsanweisungen zu geben, wie man besser über KI sprechen kann, sondern ich interessiere mich für den Ist-Zustand, für Muster im Reden und Schreiben über KI.

Welches Bild wird im medialen Diskurs über künstliche Intelligenz vermittelt?
Im medialen Diskurs wird oft ein negatives Bild von KI entwickelt. Künstliche Intelligenz schafft es oft in öffentliche Debatten, wenn sie beispielsweise diskriminierend agiert. Es gibt immer wieder Berichte von sexistisch oder rassistisch agierenden KI. Dabei wird dann der Kontrollverlust betont, dem der Mensch dadurch ausgesetzt ist.

Mich persönlich interessiert daran, dass in der Kommunikation über künstliche Intelligenz auch immer eine bestimmte Vorstellung konstituiert wird, wie der Mensch ist oder zu sein hat. Die künstliche Intelligenz in Abgrenzung zum Menschsein ist omnipräsent in allen Diskursen. So agieren im Personalwesen eingesetzte Machine-Learning-Systeme plötzlich diskriminierend, wenn sie Männer gegenüber Frauen bevorzugen. Dass aber die Datensätze, an denen die KI trainiert wird, vorher auch schon diese Diskriminierung beinhaltete, wird manchmal nicht bedacht. Mir erscheint es, dass in der Abgrenzung zur KI dem Menschen oft sehr viel positivere Eigenschaften zugeschrieben werden, als das in anderen Debatten der Fall ist. In KI-Diskursen – so vermute ich – wird der Mensch oft als ein sehr empathisches und grundsätzlich gutes Wesen konstituiert.

Bedeutet das im Umkehrschluss auch, dass wir künstlicher Intelligenz im Diskurs auch negative menschliche Eigenschaften zuschreiben, obwohl es sich lediglich um Algorithmen handelt?
Ja, ich denke, das kommt auch stark aus den Filmen, in denen KI als Roboter in menschlicher Gestalt, wie in Ex Machina, oder beispielsweise als menschliche Stimme, wie in Her, auftritt. In Filmen ist eine KI oft eine menschenähnliche Gestalt, der aber ganz viele positiv konnotierte menschliche Eigenschaften fehlt. Sie kann beispielsweise kein Mitgefühl empfinden oder nicht wirklich lieben. Und diese Zuschreibungen finden sich zwar nicht in allen, aber vielen journalistischen Texten, wenn beispielsweise ein Bedrohungsszenario eröffnet wird, wie KI terminatormäßig die Menschheit auslöscht.

Wie erforschen Sie den Diskurs zu künstlicher Intelligenz und welche Formate und Medieninhalte schauen Sie sich dafür an?

„Was sich Journalist*innen und Wissenschaftskommunikator*innen bewusst machen sollten, ist diese konstitutive Kraft der Sprache.“ Nina Kalwa
Die „Discourse and Narrative Unit“ des RHET AI Center am KIT* ist ein Team aus Linguistinnen. Dazu zählen die Lehrstuhlleiterin Annette Leßmöllmann, Monika Hanauska und ich. Uns geht es dezidiert um linguistische Forschung zu Debatten zu künstlicher Intelligenz. Dazu gehört im ersten Schritt erst einmal zu überlegen, wo überhaupt Wissen über künstliche Intelligenz ausgehandelt wird. Wir interessieren uns vor allem für journalistische Diskurse und dafür, wie in sozialen Medien, in Weblogs und auf Youtube über künstliche Intelligenz geredet wird. Wir schauen aber auch innerwissenschaftliche Debatten an. In wissenschaftlichen Publikationen wird auch ein bestimmtes Wissen über KI konstituiert und wir vermuten, dass dies auch kein einheitliches Bild ist.

Wie gehen Sie methodisch vor, wenn Sie diese Art der Diskurse untersuchen?
Wir arbeiten computergestützt, um große Textmengen zu untersuchen. Dabei gucken wir uns beispielsweise an, in welchem unmittelbaren sprachlichen Umfeld künstliche Intelligenz vorkommt. Ganz banal gesagt: Was steht links von KI, was steht rechts davon, welche Verben kommen in diesem Zusammenhang vor? Häufig wirkt es aufgrund der Wahl der Verben so, dass die KI das Agens ist, also derjenige, der handelt, und der Mensch ihr machtlos gegenübersteht: KI steuert, kontrolliert, beherrscht. Wir machen aber auch detaillierte Textanalysen – quasi semantische Tiefenbohrungen –, bei denen wir uns Texte ganz intensiv angucken. Wir untersuchen die Metaphern und schauen, welche bestimmten Vorstellungen von KI „zwischen den Zeilen“ sprachlich und kommunikativ erzeugt werden.

Häufig wird künstliche Intelligenz mit einer weißen Roboterhand oder als Android dargestellt. Eine realistischer Darstellung ist, die Fähigkeiten der Technologie zu zeigen. Schon heute sind lernende Algorithmen in eine Vielzahl von Geräten wie Smartphones oder sprachgesteuerte Lautsprecher eingebettet. Foto (v.l.n.r.): Possessed Photography; Xu Haiwei; Anton Grabolle / Better Images of AI / Human-AI collaboration / CC-BY 4.0.

Gibt es schon erste Ergebnisse?
Wir haben noch keine konkreten Ergebnisse, aber eine erste Vermutung. Es wird immer schnell gesagt, dass in Pressediskursen in einer ganz bestimmten Weise über KI geredet wird. Natürlich lässt sich das nicht pauschal sagen, aber in vielen journalistischen Texten werden bestimmte dystopische Vorstellungen von KI aus Filmen übernommen, die dann wiederum ein gewisses Bedrohungsszenario kreieren. Wir gehen davon aus, dass das teilweise selbst aus der Wissenschaft kommt. Denn die bereits durchgeführten filmwissenschaftlichen Analysen zeigen, dass die Darstellung von KI in Filmen wieder zurückwirkt in die Wissenschaft. Roboter werden oft so gebaut, wie sie in Filmen aussehen. Auch in wissenschaftlichen Diskursen gibt es schon bestimmte Muster des Redens über KI, die wir zumindest mal kritisch hinterfragen sollten.

Better Images of AI

Künstliche Intelligenz wird meist mit ausgestreckten Roboterhänden, leuchtenden Gehirnen oder Figuren aus Science-Fiction-Filmen bebildert. Die Gefahr solcher gängigen Tropen: Sie können bei Betrachter*innen unrealistische Erwartungen wecken, Angst schüren oder maschinelle Intelligenz mit menschlicher Intelligenz gleichsetzen. Um Missverständnissen und einem falschen Bild von KI in der Öffentlichkeit vorzubeugen, will das Projekt „Better Images of AI“ KI besser visuell repräsentieren. Auf der Website gibt es eine kleine Auswahl passender Fotos, aktuelle Forschungsliteratur zum Thema sowie eine Checkliste für die Bildauswahl. Die Twitter-Biografie verspricht eine „glowing brain and shiny robot free zone“. Hinter dem Projekt stecken BBC Research & Development, die gemeinnützige Organisation „We and AI“ und das interdisziplinäre Forschungsinstitut Leverhulme Centre for the Future of Intelligence.

Könnten Sie die dystopische Darstellung von künstlicher Intelligenz an einem Filmbeispiel erklären?
In Filmen wie Terminator gewinnt häufig ein humanoider Roboter die Kontrolle über die Menschen. Diese Bedrohungsszenarien sind ein beliebter Topos, der in journalistischen Texte übernommen wird. Dann wird darin beispielsweise gefragt, ob wir bald Terminator-mäßig ausgelöscht werden, weil die KI die Weltherrschaft übernimmt.

Inwiefern unterscheidet sich die Kommunikation über KI außerhalb der Wissenschaften vom innerwissenschaftlichen Diskurs?
Das lässt sich am Beispiel der Blackbox-Metapher erklären, die in den verschiedenen Diskursen häufig vorkommt, aber nicht einheitlich verwendet wird. In der Kybernetik und Systemtheorie geht man bei einer Blackbox einfach von einem Phänomen aus, dass eine Input-Output-Beziehung beschreibt und bei der der Kern intransparent ist. Die Wissenschaftler*innen interessieren sich für diese Zusammenhänge und das, was in der sogenannten Blackbox passiert, können sie vielleicht nicht verstehen. Die Metapher der Blackbox ist dabei erst mal nicht negativ besetzt. Es gibt aber durchaus wissenschaftliche Diskurse, bei denen diese Blackbox-Metapher negativ besetzt ist. Der Terminus explainable AI zielt ja beispielsweise darauf ab, die Introspektion von Blackbox-Systemen zu ermöglichen. In diesen Diskussionen ist Blackbox auch oft negativ konnotiert: Die Blackbox soll überwunden werden.

„Auch in wissenschaftlichen Diskursen gibt es schon bestimmte Muster des Redens über KI, die wir zumindest mal kritisch hinterfragen sollten.“ Nina Kalwa
In öffentlichen oder journalistischen Diskursen ist Blackbox im Zusammenhang mit KI als Phänomen des Intransparenten gemeint und konsequent negativ konnotiert. Wir kennen es auch aus anderen Diskursen, dass es der Gesellschaft oft schwerfällt zu akzeptieren, wenn Forscher*innen selbst ein bestimmtes Nichtwissen haben. Die Vorstellung, dass selbst Wissenschaftler*innen nicht mehr wissen, was die KI eigentlich macht, stellt ein ganz großes Bedrohungsszenario dar. Der Sprachwissenschaftler Uwe Pörksen hat diese Art von Begriffen mal als Plastikwörter beschrieben. Das heißt, Termini aus der Wissenschaft werden in die Alltagssprache entlehnt. Dort werden sie nicht mehr in ihrer ursprünglichen Verwendung benutzt, sondern es werden nur noch bestimmte Eigenschaften transportiert.

In der Wissenschaftskommunikation arbeitet man auch häufig mit Analogien, Metaphern und Bildern. Wie sollte man richtig über KI kommunizieren und das Thema bebildern?
Der linguistische Konstruktivismus stellt uns dabei vor eine gewisse Herausforderung, weil wir ja nicht nicht konstruieren können. Was sich Journalist*innen und Wissenschaftskommunikator*innen bewusst machen sollten, ist diese konstitutive Kraft der Sprache. Wir werden immer eine bestimmte Wirklichkeit mit Sprache und anderen Zeichen schaffen und dabei immer die Möglichkeit der Konstitution anderer Wirklichkeiten ausschließen. Da gibt es keinen Weg raus. Die Wissenschaftskommunikation muss sich deshalb fragen: Welches Bild konstruiere ich mit dem Text, mit diesem Bild? Und was ist eigentlich das, was transportiert werden soll?

*Das Department von Annette Leßmöllmann am Karlsruher Institut für Technologie (KIT) ist einer der drei Träger des Portals Wissenschaftskommunikation.de.