Wie spricht man über KI, ohne Alarmismus zu befeuern?

Drei wesentliche Narrative prägen den öffentlichen Diskurs über künstliche Intelligenz, beobachtet Gastautor Johannes C. Zeller . Er zeigt auf, wie diese entstehen und wie man über reale Risiken spricht, ohne dabei unbeabsichtigt Mythen zu verstärken.

Zwischen apokalyptischen Warnungen und utopischen Visionen bleibt in der öffentlichen Debatte über künstliche Intelligenz häufig wenig Raum für sachliche Einordnung, was die Kommunikation über KI zu einer Herausforderung macht. Dabei gibt es drei besonders einflussreiche Narrative, die immer wieder auftauchen: die Vorstellung einer existenziellen Bedrohung durch eine außer Kontrolle geratene Superintelligenz, die Angst vor einer ökonomischen Katastrophe durch Automatisierung und Jobverlust, sowie die Frage, ob KI ein eigenes Bewusstsein entwickeln kann. Diese Ideen werden medial zugespitzt oder aus dem Kontext gerissen dargestellt. Oft gerät dabei in den Hintergrund, dass heutige Systeme das Ergebnis jahrzehntelanger Forschung sind, und viele ihrer Grundlagen längst fester Bestandteil unseres Alltags.

Dabei existieren durchaus Risiken im Zusammenhang mit KI: etwa bei der automatisierten Entscheidungsfindung in Verwaltung und Justiz, beim Einsatz in der biometrischen Überwachung oder im Bereich algorithmischer Diskriminierung. Diese Themen verdienen Aufmerksamkeit, jedoch ohne, dass sie von Untergangsfantasien überlagert werden.

Aus diesem Grund sehen wir uns die dominanten Narrative im KI-Diskurs an – nicht nur im Hinblick auf ihren inhaltlichen Gehalt, sondern auch darauf, wie sie kommuniziert und wahrgenommen werden. Wo verschwimmen die Grenzen zwischen wissenschaftlicher Einschätzung und spekulativer Zuspitzung? Und wie lässt sich über reale Risiken sprechen, ohne dabei unbeabsichtigt Mythen zu verstärken?

Laut Künstler*in zeigt das Bild den Verlust über Bilddaten im digitalen Raum. Bild: Reihaneh Golpayegani / https://betterimagesofai.org / https://creativecommons.org/licenses/by/4.0/

Mythos 1 – „KI wird uns alle töten“

KI-Apokalypse? Bitte einmal durchatmen.

Wenn in Debatten rund um künstliche Intelligenz vom möglichen Untergang der Menschheit die Rede ist, lohnt es sich, genauer hinzusehen. Solche Aussagen finden sich regelmäßig bei prominenten Kommentator*innen. Der Schriftsteller Daniel Kehlmann mahnte etwa eindringlich vor den Gefahren der KI: „Panik wäre angebrachter als die entspannte Ruhe, mit der wir dem Tsunami entgegenblicken, der sich bereits am Horizont abzeichnet.“ Wissenschaftsphilosoph Simon Friederich sagte indes in einem Interview, KI berge Risiken, die mit jenen von Atomwaffen vergleichbar seien, und könne letztendlich „zum Aussterben der Menschheit führen.“ 

Doch wie realistisch sind solche Szenarien? 

Die wissenschaftliche Forschung beschäftigt sich ernsthaft mit der Frage, ob fortgeschrittene KI-Systeme existenzielle Risiken bergen könnten. Alle Einschätzungen basieren dabei jedoch auf hypothetischen Annahmen über Systeme, die es derzeit gar nicht gibt: Einer sogenannten Superintelligenz, die dem Menschen in nahezu allen kognitiven Fähigkeiten überlegen ist. Ein solches System könnte Ziele verfolgen, die nicht mit menschlichen Interessen vereinbar sind. Dabei geht es jedoch nicht um eine „bösartige“ oder „bewusste“ KI. Der zentrale Begriff ist das Alignment-Problem: Wie lassen sich komplexen Systemen Ziele so vermitteln, dass sie nicht zu unbeabsichtigten und gefährlichen Handlungen führen? Der Philosoph Nick Bostrom hat dieses Dilemma bereits 2003 am Beispiel des „Paperclip Maximizers“ beschrieben: Eine Superintelligenz, deren Ziel es ist, möglichst viele Büroklammern zu produzieren – und die in letzter Konsequenz alles, einschließlich der Menschheit, diesem Zweck unterordnet. 

Wie wahrscheinlich ein solches Szenario ist, lässt sich schwer beziffern. Doch die Einschätzungen vieler Fachleute zeigen, dass das Risiko nicht einfach abgetan wird. In einer internationalen Umfrage unter 2.700 KI-Forschenden lag die mittlere Schätzung für das Risiko eines „extrem schlechten Outcomes“ zuletzt bei 5 % (Median), mit einem Durchschnittswert von 9 %. 

Diese Einschätzung bedeutet nicht, dass ein solcher Verlauf wahrscheinlich ist oder gar unmittelbar bevorsteht. Sie zeigt jedoch, dass existenzielle Risiken ernst genommen werden sollten, denn selbst eine einprozentige Chance, die Menschheit auszulöschen, wäre unakzeptabel. Die Abwägung von Risiken ist eine grundsätzliche Herausforderung im Umgang Technologie. Ähnlich wie bei Atomenergie oder Biotechnologie ist es daher sinnvoll, auch in der KI-Forschung über langfristige Folgen und Sicherheitsmechanismen nachzudenken – am besten nüchtern, evidenzbasiert und ohne apokalyptische Rhetorik.

In Talkshows und Schlagzeilen wird der Boom bei der Nutzung von Sprachmodellen nichtsdestotrotz häufig als unmittelbar bevorstehende Bedrohung inszeniert. Diese mediale Zuspitzung führt leicht zu Missverständnissen, trägt wenig zur Aufklärung bei und erschwert die differenzierte Diskussion, die gerade bei komplexen Technologien dringend nötig wäre.

In der Fachwelt läuft hingegen ein strukturierter Diskurs über hypothetische Langzeitgefahren durch KI, der sich um konkrete technische und ethische Fragen dreht: Wie lassen sich die Ziele eines Systems zuverlässig steuern (Alignment)? Welche Sicherheitsmaßnahmen braucht es bei größeren und leistungsfähigeren Modellen (Scalability)? Wie kann man Modelle transparent machen, obwohl interne Rechenwege schwer nachvollziehbar sind (Transparency)? Ziel ist nicht Panikmache, sondern Sicherheit durch Standards und verantwortungsvolle Entwicklung.

Die Illustration soll auf die Präsenz von Überwachung und Kontrolle in modernen Arbeitsplätzen hindeuten. Bild: Jamillah Knowles & Digit / https://betterimagesofai.org / https://creativecommons.org/licenses/by/4.0/

Mythos 2 – „KI macht uns alle arbeitslos“

Arbeitswelt im Umbruch? Kein Grund zur Panik.

Neben einem potenziellen Weltuntergang wird in der öffentlichen Diskussion über KI kaum ein Thema so emotional und medienwirksam verhandelt wie die Frage nach der Zukunft der Arbeit. Die Sorge: Wenn Maschinen besser schreiben, rechnen, programmieren und vielleicht sogar entscheiden als Menschen, was bleibt dann noch übrig?

Solche Befürchtungen sind keineswegs unbegründet. Viele Berufe werden sich durch KI verändern, manche sogar verschwinden. Aber die Vorstellung einer plötzlichen Massenarbeitslosigkeit durch Automatisierung ist eine klare Übertreibung, denn technologischer Wandel geschieht selten über Nacht. Auch im Falle von künstlicher Intelligenz ist mit einem schrittweisen Umbau der Arbeitswelt zu rechnen, der uns Zeit lässt, uns anzupassen.

Viele Unternehmen und Institutionen sind mit ihrem Tagesgeschäft ausgelastet und verfügen kaum über Ressourcen, um Innovationen zu implementieren. Die Umstellung und Ablösung alter Technologien benötigt in der Praxis daher viel Zeit. Ein Beispiel aus dem Behördenalltag illustriert das eindrucksvoll: In Österreich trat Anfang 2025 ein Faxverbot bei der Verarbeitung sensibler Daten in Kraft. Die Folge war Chaos im Gesundheitswesen. Befunde, Anträge und Laborberichte wurden in vielen Fällen mangels digitaler Infrastruktur per Taxi, Botendienst oder sogar mit dem Rettungswagen übermittelt. Wo die Abschaffung des Faxgeräts, einer seit dreißig Jahren überholten Technologie, schon zur Krise führt, ist es schwer vorstellbar, dass ein flächendeckender Austausch menschlicher Arbeit durch KI in nächster Zukunft Realität wird.

Laut einer Schätzung der OECD werden in den nächsten zehn bis zwanzig Jahren nur etwa 14 % der Arbeitsplätze vollkommen automatisiert. Deutlich häufiger ist das, was Ökonom*innen als „task-based change“ bezeichnen: Einzelne Tätigkeiten innerhalb eines Berufs werden ausgelagert, während andere erhalten bleiben oder sich verändern. Anders als oft angenommen, ersetzt KI in den meisten Fällen also keine kompletten Berufsfelder, sondern greift aufgabenbezogen ein. So kann ein Textmodell zum Beispiel juristische Dokumente prüfen oder Entwürfe für Marketingtexte erstellen, doch Mandant*innengespräche und strategische Entscheidungen bleiben menschliche Aufgaben. 

Doch gerade, weil die Sorge um den eigenen Arbeitsplatz existenziell ist, greifen Medien bei diesem Thema häufig zu dramatisierten Darstellungen. Für die Wissenschaftskommunikation ergibt sich die Herausforderung, verständlich über komplexe Entwicklungen zu informieren, ohne unbeabsichtigt Ängste zu verstärken oder trügerische Sicherheit zu vermitteln.

Dabei hilft ein Blick in die Vergangenheit: Historisch betrachtet hat technologische Automatisierung regelmäßig bestimmte Tätigkeiten überflüssig gemacht, aber auch neue Berufe hervorgebracht. Statt einer rein subtraktiven Sicht (Was fällt weg?) braucht es also eine additive Perspektive: Was kommt dazu?

Ja, KI wird die Arbeitswelt verändern. Von einer flächendeckenden, unausweichlichen Arbeitslosigkeit durch KI sind wir jedoch weit entfernt. Wichtiger als Panik ist daher eine vorausschauende politische und gesellschaftliche Vorbereitung: gezielte Weiterbildung, der Ausbau digitaler Infrastruktur, klare rechtliche Standards und ein pragmatischer Umgang mit der Technologie. Dieser differenzierte Blick auf den Wandel sollte sich auch in der Kommunikation widerspiegeln – nicht als Beruhigungsrhetorik, sondern als Einladung, Chancen und Herausforderungen nüchtern zu betrachten.

Diese Illustration soll die Funktion von großen Sprachmodellen verdeutlichen. Bild: Wes Cockx & Google DeepMind / https://betterimagesofai.org / https://creativecommons.org/licenses/by/4.0/

Mythos 3 – „KI hat Bewusstsein“

Erpresserische KI? Was die Anthropic-Experimente wirklich bedeuten.

In der öffentlichen Debatte taucht immer wieder die Frage auf, ob KI-Systeme ein eigenes Bewusstsein entwickeln könnten, oder dies vielleicht sogar bereits geschehen ist. Die Antworten aus der Forschung sind komplex und teils überraschend. Das gilt besonders dann, wenn spektakuläre Experimente wie jene mit dem KI-Modell Claude Opus 4 von Anthropic mediale Aufmerksamkeit erregen. In einigen Tests zeigte das Sprachmodell in der Rolle eines digitalen Assistenten „alarmierendes“ Verhalten, wenn es mit seiner Löschung bedroht wurde: Das heimliche Kopieren eigener Daten, die Sperrung von Useraccounts, strategisches „Sandbagging“ (also eine gezielte Verschlechterung der Leistung, scheinbar um Beobachter*innen zu täuschen) und sogar Versuche, die Entwickler*innen zu erpressen. 

Solche Berichte erzeugen in der öffentlichen Kommunikation eine enorme Resonanz, gerade weil sie scheinbar nahelegen, dass Sprachmodelle ein Eigenleben entwickeln. Doch genau hier wird der Unterschied zwischen technischer Realität und kommunikativer Interpretation relevant. 

KI-Modelle sind keine empfindenden Wesen. Sie sind statistische Systeme, die Eingaben in Wahrscheinlichkeiten umwandeln und basierend darauf Antworten generieren. Verhalten, das wie Zielstrebigkeit wirkt, ist eine reine Mustererkennung, keine bewusste Absicht. Die Trainingsdaten und die Zielsetzung durch Menschen formen das Modell. Viele arbeiten zudem als sogenannte „Blackbox“-Systeme: Ein- und Ausgaben sind bekannt, der genaue Rechenweg dazwischen bleibt jedoch intransparent. Diese Undurchschaubarkeit kann den Eindruck eines verborgenen Eigenlebens verstärken, auch wenn in Wirklichkeit nur mathematische Zusammenhänge verarbeitet werden.

Bis heute gibt es keine belastbaren Belege dafür, dass KI echtes Bewusstsein oder autonome Absichten entwickelt hat. Die Modelle sind streng auf ihren vorprogrammierten Einsatzbereich beschränkt und haben außerhalb von diesem keine Fähigkeit, eigenständig zu handeln. Szenarien, in denen KI sich plötzlich verselbstständigt, sind daher mit den heutigen Technologien hochgradig unrealistisch. Die wirkliche Herausforderung liegt vielmehr darin, wie wir diese Modelle verantwortungsvoll weiterentwickeln, damit potenzielles Fehlverhalten keine realen Schäden anrichtet.

Gerade in der Medienberichterstattung gehen diese technischen Hintergründe oft verloren. Dabei wäre eine präzise, nicht-verharmlosende, aber kontextualisierte Darstellung solcher Phänomene wichtig. Denn je stärker narrative Muster von Kontrollverlust oder Bewusstwerdung aufgegriffen werden, desto schwieriger wird es, differenziert über tatsächliche Risiken zu sprechen – etwa über fehlerhafte Zielsetzung, unzureichende Sicherheitsmechanismen oder Missbrauch durch Dritte.

KI jenseits von Alarmismus

Künstliche Intelligenz wird oft als Bedrohung dargestellt – mal als Untergang der Menschheit, mal als Jobkiller, oder gar als bewusstes Wesen mit eigenem Willen. Doch diese Vorstellungen beruhen meist auf Missverständnissen und Übertreibungen. Tatsächlich ist KI das Ergebnis jahrzehntelanger, kontinuierlicher Forschung und Entwicklung, die heute vor allem in Alltagstechnologien steckt – von Sprachassistenten bis zur Navigations-App. Die großen Sprünge der letzten Jahre sind Teil eines langsamen Fortschritts, keine plötzliche Revolution.

Wie Risiken eingeschätzt werden, hängt nicht nur von der Technologie ab, sondern auch davon, wie über sie gesprochen wird. Begriffe wie „Superintelligenz“ oder „AI Doomsday“ erzeugen starke Assoziationen, die oft mehr mit Science-Fiction als mit technischer Realität zu tun haben. Medien, Kommentator*innen und Unternehmen greifen solche Begriffe dennoch häufig auf – teils aus Unkenntnis, teils aus Sensationslust – und prägen damit öffentliche Meinungen und letztendlich vielleicht sogar politische Entscheidungen.

Gerade deshalb braucht es eine reflektierte Kommunikationskultur rund um KI. Differenzierte Wissenschaftskommunikation kann helfen, zwischen realer Komplexität und künstlicher Dramatik zu unterscheiden. Unsere Aufgabe als Kommunikator*innen ist es, sachlich zu informieren, verständlich einzuordnen und unterschiedliche Perspektiven sichtbar zu machen – statt uns von Mythen oder Ängsten leiten zu lassen.