BLOG

Endzeit auf Bestellung

Letzten Sonntag publizierte die SonntagsZeitung einen Artikel mit dem Titel: «Chat-GPT sagt: KI könnte Menschen auslöschen». Die Alarmglocken läuteten nicht erst auf Seite 41, sondern bereits auf der Titelseite in grossen Lettern.

Im Artikel führt ein Journalist ein Gespräch mit ChatGPT, attraktiv aufbereitet und dramaturgisch zugespitzt. Dabei entlockt er dem System Horrorszenarien, in denen KI die Menschheit eliminiert.

Dieses Genre hat einen Namen: KI-Doomer-Narrative. Damit gemeint sind Diskussionen, die die Vorstellung, KI könne die Menschheit vernichten, als realistisch oder sogar wahrscheinlich darstellen. Medial lässt sich das hervorragend verkaufen; entsprechend populär ist dieses Genre derzeit.

«Panikorchester»

Ich erinnere mich gut daran, wie wir Epidemiologen Ende Februar 2020 als «Panikorchester» bezeichnet wurden. Diese Kritik mache ich also nicht leichtfertig, wenn ich sage: Das echte Panikorchester sitzt bei den KI-Doomern.

Ende Februar 2020 hatten wir ein nachweislich hochansteckendes Virus und schon über 2500 Tote. Eine gefährliche Pandemie vorauszusagen, war keine Panikmache, sondern nüchterne Risikobeurteilung.

Mitte November 2025 haben wir eine KI, die ein Kuchenrezept wiedergeben kann, aber keinen Kuchen backen. Die Anzahl der KIs, die ernsthafte Versuche unternommen hätten, die Menschheit auszulöschen, liegt bei null.

Natürlich gibt es reale Herausforderungen im Umgang mit KI, beispielsweise Verzerrungen in Trainingsdaten oder die Gefahr gezielter Manipulation durch generierte Inhalte. Diese realen Risiken verdienen Aufmerksamkeit, allerdings auf sachlicher Basis und ohne Dramatisierung.

Warum spricht ChatGPT dann plötzlich über Weltuntergangsszenarien? Die Antwort ist banal: weil es so gepromptet wurde. Ein Sprachmodell reagiert auf Fragen und baut darauf auf. Wenn man es systematisch in eine Richtung führt, folgt es praktisch immer dieser Richtung. 

Es ist deshalb leicht, ein Gespräch so zu gestalten, dass es dramatisch, düster oder apokalyptisch klingt. Genau das ist hier passiert.

Ein Rechner für Wörter

Der Journalist hat das durchaus wirkungsvoll inszeniert, aber wirklich Neues haben wir dadurch nicht erfahren. Und möglicherweise haben nun zehntausende Menschen noch mehr Angst vor einer Technologie, die heute schon in Forschung, Medizin, Bildung und in der Industrie enorme Fortschritte ermöglicht.

Eine KI hat kein Bewusstsein, kein Verständnis, keine Ahnung, was Wörter wie «Menschen» oder «auslöschen» bedeuten. Ein Sprachmodell ist im Kern eine mathematische Funktion, ein Rechner für Wörter. Was man eingibt, bestimmt stark, was herauskommt. Das Modell gibt Argumente wieder, die Menschen bereits formuliert haben. Diese simple Tatsache ging im Artikel vollständig verloren.

Wie solche Systeme funktionieren, erkläre ich auf einfache Art und ohne Fachchinesisch in meinem Buch «Kompass Künstliche Intelligenz». Darin diskutiere ich auch die Frage des möglichen Kontrollverlusts. Ob dieser wahrscheinlich ist oder nicht, und unter welchen Umständen, verrate ich hier natürlich nicht. Denn von den Medien habe ich gelernt: Ein wenig Spannung schadet nie – besonders, wenn man um Aufmerksamkeit konkurriert.


Marcel Salathé ist Professor und Co-Direktor des EPFL AI Center. Sein neues Buch «Kompass Künstliche Intelligenz» erscheint diese Woche im Wörterseh Verlag.

Unsere Autorinnen und Autoren vertreten ihre eigene Meinung. Sie deckt sich nicht in jedem Fall mit derjenigen der Redaktion.

Kommentar wird gesendet...

KOMMENTARE