Google beherrschte lange Zeit mehr als 90 Prozent des Suchmaschinenmarkts. Über neun von zehn Internetsuchen weltweit liefen über die Google-Server. Aus diesem Grund haben journalistische Medien, die von Reichweite abhängig sind, ihre Inhalte ab ungefähr Mitte der Nullerjahre so optimiert, dass sie bei Google möglichst weit oben ranken. Stichwort SEO, Search Engine Optimization. Und sich mit dieser Strategie meiner Meinung nach in eine gewisse Abhängigkeit zum Konzern begeben.
Google verliert – KI-Modelle rücken vor
Dank (oder besser: wegen) künstlicher Intelligenz könnte sich die Google-Dominanz nun wieder mindern. Ich schreibe bewusst nicht «auflösen», dafür ist die Macht von Google nach wie vor zu gross – aber Anfang dieses Jahr ist der Marktanteil der Suchmaschine erstmals seit 2015 unter die 90-Prozent-Marke gerutscht. Auch wenn der Rückgang wohl noch nicht auf ChatGPT, Claude oder Perplexity zurückzuführen ist, scheint für mich absehbar, dass KI-Modelle von Nutzerinnen und Nutzern immer öfter auch als Suchmaschinen eingesetzt werden. (Persönlich halte ich sie für diesen Zweck für ungeeignet, aber das spielt ja keine Rolle).
Wenn diese Entwicklung tatsächlich wie erwartet passiert, müssen sich Medienhäuser nicht mehr nur fragen «Wie komme ich in den Google-Suchergebnissen nach oben?», sondern auch: «Wie stelle ich sicher, dass meine Inhalte in ChatGPT oder Perplexity richtig und möglichst prominent wiedergegeben werden?» Und: «Wie hoch ist das Risiko, dass KI-Modelle gar keine Links zu mir mehr ausspielen? Was bedeutet das für Paywalls?» Gerade Letzteres spielt für die Geschäftsmodelle vieler Medien eine zentrale Rolle: Viele KIs geben Inhalte wieder, ohne dass Nutzer:innen je die Originalquelle besuchen müssen.
Medienhäuser und die Zusammenarbeit mit KI-Anbietern
Medienhäuser müssen sich zwingend überlegen, wie eine Zusammenarbeit mit Anbietern von KI-Modellen wie OpenAI oder Anthropic aussehen soll. Diese ist jedoch weitaus komplexer, als ein bisschen SEO-Salz auf die Texte zu streuen. Es handelt sich nicht um eine vergleichsweise einfache Optimierungsfrage, sondern eine strategische Grundsatzentscheidung: Sollen wir mit KI-Anbietern zusammenarbeiten und wenn ja, mit welchen? Wie viel sind unsere Inhalte «wert» und welche Lizenzgebühr sollen wir verlangen?
Auch technisch stellen sich zwei Fragen: Wie lassen sich journalistische Inhalte in KI-Modellen sichtbar machen? Und: Lässt sich verhindern, dass diese Inhalte für Training genutzt werden?
Eine abschliessende Antwort habe ich bei der ersten Frage nicht. Bei der zweiten gibt es allerdings klare Hinweise, dass dies nicht möglich sein wird. Zwei Beispiele verdeutlichen dies:
-
Die New York Times hat sich entschieden: Sie hat OpenAI verboten, ihre Inhalte für Training zu nutzen (und sogar gegen OpenAI geklagt). Die Folge: In einer Websuche bei ChatGPT mit der konkreten Frage (What is the New York Times reporting on Donald Trump right now?) paraphrasiert die KI zwar Inhalte der NYT, zumindest sinngemäss, nennt als Quellen aber die New York Post, Politico, Wikipedia und Reuters.
-
Demgegenüber stehen Medien der Axel Springer Gruppe, die mit OpenAI kooperieren: Auf dieselbe Frage nach entsprechenden Inhalten der «Welt» bringt ChatGPT elf Links zu Artikeln der Zeitung.
Für Sichtbarkeit müssen sich Medien nach den KI-Anbietern richten
Das beweist für mich: Ohne Kooperation mit den KI-Anbietern verlieren Medien an Sichtbarkeit und Reichweite. Allerdings hat man als Inhalteanbieter auch mit einer Kooperation keine Handhabe oder gar Sicherheit, in den Antworten aufzutauchen. Denn während bei Google die Sichtbarkeit mit SEO-Techniken bis zu einem gewissen Grad noch gesteuert werden konnte, entscheidet bei KI-Modellen erstens der Algorithmus, und zweitens ist die Quellenangabe längst nicht garantiert.
Die Situation ist überaus paradox. Einerseits wollen Medien nicht unsichtbar werden, aber andererseits auch nicht, dass ihre Inhalte erstens für das Training eines grossen Sprachmodells genutzt werden und sie zweitens möglicherweise in einem unerwünschten Zusammenhang auftauchen.
Wer sich nicht mit AIO beschäftigt, wird büssen
Wer nicht an Reichweite einbüssen will, wird weiterhin auf Traffic von Suchmaschinen (ob KI oder nicht) angewiesen sein. Deshalb müssen sich Medienhäuser mit den genannten Fragen beschäftigen und möglichst gute Antworten darauf finden. Idealerweise arbeiten die grossen Verlagshäuser gemeinsam an einer Lösung – sie haben alle dieselben Interessen daran, die richtigen Antworten zu finden.
Für mich ist klar: Nach SEO kommt AIO – Artificial Intelligence Optimization. AIO ist gleichzeitig eine technische Anpassung und Verlagsstrategie. Es bedeutet, den Entscheid zur Zusammenarbeit mit den grossen KI-Anbietern zu treffen, Inhalte so zu optimieren, dass sie von KI-Modellen richtig verarbeitet und wenn möglich zitiert werden – und all dies möglichst ohne Trainingsdaten zur Verfügung zu stellen.
Wer sich nicht mit AIO beschäftigt, wird im digitalen Nirwana verschwinden. Die Frage ist nicht, ob Medien sich anpassen müssen, sondern wie schnell.
Reto Vogt ist Studienleiter Digitale Medien und KI am MAZ in Luzern und arbeitet zudem als freier Journalist. Davor war er Chefredaktor von Inside IT. Dieser Beitrag erschien zuerst auf retovogt.ch.
Unsere Kolumnistinnen und Kolumnisten vertreten ihre eigene Meinung. Sie deckt sich nicht in jedem Fall mit derjenigen der Redaktion.
KOMMENTARE
25.02.2025 07:54 Uhr
BLOG
Wie Medien sichtbar bleiben