09.10.2025

Inhaltsklau

So gehen die Medien bei Missbrauch vor

Die unautorisierte Verwendung journalistischer Inhalte droht mit KI zuzunehmen. Die Medienhäuser verfolgen unterschiedliche Strategien, um sich dagegen zu wehren. Eine systematische Überwachung gibt es noch nicht überall.
Inhaltsklau: So gehen die Medien bei Missbrauch vor
Noch überwachen nicht alle Medienhäuser systematisch, was mit ihren Contents geschieht. (Bild: Keystone/Gaëtan Bally)

Im September hat 20 Minuten aufgedeckt, dass ein KI-generiertes Portal sich an seinen Inhalten bediente und sie als eigene News präsentierte. Nachdem der Klau bekannt gemacht wurde, wurden die fragwürdigen Inhalte gelöscht und die Betreiber des KI-Portals entschuldigten sich (persoenlich.com berichtete).

Mit der rasanten Entwicklung von KI ist zu erwarten, dass solche Fälle sich vermehren. persoenlich.com hat bei den Medienhäusern gefragt, ob sie aktiv prüfen, was mit ihren Inhalten geschieht und wie sie in Fällen von unbewilligter Übernahme vorgehen.

Zunahme der Missbräuche bei Fotos

Die Problematik des Inhaltsklaus ist nicht neu. Dass journalistische Inhalte ohne Quellenangabe übernommen und publiziert werden, «passiert immer wieder – und zwar bereits lange vor dem KI-Zeitalter», wie Ringier auf Anfrage betont. Eine systematische Überwachung gebe es beim Blick-Herausgeber allerdings nicht.

Auch für die Nachrichtenagentur Keystone-SDA ist die unautorisierte Übernahme von Inhalten «schon länger ein Thema», schreibt der stellvertretende Geschäftsführer Jann Jenatsch. Im Textbereich halte sich der Missbrauch in Grenzen. «Eine deutlich stärkere Zunahme beobachten wir seit Jahren bei Fotografien. Hier setzen wir auf automatisierte Kontrollsysteme», so Jenatsch.

Die gefragten Unternehmen geben an, gegen missbräuchliche Verwendung von Inhalten vorzugehen. Dabei reichen die Massnahmen von der freundlichen Kontaktaufnahme mit dem fehlerhaften Medienportal bis zur formellen Abmahnung. Letzteres zeige sich wirksam, berichtet CH Media. Bei massiven Verletzungen fordert Tamedia die Portale auf, die Beiträge zu löschen und sich zu verpflichten, auf solche Praxis zu verzichten, teilt das Unternehmen mit.

Spezialisierte Software bei der NZZ

Bei Bildern stellt Keystone-SDA fest, liege oft keine böse Absicht zugrunde, sondern fehlende Kenntnis. «Wir treten mit den betreffenden Personen in Kontakt und ermöglichen nachträglich den Erwerb der nötigen Lizenzen», bemerkt Jann Jenatsch. Das Vorgehen habe sich bewährt.

Eine andere Herausforderung, die KI für die Medien bringt, ist, wenn Algorithmen unautorisiert auf ihre Inhalte zugreifen und sie für die Dialogtools wiedergeben. Anders gesagt, wenn journalistische Arbeit auf ChatGPT und Co landet. Diese Problematik beschäftigt die NZZ besonders. Sie setzt auf eine spezialisierte Software, um zu beobachten, ob und welche KI-Unternehmen auf ihre Inhalte zugreifen, wie die Medienstelle auf Anfrage schreibt. «Eine vollständige Verhinderung solcher Praktiken ist technisch jedoch anspruchsvoll.» Klare rechtliche Rahmenbedingungen im Bereich Leistungsschutzrecht und KI-Regulierung sieht das Medienhaus als notwendig an.

Zwar hat die Recherche von 20 Minuten zur Löschung von geklauten Inhalten geführt, das KI-Portal existiert aber noch. Inzwischen hat es angekündigt, sich neu zu formieren. Den Prozess begleitet KI-Unternehmer Peter Kauf, heisst es auf der Webseite. Als einer der Schwerpunkte werden «neue journalistische Formate», die «verständliche und spannende Aufbereitung verlässlicher Inhalte» sowie «saubere Quellenarbeit» genannt. Ob weitere Missbräuche vermieden werden, wird sich zeigen.


Kommentar wird gesendet...

KOMMENTARE

Kommentarfunktion wurde geschlossen
persönlich Exemplar
Neues Heft ist da
Die neue «persönlich»-Ausgabe ist da - jetzt Probe-Exemplar bestellen.