07.04.2026

Deepfake

Technologie trifft auf bestehende Gewalt

Wer online sichtbar ist, kann jederzeit zur Zielscheibe werden. Seit Anfang des Jahres haben Deepfakes immer wieder Schlagzeilen gemacht. Dabei handelt es sich keinesfalls um Einzelphänomene: Bildbasierte sexualisierte Gewalt an Frauen und Mädchen nimmt seit Jahren zu.
Deepfake: Technologie trifft auf bestehende Gewalt
Grok und die neue Deepfake-Gefahr: Ein Klick reicht für sexualisierte Gewalt. (Bild: Keystone/EPA/Fazry Ismail)

An Silvester entschuldigte sich Elon Musks Chatbot «Grok» dafür, ein Bild von zwei Teenagerinnen «in sexualisierten Outfits» erstellt und geteilt zu haben.

Bilder, Videos und Audioaufnahmen, die mithilfe von künstlicher Intelligenz (KI) erstellt und verfälscht wurden, werden als Deepfakes bezeichnet. Dabei müssen Deepfakes nicht zwangsläufig problematisch oder illegal sein – doch die Möglichkeiten der Manipulation haben sich durch KI grundlegend verändert.

Achtzig Prozent der Anfragen von Männern

Nachdem auf Musks Plattform X eine einfache Bildbearbeitungsfunktion eingeführt worden war, wurden innert kürzester Zeit Millionen sexualisierter Bilder erstellt – hauptsächlich von Frauen, aber auch von Minderjährigen.

Etwa zur selben Zeit, hatte die deutsche Moderatorin Collien Fernandes beim spanischen Gericht in Palma de Mallorca einen Bericht eingereicht. Darin beschrieb sie, wie während zehn Jahren Internetprofile in ihrem Namen erstellt und betrieben worden waren.

Über die Profile wurden sexualisierte Inhalte von Fernandes verbreitet, die mittels künstlicher Intelligenz erstellt worden waren. Die Moderatorin machte Mitte März öffentlich, dass es sich beim Täter um ihren Ehemann, Schauspieler Christian Ulmen, handelt.

Gemäss dem Schweizer Verein «Tech Against Violence» hat das «nicht-einvernehmliche Erstellen und Verbreiten intimer und sexualisierter Bilder und Videos» durch künstliche Intelligenz stark zugenommen. Das habe schwerwiegende Auswirkungen auf die Betroffenen – unabhängig davon, ob die Aufnahmen echt oder manipuliert worden sind.

Täter und Opfer kennen sich

KI-generierte sexualisierte Inhalte seien «Teil eines Kontinuums geschlechtsspezifischer Gewalt», erklärte Simone Eymann von «Tech Against Violence» im Gespräch mit der Nachrichtenagentur Keystone-SDA. In 99 Prozent der Fälle seien davon Frauen und Mädchen betroffen.

Der Verein kennt Studien, die zeigen, dass die Tatpersonen in siebzig Prozent der Fälle aus dem persönlichen Umfeld der Betroffenen stammen. Meist handelt es sich um aktuelle oder ehemalige Partner.

Dabei brauche es ein einziges Foto - aus den sozialen Medien, einem Gruppenchat oder dem Arbeitsprofil. «Wer online sichtbar ist, kann jederzeit Ziel werden», informiert der Verein. Oft würden Betroffene es nicht wissen, wenn sie Opfer von bildbasierter sexualisierter Gewalt geworden sind.

Die Tatpersonen strafrechtlich zu verfolgen, sei insbesondere dann schwierig, wenn sich diese im Ausland befinden. Die bestehenden Gesetze greifen teilweise, so «Tech Against Violence», würden den Betroffenen in der Praxis aber oft nur begrenzt Schutz bieten.

Klare Meldewege, Plattformregulierungen und internationale Zusammenarbeit seien daher besonders wichtig.

Ist es noch lustig, wenn es sich nicht so anfühlt?

Auch in der Schweiz läuft ein Verfahren wegen Deepfakes: Im vergangenen Jahr verbreitete eine Gruppe von Sekundarschülern zwischen 12 und 14 Jahren via Snapchat sexualisierte Bilder einer Mitschülerin. Die Bilder hatten die Jugendlichen ganz einfach im Internet erstellen können.

Dafür nutzten sie eine Gratis-Webseite, die damit warb, beliebige Personen in wenigen Sekunden ausziehen zu können – einfach und kostenlos, die Schüler mussten nicht einmal ihre Mail-Adresse hinterlegen.

Dass digitale Gewalt aber auch Kinder- und Jugendliche miteinschliesse, das hat Rahel Heeg von der Fachhochschule Nordwestschweiz (FHNW) immer wieder festgestellt. «Eine der grossen Schwierigkeiten für Jugendliche ist, für sich selbst zu klären, was noch zum alltäglichen Necken gehört und wo die Grenze zum Inakzeptablen liegt», sagte Heeg. Für Jugendliche verlaufe diese Grenze oft unklar. Erschwerend komme dazu noch die Scham hinzu, über Sexualität zu sprechen.

Beginnt bei Snapchat und endet auf Sexseiten

Diese Scham könne Jugendliche daran hindern, darüber zu sprechen und nach Unterstützung zu fragen, so Heeg. Und: «Wenn es dann auch noch dazu kommt, dass ein digitaler Missbrauch breit zugänglich wird, etwa durch die Veröffentlichung auf Foto- oder Videoplattformen, ist die Situation praktisch unkontrollierbar.» Laut Heeg kann es dann zu einer ernsthaften Gefährdung kommen.

In dieser Situation bräuchten Kinder und Jugendliche dringend Schutz und Unterstützung; doch derzeit gebe es keine Erkenntnisse, wie Kinder und Jugendliche an Unterstützung kommen und ob sie dabei auf Hindernisse stossen würden. Um diese Lücke zu schliessen, führt das Institut Kinder- und Jugendhilfe der FHNW nun eine Studie durch. (sda/cbe)

Von Nyima Sonam, Keystone-SDA


Kommentar wird gesendet...

KOMMENTARE