• 06.10.2025

Falsche Bilder, echte Gewalt: Deepfake-Pornografie als Angriff auf Frauenrechte

Donald Trump küsst Elon Musk die Füße, sonnt sich in Gaza am Strand und tanzt mit Putin auf einer Hochzeit. Diese und ähnliche Videos erregen in den sozialen Medien seit einiger Zeit Aufmerksamkeit. Hierbei handelt es sich um sogenannte Deepfakes, also mithilfe künstlicher Intelligenz kreierte, nicht reale Inhalte (Bilder, Videos oder Tonspuren). Sie zeigen, wie Menschen etwas tun oder sagen, was so in Wirklichkeit nie passiert ist.(1) Die davon ausgehende Gefahr wird in den Medien umfassend diskutiert. Besonders im Fokus steht dabei die Bedrohung der Demokratie durch politische Deepfakes, die gezielt Falschinformationen verbreiten. Gefürchtet wird insbesondere die mögliche Einflussnahme auf Wahlkämpfe. Ein bekanntes Beispiel dafür sind gefälschte Videos aus 2024, in denen Taylor Swift ihre Unterstützung für Donald Trump bekundet.(1)

Was dabei weitgehend ignoriert wird: 98% aller online veröffentlichten Deepfake-Videos sind pornografischer Natur – und in 99 % der Fälle richten sie sich gegen Frauen.(2) Sie stellen Frauen gezielt bloß, bringen sie zum Schweigen und versetzen sie in Angst vor weiteren digitalen oder physischen Übergriffen.(9) Während sich die öffentliche Debatte um den Schutz politischer Systeme dreht, bleiben die alltäglichen digitalen Angriffe gegen Frauen weitestgehend unsichtbar. 

Was sind Deepfake-Pornos? 

Es gibt zwei Arten pornografischer Deepfakes: Mithilfe von FaceSwap-Programmen können die Gesichter von Betroffenen in existierende Pornos geschnitten werden, sodass es aussieht, als sei die Betroffene selbst Teil des Videos. Daneben gibt es DeepNudes (Nudes ~ dt. Nacktbilder), bei welchen mit Nudify-Programmen die Betroffenen digital „entkleidet“ werden. Aus einem normalen Foto entsteht so ein gefälschtes Nacktbild.(3)

Wie weit verbreitet diese Form digitaler Gewalt bereits ist, zeigt die 2023 veröffentlichte Studie State of Deepfakes vom Cybersicherheitsunternehmen Security Hero: Während 2022 weltweit rund 3.700 Deepfake-Pornos erstellt wurden, waren es 2023 bereits über 21.000 – ein Anstieg von 464 % innerhalb eines Jahres.(2) Die Technik dafür ist inzwischen niedrigschwellig zugänglich: Jedes dritte frei verfügbare Deepfake-Tool ermöglicht das Erstellen pornografischer Inhalte. Für ein 60-sekündiges Deepfake-Video benötigt man ein einziges klares Foto eines Gesichts, 25 Minuten Zeit und keinen einzigen Cent.(2) Eine Umfrage in den USA zeigt: Fast die Hälfte der Männer hat bereits Deepfake-Pornos konsumiert, 74 % davon empfinden kein schlechtes Gewissen.(2) Das ist ein deutliches Zeichen für die gesellschaftliche Normalisierung dieser Gewaltform. 

Deepfakes als Waffe gegen Frauen 

Deepfakes sind Teil bildbasierter sexualisierter Gewalt – einer Gewaltform, bei der intime oder sexualisierte Aufnahmen ohne Zustimmung erstellt, verbreitet oder genutzt werden. Sie entziehen Betroffenen die Kontrolle über ihr Abbild und machen ihre Körper digital verfügbar.(4)(12) Pornografische Deepfakes sind kein zufälliges Nebenprodukt digitaler Technologien, sondern Ausdruck tief verwurzelter patriarchaler Machtstrukturen. In 99 % der Fälle sind Frauen die Betroffenen.(2) Deepnude Software ist sogar ausschließlich in der Lage, Bilder von Frauenkörpern zu generieren.(5) Mit 94 % machen Frauen in der Unterhaltungsbrache, wie Schauspielerinnen und Sängerinnen, die große Mehrheit der Betroffenen aus. Laut Recherchen des SWR sind immer häufiger auch Frauen des nicht-öffentlichen Lebens betroffen. Oft sind die Ersteller der Bilder Männer aus ihrem sozialen Umfeld, beispielsweise Ex-Partner, welche die Frauen demütigen oder erpressen wollen.(6) Auch queere und/oder Menschen mit Behinderung sind übermäßig oft von Deepfake Pornos betroffen.(7) Deepfakes stellen somit neue Instrumente zur Aufrechterhaltung bestehender Diskriminierungen und Machtstrukturen dar.  

Während sich die Diskussion um Deepfakes meist um deren Erkennung und Entlarvung dreht, ist bei Deepfake-Pornos die Frage nach der Echtheit oft nebensächlich. Viele dieser Videos sind offen als Fälschungen gekennzeichnet oder werden auf Plattformen veröffentlicht, die ausschließlich Deepfake-Pornografie hosten. Alle wissen: Diese Bilder sind nicht real.(8) Und doch entfalten sie eine zerstörerische Wirkung – denn Bilder müssen nicht wahr sein, um mächtig zu sein. Jedes Bild erzählt eine Geschichte. Die Geschichte der Deepfake-Pornos ist jedoch nicht, dass die betroffene Frau Pornos dreht, sondern dass Männer mit ihrem Körper tun können, was sie wollen. Dass ihr Bild, ihr Gesicht, ihr Körper jederzeit verfügbar ist. Deepfakes zeigen nicht die Wahrheit, aber sie offenbaren, was als begehrenswert gelten soll, was als konsumierbar verstanden wird und wer in der digitalen Welt die Deutungshoheit über weibliche Körper beansprucht. Sie inszenieren Frauen als permanent sexuell verfügbare Objekte. Es geht nicht um Realität, sondern um Kontrolle und die Behauptung patriarchaler Macht.(8)(7)(5)

Die Veröffentlichung der Deepfakes gehen oft mit Doxing einher. Das bedeutet, es werden mit den Videos sensible Informationen wie Name, Wohnort, Telefonnummer, ArbeitgeberIn oder Universität der Betroffenen veröffentlicht.(9) Diese berichten, Nachrichten zu erhalten oder Kommentare unter den Videos zu lesen, in denen Männer Vergewaltigungs- oder Gewaltfantasien an ihnen schildern. Betroffene fühlen sich oftmals unsicher, da sie Angst haben, ihnen könnte auch physisch etwas angetan werden.(7) Psychische Folgen können von Panikattacken bis Suizid reichen und Betroffene ziehen sich oft gänzlich aus dem digitalen Raum zurück, um keine Angriffsfläche zu bieten.(9) Somit werden Frauen aus diesem Raum verdrängt, was in Zeiten, in denen er zu einem wichtigen Ort für Informationen und Debatte wird, fatal ist.  

Diese Verdrängung und die gezielte Schädigung des Rufes von Frauen sind eine Strategie des Anti-Feminismus. Durch Deepfake-Pornos sollen häufig Journalistinnen oder Politikerinnen zum Schweigen gebracht werden, um feministische und allgemein die Stimmen von Frauen zu unterdrücken.(9)(10)(11)(12) Folglich sind nicht nur die politischen Deepfakes, sondern auch die pornografischen ein ernstzunehmendes Problem für die Demokratie. 

Sextortion 

Eine weitere bedrohliche Entwicklung im Zusammenhang mit Deepfake-Pornografie ist Sextortion, ein Begriff, der sich aus Sex und Extortion (Erpressung) zusammensetzt. Dabei drohen TäterInnen mit der Veröffentlichung von Nacktaufnahmen oder sexuellem Material der Betroffenen, um Geld zu erpressen, sexuelle Handlungen zu erzwingen oder andere Forderungen zu stellen. TäterInnen können Bilder zum Beispiel durch Sexting erhalten oder einfach nur behaupten, im Besitz solcher Aufnahmen zu sein. Mittlerweile nutzen sie auch Deepfakes, um Aufnahmen zu fälschen. Das erhöht den Druck auf die Betroffenen enorm, denn die Fälschungen wirken so glaubwürdig, dass sogar FreundInnen, KollegInnen oder Familienmitglieder von ihrer Echtheit überzeugt sein können. 

Es fehlen Gesetze – und Solidarität! 

Trotz der wachsenden Bedrohung durch Deepfake-Pornos und Sextortion fehlt es bislang an klaren rechtlichen Regelungen. In Deutschland existiert kein spezifisches Gesetz, das die Erstellung oder Verbreitung solcher Inhalte gezielt unter Strafe stellt. Wer sich juristisch wehren will, muss meist auf Umwege zurückgreifen, etwa über das Recht am eigenen Bild, Verleumdung oder Beleidigung. Somit handelt es sich immer um Einzelfall-Entscheidungen, was eine Klage für Betroffene unsicher macht und abschrecken kann.(3)(12)

Es braucht jedoch nicht nur rechtliche Klarheit, sondern auch einen gesellschaftlichen Bewusstseinswandel. Viele Frauen suchen sich keine Hilfe aus Angst vor weiteren Angriffen oder Schuldzuweisungen.(6)(7) Victim Blaming, also die Mitschuldzuweisung an die Opfer, ist weit verbreitet.(11) Was fehlt, ist ein Klima der Solidarität: Räume, in denen Betroffene ihre Erfahrungen teilen können, Unterstützung finden und sich gemeinsam zur Wehr setzen. 

Deepfake-Technologie wird immer realistischer. Es ist höchste Zeit, rechtliche Lücken zu schließen und digitale Gewalt als das zu behandeln, was sie ist: ein Angriff auf Menschenwürde und Selbstbestimmung von Frauen.

Hier finden Sie TERRE DES FEMMES Position zu Pornografie.

 

Quellen:

  1. (1)Bundeszentrale für politische Bildung (2024). Wenn der Schein trügt: Deepfakes und Wahlen. https://www.bpb.de/system/files/dokument_pdf/bpb_UM_DeepFakes_Hintergrund_WEB.pdf (Zugriff am 16. April 2025). (2)Home Security Heroes (2023). 2023 State of Deepfakes: Realities, Threats, and Impact. https://www.homesecurityheroes.com/state-of-deepfakes/#overview-of-current-state (Zugriff am 16. April 2025). 

  2. (3)HateAid. (2024). Realität oder Fake? Bedrohung durch Deepfakes. https://hateaid.org/deepfakes/ (Zugriff am 16. April 2025). 

  3. (4)Lucas, K. T. (2022). Deepfakes and domestic violence: Perpetrating intimate partner abuse using video technology. In: Victims & Offenders, 17(5), 647–659. 

  4. (5)European Parliament: Directorate-General for Parliamentary Research Services, Huijstee, M. v., Boheemen, P. v., Das, D., Nierling, L. et al. (2021). Tackling deepfakes in European policy.  

  5. (6)Westarp, A. (2022). Tagesschau. Es kann jede treffen. https://www.tagesschau.de/investigativ/deepfakes-103.html (Zugriff am 16. April 2025). 

  6. (7)Flynn, A., Powell, A., Scott, A. J., & Cama, E. (2022). Deepfakes and digitally altered imagery abuse: A cross-country exploration of an emerging form of image-based sexual abuse. In: The British Journal of Criminology, 62(6), 1341–1358.   

  7. (8)van der Nagel, E. (2020). Verifying images: Deepfakes, control, and consent. In: Porn Studies, 7(4), 424–429.  

  8. (9)Oehmig, L. (2024). Das Nettz. Pornografische Deepfakes als Form der digitalen Gewalt. https://www.das-nettz.de/pornografische-deepfakes-als-form-der-digitalen-gewalt (Zugriff am 16. April 2025).  

  9. (10)Ayyub, R. (2018). Huffington Post. I was the victim of a deepfake porn plot intended to silence me. https://www.huffingtonpost.co.uk/entry/deepfake-porn_uk_5bf2c126e4b0f32bd58ba316 (Zugriff am 16. April 2025). 

  10. (11)HateAid: Koch, L., Voggenreiter, A., & Steinert, J. I. (2025). Angegriffen & alleingelassen: Wie sich digitale Gewalt auf politisches Engagement auswirkt. Ein Lagebild.  

  11. (12)Sittig, J. (2024). Bundeszentrale für politische Bildung. Strafrecht und Regulierung von Deepfake-Pornografie. https://www.bpb.de/lernen/bewegtbild-und-politische-bildung/556843/strafrecht-und-regulierung-von-deepfake-pornografie/ (Zugriff am 16. April 2025). 

nach oben
Jetzt spenden