Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Deepfakes und Digitale Gewalt

Gedanken von Clara Böhme, Referentin Frauen*politik, erschienen im Magazin für hessische Pfarrer:innen 02/2024

Das erste Deepfake, dass ich bewusst wahrgenommen habe, war das Foto von Papst Franziskus in einem weißen Daunenmantel. Das war im März 2023 und sorgte damals hauptsächlich für Erheiterung. Bereits ein Jahr zuvor und wesentlich weniger lustig gab es ein Video des ukrainischen Präsidenten Selenskyj, in dem er angeblich zur Kapitulation aufrief. Hier scheint allerdings nicht ganz klar zu sein, ob es sich um ein Deepfake handelt, oder ob anderweitig manipuliert wurde. Denn auch wenn Deepfakes umgangssprachlich inzwischen quasi synonym für schwer zu erkennende Fälschungen stehen, setzt sich der Begriff eigentlich aus „Deep Learning“ und „Fake“ zusammen und bezeichnet konkret Dateien, die mittels künstlicher Intelligenz erstellt oder verändert wurden.

Manipulation von Bild und Ton
Manipulation und Fälschung von Bild und Ton gibt es schon lange. Zum Beispiel, dass das Gesicht einer Person auf einen anderen Körper gesetzt wird (so genanntes „face swapping“) oder dass Videos so geschnitten oder kontextualisiert werden, dass ein anderer Eindruck entsteht. Mit KI generierte bzw. bearbeitete Medien wirken jedoch häufig wesentlich echter, können inzwischen mittels Handy-App von fast jedem erstellt werden und sind in der schnelllebigen Online-Welt oft schwierig zu erkennen. Sie können bereits millionenfach geteilt worden sein, ehe ein Faktencheck sie als Fake enttarnt hat.
Schlagzeilen machen vor allem prominente und medienwirksame Fakes, sei es der Papst in einer hippen Jacke oder gefälschte Telefonanrufe von Politiker:innen. Aber im Grunde kann es jeden und jede treffen. KI-generierte Stimmen bieten ganz neue Möglichkeiten für „Enkeltricks“. Schon mit wenigen Tonschnipseln kann heutzutage ein KI-Programm eine Stimme imitieren, die dann jeden eigegebenen Text in der ausgewählten Stimme wiedergibt. Der ARD-Reporter Nils Dampz hat beispielsweise im Sommer 2023 den Selbstversuch gemacht, wie einfach das ist und seiner Mutter am Telefon KI-generierte Sätze mit seiner Stimme vorgespielt. Zunächst hat sie nichts gemerkt, dann wurde sie allerdings doch stutzig. Hinweise können sein, dass die KI (noch) nicht so spontan reagieren kann wie ein Mensch, sie transportiert Emotionen (noch) schlechter und stolpert auch nicht über die eigenen Worte. Wenn also plötzlich Anrufe kommen, in denen die vermeintliche Enkelin oder Tochter um Geld bittet, ist noch größere Vorsicht geboten als zuvor, zumal sich die Technik immer weiter verbessert.

Deutlich verbreiteter als gefälschte Telefonanrufe ist allerdings nach wie vor die Bildmanipulation. Eine Form, die vor allem Frauen (be)trifft, sind sogenannte Rachepornos, oder auf Neudeutsch „Revenge Porn“. Das bezeichnet die Veröffentlichung intimer Bilder ohne Einwilligung der abgebildeten Person, wie der Name schon verrät, oft als Racheakt. Die Opfer sind überwiegend Frauen und die Täter häufig Ex-Partner, die Bilder veröffentlichen, die während der Beziehung entstanden oder ausgetauscht wurden. Doch die technische Entwicklung ermöglicht es nun Nacktfotos oder auch ganze Videos mit jedem beliebigen Gesicht zu erstellen und zu veröffentlichen. Auch von Frauen, mit denen man(n) noch nie ein Wort gewechselt hat oder die einen haben abblitzen lassen.
Vor kurzem machte ein solcher Fall Schlagzeilen, als KI-generierte Nacktbilder der Sängerin Taylor Swift auftauchten. Nun hat nicht jede:r Millionen an Fans, die direkt in die Bresche springen, Bilder verifizieren, melden, und als Konter unverfängliche Fotos posten. Eine Studie der Cybersicherheitsfirma Deeptrace von 2019 zeigt, dass es sich dabei keineswegs um Einzelfälle handelt. Die Forschenden konnten zeigen, dass über 95 Prozent der Deepfakes, die im Internet kursieren, pornografischen Inhalt haben.

Bekämpfung digitaler Gewalt
Für Normalsterbliche ist es wahnsinnig schwierig und anstrengend im Internet ihre Rechte durchzusetzen. Generell sind Opfer von Gewalt nach wie vor häufig in der Bringschuld: Sie müssen beweisen, dass ihnen Unrecht angetan wurde. Ihrem Wort wird oft nicht geglaubt oder ihnen wird eine Mitschuld gegeben, z.B. warum sie denn überhaupt solche Bilder gemacht und verschickt hätten. Eine wirksame Strafverfolgung wird durch die Anonymität im Internet und internationale Server zusätzlich erschwert. Die Durchsetzung des Rechts auf Vergessen, dass Betroffenen die Möglichkeit gibt, persönliche Inhalte auf Internetseiten und in Suchmaschinen löschen zu lassen, ist meist ein überaus langwieriger und kräftezehrender Prozess.

Organisationen wie HateAid und die Plattform „Anna Nackt“ unterstützen bei Hass und Gewalt im Internet und im Fall von „Anna Nackt“ speziell bei manipulierten oder geleakten Nacktbildern. Im Oktober 2023 wurde eine Petition an Daniela Kluckert, Staatssekretärin von Digitalminister Volker Wissing (FDP) überreicht, die von der Bundesregierung fordert, besser gegen ungewollte Porno-Manipulation vorzugehen. Dass der Minister im Vorfeld mehrere Absagen für die Petitionsübergabe erteilte und letztendlich seine Staatssekretärin schickte, deutet nicht gerade darauf hin, dass im Digitalministerium besonders viel politischer Veränderungswille bei diesem Thema besteht.
Immerhin wurde auf EU-Ebene im Februar 2024 erstmals eine Einigung zu digitaler Gewalt erzielt. Entsprechend der neuen Richtline zur Bekämpfung von Gewalt gegen Frauen und häusliche Gewalt sollen u.a. die ungewollte Verbreitung sexualisierter Deepfakes, Cyberstalking und Belästigung sowie das unaufgeforderte Zusenden pornografischer Inhalte EU-weit strafbar werden. Obwohl (auch aufgrund der Blockade von Justizminister Marco Buschmann (FDP)) keine einheitliche Definition von Vergewaltigungen festgelegt werden konnte, ist die Richtline im Bereich der Bekämpfung digitaler Gewalt ein echter Meilenstein. Denn diese Gewaltform wurde in der Istanbul-Konvention, dem bisher wichtigsten internationalen Dokument zum Gewaltschutz, nicht abgedeckt. Jetzt müssen die Mitgliedsstaaten die Vereinbarungen allerdings auch angemessen umsetzen, vielleicht tut sich demnächst also doch etwas im Digitalministerium.

KI-generierte Bild-, Video- und Tonmaterialien werden uns in Zukunft noch vor große Herausforderungen stellen. Wir sehen bereits, dass die Technologie für kriminelle Zwecke verschiedenster Art genutzt wird. Sie kann aber auch zu einer echten Gefahr für unsere Demokratie und das gesellschaftliche Miteinander werden: wenn Bilder aus Konfliktgebieten manipuliert werden, um Stimmung zu machen, wenn Populisten wahlweise behaupten, dass Bilder von Demonstrationen gegen sie mit KI erstellt seien (Björn Höcke) oder sich mit der gleichen Begründung herausreden, wenn sie sich in einer verfänglichen Situation wiederfinden (Elon Musk). Es ist dringend notwendig, dass Politik und Justiz Maßnahmen für einen angemessenen Umgang mit der Technologie und ihren Opfern finden. Bis es so weit ist, heißt es einmal mehr: genau hinschauen und den eigenen kritischen Blick schärfen – vor allem im Internet.

Foto: Raph_PH / Wikimedia Creative Commons

Weitere Nachrichten

Die (neue) Gewalt gegen Frauen

dritter Rückblick der Veranstaltungsreihe ist online

Den Übergang gestalten

Jahresbericht 2023

Filmabend: Sternstunde ihres Lebens

reingezoomt!

Newsletter

Mit der Anmeldung erkläre ich mich damit einverstanden, dass Evangelische Frauen in Hessen und Nassau e.V. (EFHN) mich per E-Mail über aktuelle Entwicklungen, Termine und Schwerpunkte in der Frauen- und Verbandsarbeit informieren darf. Der Verband wird meine Daten ausschließlich zu diesem Zweck nutzen. Eine Weitergabe an Dritte erfolgt nur insoweit sie zur Durchführung dieses Angebots erforderlich ist. Mir ist bekannt, dass ich meine Einwilligung jederzeit mit Wirkung für die Zukunft widerrufen kann.