Künstliche Intelligenz

„Beunruhigend und schädlich“: Prominente immer öfter Opfer von Deep-Fake-Pornos

Innerhalb von drei Monaten wurden solche Deep-Fake-Pornos 100 Millionen Mal aufgerufen, ergab eine Untersuchung.
Innerhalb von drei Monaten wurden solche Deep-Fake-Pornos 100 Millionen Mal aufgerufen, ergab eine Untersuchung. APA/AFP/Andrej Ivanov
  • Drucken

Was früher viel technisches Wissen und Können vorausgesetzt hat, lässt sich heute mit nur wenigen Klicks erreichen. Genau deswegen tauchen immer mehr Pornos mit Prominenten im Netz auf. Zuletzt die italienische Premierministerin, Giorgia Meloni.

Eine nackte Frau räkelt sich lasziv auf dem Bett. Das Gesicht wirkt bekannt vertraut. Erst auf den zweiten Blick wird klar, dass es sich hier um Giorgia Meloni handelt. Ein Porno mit der italienischen Premierministerin. Doch es ist kein heimliches Sextape, sondern ein ausgeklügelter Deep Fake. Und sie ist nicht das einzige Opfer in jüngster Zeit. Das zeigt eine aktuelle Untersuchung des britischen Senders Channel4.

Im Juli wird sie vor Gericht aussagen, denn ein 40-jähriger Mann und sein 73 Jahre alter Vater stehen unter Verdacht, diese Videos erstellt zu haben. Sie sind wegen Diffamierung angeklagt. Ein eigenes Gesetz gegen Deep Fakes gibt es nicht. Anders in Großbritannien, dort steht seit dem 31. Jänner die Weitergabe von Bildern ohne Zustimmung unter dem Online Safety Act unter Strafe. Mit der steigenden Flut an künstlich erstellten Pornos mit bekannten Gesichtern auch notwendig.

Der britische Sender News4 hat fünf dieser einschlägigen Websites untersucht. Tausende berühmte Menschen sind Opfer dieser Deep-Fake-Pornos geworden, 255 Briten – vornehmlich Frauen: Schauspielerinnen, Fernsehstars, Musikerinnen und YouTube-Stars. Darunter auch die News4-Moderatorin Cathy Newman.

„Es fühlt sich wie eine Verletzung an. Es fühlt sich wirklich unheimlich an, dass jemand da draußen, der das zusammengestellt hat, mich nicht sehen kann und diese Art von imaginärer Version von mir sehen kann, diese gefälschte Version von mir“, sagt sie in dem von ihrem Sender produzierten Video. Die Verletzung kommt auch nicht von ungefähr, denn immerhin wurden diese Websites innerhalb von drei Monaten mehr als 100 Millionen Mal aufgerufen. „Es ist, als ob Frauen nichts wert wären“, sagt eine weitere Betroffene und ergänzt: „Wir sind offenbar nur ein Stück Fleisch, mit dem Männer machen, was sie wollen.“

Dass sich dieses Problem nicht nur auf Promis beschränkt, das zeigt ein Beispiel aus Spanien. Wie auch bei den Videos wird für die Deep Fakes grundsätzlich nur eine Reihe von Bildern einer Person benötigt. Den Rest erledigt die KI. Diese stülpt sozusagen nur die Bilder des Gesichts über das Video beziehungsweise die Bilder mit dem restlichen, meist nackten Körper.

„Deep-Fake-Material ist zutiefst beunruhigend“

Bei dem Fall in Spanien wurden Fotos von minderjährigen Mädchen von Klassenkollegen genommen und dann nach der Bearbeitung mit Nacktbildern online verbreitet. In diesem Fall war schnell klar, dass es sich um manipulierte Bilder handelte. Doch das wird immer schwerer.

Ein Ofcom-Sprecher sagte: „Illegales Deep-Fake-Material ist zutiefst beunruhigend und schädlich. Unternehmen wie Google müssten sich eingestehen, dass dieses Risiko besteht, und Maßnahmen ergreifen, um ihr Erscheinen zu verhindern. Da dies nicht immer möglich sei, müsste das Entfernen zumindest schneller funktionieren.

Gegenüber „The Guardian“ erklärt Google in einem Statement: „Wir verstehen, wie beunruhigend diese Inhalte sein können, und wir sind bestrebt, unsere bestehenden Schutzmaßnahmen auszubauen, um den Betroffenen zu helfen.“

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.