Deepfake-Porno: Was als nächstes zu tun ist, wenn jemand einen von Ihnen macht

Wenn Deepfake explizite Bilder von Taylor Swift begann vor kurzem, auf X (ehemals Twitter) viral zu gehen.dann löschte die Plattform schließlich das Konto des ursprünglichen Posters machte den Namen des Popstars unauffindbarobwohl bestimmte Suchbegriffe immer noch den pornografischen Inhalt auftauchen ließen.

Kurz gesagt, X konnte nicht herausfinden, wie es die Bilder von seiner Plattform fernhalten konnte. Das verheißt nichts Gutes für den Durchschnittsmenschen, der Opfer eines nicht einvernehmlichen Deepfake-Bildes oder -Videos wird.

Denn wenn Social-Media-Plattformen einen der berühmtesten Menschen der Welt nicht vor Deepfake-Missbrauch schützen können, garantieren sie sicherlich keine Sicherheit für unbekannte Benutzer, die sich nicht auf Anwälte, Publizisten und eine glühende Fangemeinde stützen können .

Adam Dodge, ein zugelassener Anwalt und Gründer von Beendigung des technologiegestützten Missbrauchs (EndTAB)sagt, dass der Mangel an Sicherheitsvorkehrungen, Vorschriften und einem soliden Rechtsschutz die Opfer, bei denen es sich durchweg um Frauen handelt, in die Lage versetzt, mit den Folgen nicht einvernehmlicher, expliziter oder pornografischer Deepfake-Bilder und -Videos umzugehen, die ihr Abbild zeigen.

Dodge argumentiert, dass die Belastung einer bereits traumatisierten Person mit diesen Aufgaben die erlittene Verletzung nur noch verstärkt. Aber leider ist es derzeit die wichtigste Möglichkeit, mit Deepfake-Missbrauch umzugehen, indem man es selbst macht.

Wenn Sie Opfer von Deepfake-Missbrauch werden, können Sie folgende sechs Schritte unternehmen, um sich zu schützen:

1. Erkennen Sie den Schaden des Deepfake-Missbrauchs an.

Dodge sagt, dass Opfer möglicherweise hören, dass Deepfake-Pornografie dem Opfer nicht wirklich schadet, weil die Bilder oder Videos nicht echt sind. Er fordert die Opfer dringend auf, dieser Begründung nicht zu glauben.

Stattdessen bezeichnet er KI-bildbasierten Missbrauch als eine Form der Gewalt, insbesondere gegen Frauen. Gefälschte Bilder und Videos können dem Ruf und den beruflichen Aussichten einer Frau schaden und von Fremden genutzt werden, um sie online und offline zu belästigen und zu schikanieren. Auch der Umgang mit der Entfernung ist anstrengend und emotional. Mit anderen Worten: Betrachten Sie diese Art von Missbrauch gegen Frauen als Teil eines Gewaltspektrums, das zu echten Traumata führt.

Bevor ein Opfer den mühsamen Prozess des Umgangs mit Deepfakes beginnt, empfiehlt Dodge, dass es sich einen Moment Zeit nimmt, um festzustellen, dass das, was passiert ist, nicht seine Schuld ist, und um zu bestätigen, was es erlebt.

„Für das Opfer und die Menschen, die es unterstützen, und die Menschen, die diese Dinge erschaffen und teilen, ist es wirklich wichtig, den Schaden anzuerkennen, damit sie verstehen, dass es sich um eine zutiefst gewalttätige und schädliche Tat handelt.“

Es gibt auch Ressourcen zur Unterstützung der Opfer. Der in den USA ansässige Cyber-Bürgerrechtsinitiative verfügt über eine Hotline zum Thema Bildmissbrauch sowie eine ausführliche Anleitung, was zu tun ist, wenn Sie Opfer geworden sind. Im Vereinigten Königreich können sich Opfer an die wenden Rache-Porno-Helplinedas Opfern von intimem Bildmissbrauch hilft.

2. Sammeln Sie Beweise, indem Sie den Inhalt dokumentieren.

Dodge sagt, dass der Großteil des bildbasierten KI-Missbrauchs derzeit hauptsächlich über zwei Medien geschieht.

Ein Typ wird durch Apps begangen, die es Benutzern ermöglichen, ein vorhandenes Bild von jemandem aufzunehmen und dieses mithilfe des KI-gestützten Algorithmus der App in einen gefälschten Akt umzuwandeln.

Die zweite Art von Missbrauch wird durch Deepfake-Apps zum Face-Swapping erzeugt, die das Gesicht einer Person über ein bereits vorhandenes pornografisches Bild oder Video legen können. Das resultierende Bild oder Video ist zwar gefälscht, aber überraschend realistisch.

Eine wachsende Art von Missbrauch lässt sich auf Text-Bild-Generatoren zurückführen, die in der Lage sind, Wortaufforderungen in gefälschte Nacktbilder oder anstößige Bilder umzuwandeln. (Mashable veröffentlicht die Namen dieser Apps nicht, da Bedenken hinsichtlich einer weiteren Veröffentlichung für die Täter bestehen.)

Unabhängig vom verwendeten Format sollten Opfer ihr Bestes tun, um jeden Fall von KI-Bildmissbrauch durch Screenshots oder das Speichern von Bild- und Videodateien zu dokumentieren. Diese Screenshots oder Dateien können nach Möglichkeit für Deaktivierungsanträge und rechtliche Schritte verwendet werden. Eine Schritt-für-Schritt-Anleitung zur Beweisdokumentation finden Sie hier: Lesen Sie den Leitfaden der Cyber ​​Civil Rights Initiative.

Dennoch kann das Sammeln dieser Beweise die Opfer noch weiter traumatisieren, weshalb Dodge empfiehlt, für diese Arbeit die Hilfe eines „Unterstützungskreises“ in Anspruch zu nehmen.

„Wenn (Opfer) es tatsächlich melden müssen, ist es wirklich wichtig, Beweise zu haben“, sagt Dodge.

3. Senden Sie Deaktivierungsmitteilungen an Plattformen, auf denen der Inhalt erscheint.

Auf Social-Media-Plattformen können Personen melden, wenn ein Benutzer nicht einvernehmliche Bilder von ihnen online gepostet hat. In der Vergangenheit wurden diese Deaktivierungsanfragen genutzt, um Opfern zu helfen, deren intime Bilder ohne Erlaubnis weitergegeben wurden. Dodge sagt jedoch, dass auch Opfer von bildbasiertem KI-Missbrauch dieses Tool nutzen können.

Jede Plattform hat ihren eigenen Prozess. Eine ausführliche Auflistung der Online-Entfernungsrichtlinien für die wichtigsten Apps, Social-Media-Plattformen und Dating-Sites finden Sie im Leitfaden der Cyber ​​Civil Rights Initiative.

Dodge empfiehlt außerdem das kostenlose Tool von StopNCII.org, eine gemeinnützige Organisation, die Opfer von nicht einvernehmlichem Missbrauch von intimen Bildern unterstützt. Das Tool der Organisation ermöglicht es Opfern, ein Bild oder Video von ihnen auszuwählen, das ohne ihre Zustimmung geteilt wurde, und generiert unabhängig einen digitalen Fingerabdruck oder Hash, um diesen Inhalt zu kennzeichnen. Der Benutzer muss das Bild oder Video nicht selbst hochladen, sodass es niemals den Besitz des Opfers verlässt.

Anschließend teilt die Organisation den Hash mit ihren Partnern, zu denen Unternehmen wie Facebook, Reddit und TikTok gehören. Im Gegenzug sind die Partner darauf vorbereitet, Inhalte zu erkennen, die mit dem generierten digitalen Fingerabdruck übereinstimmen. Das Unternehmen entfernt bei Bedarf alle Übereinstimmungen auf seiner Plattform.

4. Stellen Sie Anfragen zur Deindexierung von Bildern und Videos in Suchmaschinen.

Bing und Google ermöglichen es Nutzern, Anfragen zur Deindexierung gefälschter und nicht einvernehmlicher pornografischer Bilder und Videos aus ihren Suchergebnissen einzureichen. Dodge empfiehlt Opfern, diese Strategie zu nutzen, um die Auffindbarkeit von bildbasiertem KI-Missbrauch einzuschränken.

Der Schritt-für-Schritt-Prozess von Google kann sein hier gefunden. Anweisungen für den gleichen Vorgang auf Bing sind hier.

Es ist wichtig, diese Anfragen speziell an jedes Unternehmen zu richten. Diesen Monat, NBC News gefunden dass in den Suchergebnissen von Google und Bing als Reaktion auf bestimmte Suchanfragen nicht einvernehmliche Deepfake-Pornos auftauchten, was die Frage aufwirft, wie oft die Unternehmen ihre Indexe nach solchen Inhalten durchsucht haben, um sie zu entfernen.

5. Informieren Sie sich über Ihre rechtlichen Möglichkeiten.

Im Jahr 2021 gab es demnach in mehr als einem Dutzend Bundesstaaten, darunter Kalifornien, Texas und New York, Gesetze im Zusammenhang mit Deepfake-Bildern Cyber-Bürgerrechtsinitiative. Wenn Sie in einem Staat leben, in dem Gesetze die Erstellung von Deepfake-Pornografie oder KI-Bildmissbrauch verbieten, können Sie möglicherweise Anzeige bei der Polizei erstatten oder den Täter verklagen. International, Das Teilen von Deepfake-Pornos ist geradezu ein Verbrechen geworden in England und Wales.

Selbst in den vielen US-Bundesstaaten, die diese Art von Missbrauch nicht verbieten, gibt es laut Dodge andere damit zusammenhängende Gesetze, die auf den Fall eines Opfers anwendbar sein könnten, darunter Cyber-Stalking, Erpressung und Kinderpornografie.

Dennoch sagt Dodge, dass viele Polizeibehörden unvorbereitet sind und nicht über die Ressourcen und das Personal verfügen, um diese Fälle zu untersuchen. Daher ist es wichtig, die Erwartungen darüber, was möglich ist, im Auge zu behalten. Darüber hinaus entscheiden sich einige Opfer, insbesondere diejenigen, die bereits in irgendeiner Weise an den Rand gedrängt werden, möglicherweise aus verschiedenen Gründen, einschließlich mangelndem Vertrauen in die Strafverfolgung, dafür, nicht einvernehmliche Deepfakes nicht den Behörden zu melden.

6. Deaktivieren Sie Datenbroker-Websites.

Dodge sagt, dass Opfer von nicht einvernehmlichen intimen Bildern manchmal von Fremden im Internet angegriffen werden, wenn ihre persönlichen Daten mit dem Inhalt in Verbindung gebracht werden.

Auch wenn dies noch nicht geschehen ist, empfiehlt Dodge, sich von Datenbroker-Websites abzumelden, die Ihre persönlichen Daten sammeln und diese gegen eine Gebühr an Dritte verkaufen. Zu diesen Brokern gehören Unternehmen wie Spokeo, PeekYou, PeopleSmart und BeenVerified. Opfer müssen sich an jeden Makler wenden, um die Entfernung ihrer persönlichen Daten zu beantragen. Ein Dienst wie DeleteMe kann solche Daten jedoch gegen eine Gebühr überwachen und entfernen. Für ein Jahresabonnement, bei dem alle drei Monate nach persönlichen Daten gesucht und diese entfernt werden, verlangt DeleteMe einen Mindestpreis von 129 US-Dollar.

Google hat auch ein kostenloses Tool für das Entfernen einiger personenbezogener Daten aus den Suchergebnissen.

Angesichts der schnellen Verbreitung KI-gestützter Bildtools kann sich Dodge keine Zukunft ohne nicht einvernehmliche, explizite Bilder vorstellen, die von KI generiert werden.

Noch vor einigen Jahren erforderte die Begehung eines solchen Missbrauchs Rechenleistung, Zeit und technisches Fachwissen, stellt er fest. Jetzt sind diese Tools leicht zugänglich und einfach zu verwenden.

„Wir könnten es nicht einfacher machen“, sagt Dodge.

Scroll to Top