Explizite gefälschte Bilder von Taylor Swift beweisen, dass die Gesetze nicht mit der Technologie Schritt gehalten haben, sagen Experten

[ad_1]

Explizite KI-generierte Fotos eines der berühmtesten Künstler der Welt verbreiteten sich diese Woche schnell in den sozialen Medien und verdeutlichten einmal mehr, was Experten als dringende Notwendigkeit bezeichnen, gegen Technologien und Plattformen vorzugehen, die die Weitergabe schädlicher Bilder ermöglichen.

Gefälschte Fotos von Taylor Swift, die die Singer-Songwriterin in sexuell anzüglichen Positionen zeigten, wurden zig Millionen Mal auf X, früher bekannt als Twitter, angesehen, bevor sie entfernt wurden.

Ein von einem einzelnen Benutzer geteiltes Foto wurde mehr als 45 Millionen Mal angesehen, bevor das Konto gesperrt wurde. Doch inzwischen war das weit verbreitete Foto bereits an anderer Stelle im Internet verewigt.

Die Situation zeigte, wie fortschrittlich – und leicht zugänglich – KI geworden ist, und entfachte gleichzeitig in Kanada und den USA erneut Forderungen nach besseren Gesetzen.

„Wenn ich Taylor Swift zitieren darf, X markiert die Stelle, an der wir auseinanderfielen„, sagte Kristen Thomasen, Assistenzprofessorin an der University of British Columbia.

„Wo wir im Gesetz jetzt mehr Aufmerksamkeit auf die Designer richten sollten, die die Tools entwickeln, die dies so einfach machen, und (auf) die Websites, die es so möglich machen, dass dieses Image an die Öffentlichkeit gelangt … und dann gesehen wird.“ von Millionen von Menschen”, sagte Thomasen.

Bild von Barak Obama auf einem Laptop-Bildschirm.
Dieses Bild, das aus einem gefälschten Video mit dem ehemaligen US-Präsidenten Barack Obama erstellt wurde, zeigt Elemente der Gesichtskartierungstechnologie, mit der jeder Videos von echten Menschen erstellen kann, die scheinbar Dinge sagen, die er nie gesagt hat. (Die Associated Press)

Nachdem die pornografischen Fotos von Swift aufgetaucht waren, überschwemmten die Fans des Künstlers die Plattform mit „Protect Taylor Swift“-Posts, um die Bilder zu vergraben, damit sie bei der Suche schwerer auffindbar sind.

In einem Beitrag sagte X, seine Teams würden die Website „genau überwachen“, um zu sehen, ob weiterhin Fotos auftauchen würden.

„Unsere Teams entfernen aktiv alle identifizierten Bilder und ergreifen entsprechende Maßnahmen gegen die Konten, die für die Veröffentlichung dieser Bilder verantwortlich sind“, heißt es in dem Beitrag.

Weder Swift noch ihr Publizist haben die Bilder kommentiert.

Die Sprecherin des Weißen Hauses in den USA, Karine Jean-Pierre, sagte, Social-Media-Unternehmen kämen eine wichtige Rolle dabei zu, die Verbreitung von Fehlinformationen und nicht einvernehmlichen intimen Bildern zu verhindern, und sagte, dass die „laxe Durchsetzung“ ihrer eigenen Regeln durch die Unternehmen unverhältnismäßig große Auswirkungen auf Frauen und Mädchen habe.

„Das ist sehr alarmierend, deshalb werden wir alles tun, was wir können, um dieses Problem anzugehen“, sagte Jean-Pierre am Freitag gegenüber Reportern.

ANSEHEN | Weißes Haus „alarmiert“ durch KI-generierte explizite Bilder von Taylor Swift:

Weißes Haus „alarmiert“ durch KI-generierte explizite Bilder von Taylor Swift in sozialen Medien

Die Sprecherin des Weißen Hauses in den USA, Karine Jean-Pierre, antwortete auf die Frage eines Reporters über die Verbreitung gefälschter, expliziter Bilder von Taylor Swift, die durch künstliche Intelligenz in sozialen Medien erzeugt wurden, und sagte, dass Social-Media-Unternehmen eine klare Rolle bei der Durchsetzung von Richtlinien zur Verhinderung dieser Art von Material spielen verhindern, dass sie über ihre Plattformen verteilt werden.

Da die KI-Branche weiter wächst, haben Unternehmen, die an den Gewinnen teilhaben möchten, Tools entwickelt, die Benutzern mit wenig Erfahrung die Möglichkeit geben, mithilfe einfacher Anweisungen Bilder und Videos zu erstellen. Die Tools erfreuen sich in manchen Bereichen großer Beliebtheit und sind nützlich, machen es aber auch erschreckend einfach, sogenannte Deepfakes zu erstellen – Bilder, die eine Person zeigen, die etwas tut, was sie eigentlich nicht getan hat.

Die Deepfake-Erkennungsgruppe Reality Defender sagte, sie habe eine Flut von nicht einvernehmlichem pornografischem Material mit Darstellungen von Swift verfolgt, insbesondere auf X. Einige Bilder gelangten auch auf Facebook und andere Social-Media-Plattformen von Meta.

„Leider verbreiteten sie sich bereits auf Millionen und Abermillionen von Benutzern, als einige von ihnen entfernt wurden“, sagte Mason Allen, Leiter für Wachstum bei Reality Defender.

Die Forscher fanden mehrere Dutzend einzigartige Bilder, die von KI generiert wurden. Die am häufigsten geteilten Bilder hatten mit Fußball zu tun und zeigten einen bemalten oder blutigen Swift, der sie objektivierte und in einigen Fällen darauf hindeutete, dass ihr Gewalt zugefügt wurde.

Tools läuten eine „neue Ära“ der Cyberkriminalität ein

„Eines der größten Probleme ist, dass es einfach ein erstaunliches Werkzeug ist … und jetzt kann es jeder“, sagte Steve DiPaola, Professor für künstliche Intelligenz an der Simon Fraser University.

Eine Studie aus dem Jahr 2019 von DeepTrace Labs, einem in Amsterdam ansässigen Cybersicherheitsunternehmen, stellte fest, dass es sich bei 96 Prozent der Deepfake-Videoinhalte im Internet um nichteinwilligendes pornografisches Material handelte. Es wurde außerdem festgestellt, dass die vier führenden Websites, die sich mit Deepfake-Pornografie befassen, mehr als 134 Millionen Aufrufe von Videos erhielten, die sich an Hunderte weibliche Prominente auf der ganzen Welt richteten.

ANSEHEN | Schulen könnten mehr tun, um junge Menschen über Online-Schäden aufzuklären:

Bericht besagt, dass Jugendliche besser über die Risiken sexueller Belästigung im Internet aufgeklärt werden müssen

Technisch unterstützte sexuelle Gewalt und Belästigung nehmen in Kanada zu und ein neuer Bericht legt nahe, dass Schulen mehr tun könnten, um junge Menschen über die Risiken aufzuklären.

In Kanada leitete die Polizei im Dezember eine Untersuchung ein, nachdem Nacktfotos von Studentinnen gefälscht worden waren eine französische Immersionsschule der Klassen 7 bis 12 in Winnipeg wurden online geteilt. Anfang des Jahres wurde ein Mann aus Quebec zu einer Gefängnisstrafe verurteilt, weil er mithilfe von KI sieben Deepfake-Videos mit Kinderpornografie erstellt hatte – Es wird angenommen, dass es sich um den ersten Satz dieser Art für die kanadischen Gerichte handelt.

„Die Polizei ist eindeutig in eine neue Ära der Cyberkriminalität eingetreten“, schrieb Benoit Gagnoni, Richter am Gericht von Quebec, in seinem Urteil.

Kanadische Richter arbeiten mit veralteten Gesetzen

Nachdem diese Woche Swift ins Visier genommen wurde, forderten US-Politiker neue Gesetze, um die Erstellung von Deepfake-Bildern unter Strafe zu stellen.

Kanada könnte diese Art von Gesetzgebung auch nutzen, sagte Thomasen von UBC.

Es gibt einige kanadische Gesetze, die sich mit dem umfassenderen Problem der nicht einvernehmlichen Verbreitung intimer Bilder befassen, aber die meisten dieser Gesetze beziehen sich nicht ausdrücklich auf Deepfakes, weil sie kein Problem darstellten.

Taylor Swift posiert vor einer Wand mit der Aufschrift „Taylor Swift The Eras Tour“.
Deepfake-Bilder von Swift, die hier im Oktober 2023 gezeigt wurden, wurden an Millionen von Social-Media-Nutzern verbreitet, bevor sie entfernt wurden. (Valerie Macon/AFP/Getty Images)

Das bedeutet, dass Richter, die sich mit Deepfakes befassen, entscheiden müssen, wie sie alte Gesetze auf neue Technologien anwenden.

„Dies ist eine so offensichtliche Verletzung der Würde, der Kontrolle über seinen Körper und der Kontrolle über seine Informationen, dass ich mir kaum vorstellen kann, dass das nicht so interpretiert werden könnte“, sagte Thomasen. „Aber es gibt diesbezüglich einige rechtliche Meinungsverschiedenheiten und wir warten auf Klarheit von den Gerichten.“

Das neue Gesetz zum Schutz intimer Bilder, das am Montag in British Columbia in Kraft tritt, enthält Hinweise auf Deepfakes und gibt Staatsanwälten mehr Befugnisse bei der Verfolgung von Personen, die intime Bilder anderer ohne Zustimmung online veröffentlichen – Referenzpersonen, die diese Bilder oder soziale Netzwerke erstellt haben, sind darin jedoch nicht enthalten Medienunternehmen.

[ad_2]

Source link

Scroll to Top