Porno-Deepfakes: So sprechen Sie mit Ihren Kindern über explizite Fake-Bilder

Wenn der Tag noch nicht gekommen ist, kommt er: Sie müssen mit Ihrem Kind über explizite Deepfakes sprechen.

Das Problem mag abstrakt erschienen sein, bis gefälschte pornografische Bilder von Taylor Swift, erzeugt durch künstliche Intelligenz, ging auf der Social-Media-Plattform X/Twitter viral. Jetzt kann das Problem einfach nicht ignoriert werden, sagen Online-Experten für Kindersicherheit.

„Wenn das (Swift) passiert, beginnen Kinder und Eltern meiner Meinung nach zu begreifen, dass niemand davor gefeit ist“, sagt Laura Ordoñez, Chefredakteurin und Leiterin für digitale Medien und Familie bei Common Sense Media.

Egal, ob Sie das Konzept von Deepfakes und bildbasiertem KI-Missbrauch erklären, über den Schmerz sprechen, den solche Bilder den Opfern bereiten, oder Ihrem Kind dabei helfen, kritische Denkfähigkeiten zu entwickeln, um ethische Entscheidungen über Deepfakes zu treffen – Eltern können und sollten eine Menge besprechen in laufenden Gesprächen zum Thema.

Bevor Sie beginnen, müssen Sie Folgendes wissen:

1. Man muss kein Deepfakes-Experte sein, um darüber zu sprechen.

Adam Dodge, Gründer von Der technisch versierte Elternteilsagt, dass Eltern, die das Gefühl haben, dass sie Deepfakes vor einem Gespräch mit ihrem Kind gründlich verstehen müssen, sich keine Sorgen darüber machen müssen, wie ein Experte zu wirken oder ein solcher zu werden.

Stattdessen ist lediglich ein grundlegendes Verständnis des Konzepts erforderlich, dass KI-gestützte Software und Algorithmen es erschreckend einfach machen, realistische explizite oder pornografische Deepfakes zu erstellen, und dass diese Technologie online leicht zugänglich ist. Tatsächlich können Kinder bereits im Grundschulalter auf Apps oder Software mit dieser Funktion stoßen und diese nutzen, um Deepfakes zu erstellen, ohne dass es dabei auf technische Herausforderungen oder Hindernisse ankommt.

„Was ich den Eltern sage, ist: ‚Sehen Sie, Sie müssen verstehen, wie früh und oft Kinder dieser Technologie ausgesetzt werden, dass dies früher geschieht, als Sie denken, und sich darüber im Klaren sein, wie gefährlich sie ist.‘“

Laut Dodge müssen Eltern auf die Möglichkeit vorbereitet sein, dass ihr Kind von der Technologie ins Visier genommen wird. dass sie unangemessene Inhalte sehen; oder dass sie sich an der Erstellung oder Weitergabe gefälschter expliziter Bilder beteiligen.

2. Machen Sie es zu einem Gespräch, nicht zu einem Vortrag.

Wenn Sie von diesen Möglichkeiten ausreichend beunruhigt sind, vermeiden Sie eine vorschnelle Diskussion über Deepfakes. Stattdessen empfiehlt Ordoñez, das Thema offen und unvoreingenommen anzusprechen und Ihr Kind zu fragen, was es über Deepfakes weiß oder gehört hat.

Sie fügt hinzu, dass es wichtig sei, den bildbasierten KI-Missbrauch als eine Form der Online-Manipulation zu betrachten, die im gleichen Spektrum wie Fehlinformationen oder Desinformationen angesiedelt sei. Mit diesem Rahmen wird das Nachdenken über Deepfakes zu einer Übung des kritischen Denkens.

Ordoñez sagt, dass Eltern ihrem Kind helfen können Lernen Sie die Anzeichen dafür kennen, dass Bilder manipuliert wurden. Obwohl die rasante Entwicklung der KI dazu führt, dass einige dieser verräterischen Zeichen nicht mehr auftauchen, ist es laut Ordoñez immer noch nützlich, darauf hinzuweisen, dass jede Deepfake (nicht nur die explizite Art) an der Verfärbung des Gesichts, der scheinbar falschen Beleuchtung und der Unschärfe an der Stelle erkennbar sein könnte Hals und Haare treffen aufeinander.

Auch Eltern können gemeinsam mit ihrem Kind lernen, sagt Ordoñez. Dies kann beispielsweise das gemeinsame Lesen und Sprechen nicht expliziter KI-generierter gefälschter Inhalte beinhalten das Lied Herz an meinem Ärmel, veröffentlicht im Mai 2023, das behauptete, KI-Versionen der Stimmen zu verwenden von Drake und The Weeknd. Während diese Geschichte für Kinder relativ wenig auf dem Spiel steht, kann sie zu einem sinnvollen Gespräch darüber anregen, wie es sich anfühlen könnte, wenn Ihre Stimme ohne Ihre Zustimmung verwendet wird.

Eltern vielleicht Nehmen Sie an einem Online-Quiz teil mit ihrem Kind, bei dem der Teilnehmer aufgefordert wird, richtig zu erkennen, welches Gesicht echt ist und welches von der KI generiert wurde. Dies ist eine weitere einfache Möglichkeit, gemeinsam zu konfrontieren, wie leicht KI-generierte Bilder den Betrachter täuschen können.

Der Zweck dieser Aktivitäten besteht darin, Ihrem Kind beizubringen, einen kontinuierlichen Dialog zu beginnen und die Fähigkeit zum kritischen Denken zu entwickeln, die sicherlich auf die Probe gestellt wird, wenn es mit expliziten Deepfakes und der Technologie, die sie erzeugt, konfrontiert wird.

3. Setzen Sie die Neugier Ihres Kindes auf Deepfakes in den richtigen Kontext.

Obwohl explizite Deepfakes einem digitalen Missbrauch und Gewalt gegen ihr Opfer gleichkommen, kann es sein, dass Ihr Kind dies nicht vollständig versteht. Stattdessen sind sie möglicherweise neugierig auf die Technologie und möchten sie sogar ausprobieren.

Dodge sagt, dass dies zwar verständlich sei, Eltern aber der Neugier ihrer Kinder regelmäßig vernünftige Grenzen setzten. Alkohol wird beispielsweise außerhalb ihrer Reichweite aufbewahrt. Filme mit R-Rating sind bis zu einem bestimmten Alter tabu. Ohne entsprechende Einweisung und Erfahrung ist es ihnen nicht gestattet, Auto zu fahren.

Eltern sollten sich die Deepfake-Technologie ähnlich vorstellen, sagt Dodge: „Man möchte Kinder nicht dafür bestrafen, dass sie neugierig sind, aber wenn sie ungefilterten Zugang zum Internet und zur künstlichen Intelligenz haben, wird sie diese Neugier auf gefährliche Wege führen.“

4. Helfen Sie Ihrem Kind, die Folgen von Deepfakes zu erforschen.

Kinder betrachten nicht explizite Deepfakes möglicherweise als eine Form der Unterhaltung. Tweens und Teenager glauben möglicherweise sogar fälschlicherweise an das Argument einiger, dass pornografische Deepfakes nicht schädlich seien, weil sie nicht real seien.

Dennoch könnten sie davon überzeugt werden, explizite Deepfakes als bildbasierten KI-Missbrauch zu betrachten, wenn die Diskussion Konzepte wie Zustimmung, Empathie, Freundlichkeit und Mobbing beinhaltet. Dodge sagt, dass die Berufung auf diese Ideen bei der Diskussion über Deepfakes die Aufmerksamkeit eines Kindes auf das Opfer lenken kann.

Wenn ein Teenager beispielsweise weiß, dass er um Erlaubnis bitten muss, bevor er einem Freund oder Klassenkameraden einen physischen Gegenstand wegnimmt, gilt das Gleiche auch für digitale Gegenstände wie Fotos und Videos, die in sozialen Medien gepostet werden. Die Verwendung dieser digitalen Dateien zur Erstellung eines nackten Deepfakes einer anderen Person ist kein harmloser Scherz oder Experiment, sondern eine Art Diebstahl, der zu tiefem Leid für das Opfer führen kann.

In ähnlicher Weise sagt Dodge, dass es nicht mit seinen Werten übereinstimmt, jemanden virtuell anzugreifen, so wie ein junger Mensch nicht aus heiterem Himmel jemanden auf der Straße angreifen würde.

„Diese Opfer sind weder erfunden noch gefälscht“, sagt Dodge. „Das sind echte Menschen.“

Vor allem Frauengewesen sein Ziel der Technologie das erzeugt explizite Deepfakes.

Im Allgemeinen sagt Ordoñez, dass Eltern darüber sprechen können, was es bedeutet, ein guter digitaler Bürger zu sein, und ihrem Kind helfen können, darüber nachzudenken, ob es in Ordnung ist, Menschen möglicherweise in die Irre zu führen, welche Folgen Deepfakes haben und wie es sein könnte, die Bilder zu sehen oder ein Opfer davon zu werden andere fühlen lassen.

5. Modellieren Sie das Verhalten, das Sie sehen möchten.

Ordoñez weist darauf hin, dass auch Erwachsene, Eltern eingeschlossen, nicht davor zurückschrecken, sich eifrig am neuesten digitalen Trend zu beteiligen, ohne über die Auswirkungen nachzudenken. Nehmen wir zum Beispiel, wie schnell Erwachsene anfingen, cool zu machen KI-Selbstporträts mit der Lensa-App bereits Ende 2022. Über den Hype hinaus gab es erhebliche Bedenken hinsichtlich der Privatsphäre, der Benutzerrechte und des Potenzials der App, Künstler zu bestehlen oder zu verdrängen.

Momente wie diese seien ein idealer Zeitpunkt für Eltern, über ihre eigenen digitalen Praktiken nachzudenken und das Verhalten vorzuleben, das sie von ihren Kindern erwarten würden, sagt Ordoñez. Wenn Eltern innehalten, um kritisch über ihre Online-Entscheidungen nachzudenken, und die Erkenntnisse aus dieser Erfahrung mit ihrem Kind teilen, zeigt das, wie sie den gleichen Ansatz verfolgen können.

6. Nutzen Sie die Kindersicherung, aber wetten Sie nicht darauf.

Wenn Eltern von den Gefahren hören, die Deepfakes mit sich bringen, wollen sie laut Ordoñez oft eine „schnelle Lösung“, um ihr Kind von den Apps und Software fernzuhalten, die die Technologie einsetzen.

Laut Dodge ist es wichtig, eine Kindersicherung zu verwenden, die den Zugriff auf bestimmte Downloads und Websites einschränkt. Allerdings sind solche Kontrollen kein Selbstläufer. Kinder können und werden einen Weg finden, diese Einschränkungen zu umgehen, auch wenn sie nicht wissen, was sie tun.

Darüber hinaus sagt Dodge, dass ein Kind möglicherweise Deepfakes sieht oder im Haus eines Freundes oder auf dem Mobilgerät einer anderen Person auf die Technologie stößt. Aus diesem Grund ist es immer noch wichtig, Gespräche über bildbasierten KI-Missbrauch zu führen, „selbst wenn wir durch Kindersicherung starke Einschränkungen einführen oder Geräte nachts wegnehmen“, sagt Dodge.

7. Stärken statt einschüchtern.

Die Aussicht, dass Ihr Kind Gleichaltrige durch bildbasierten KI-Missbrauch verletzt oder selbst Opfer davon wird, ist beängstigend. Doch Ordoñez warnt davor, Panikmache einzusetzen, um ein Kind oder einen Jugendlichen davon abzuhalten, sich mit der Technologie und den Inhalten auseinanderzusetzen.

Wenn man insbesondere mit jungen Mädchen spricht, deren Social-Media-Fotos und -Videos zur Generierung expliziter Deepfakes verwendet werden könnten, schlägt Ordoñez vor, mit ihnen darüber zu sprechen, wie es sich für sie anfühlt, Bilder von sich selbst zu posten, und über die möglichen Risiken. Diese Gespräche sollten Mädchen, die sich in den sozialen Medien engagieren möchten, keine Vorwürfe machen. Allerdings kann das Gespräch über Risiken Mädchen dabei helfen, über ihre eigenen Privatsphäre-Einstellungen nachzudenken.

Es gibt zwar keine Garantie dafür, dass ein Foto oder Video von ihnen nicht irgendwann gegen sie verwendet wird, aber sie können sich durch bewusste Entscheidungen darüber, was sie teilen, gestärkt fühlen.

Und alle Heranwachsenden und Teenager können von dem Wissen profitieren, dass die Begegnung mit Technologien, die in der Lage sind, explizite Deepfakes zu erstellen, in einer Entwicklungsphase, in der sie sehr anfällig für vorschnelle Entscheidungen sind, zu Entscheidungen führen kann, die anderen ernsthaft schaden, sagt Ordoñez.

Junge Menschen zu ermutigen, einen Schritt zurückzutreten und sich zu fragen, wie sie sich fühlen, bevor sie etwas wie einen Deepfake machen, kann einen großen Unterschied machen.

„Wenn man einen Schritt zurücktritt, haben (unsere Kinder) dieses Bewusstsein, es muss nur gestärkt, unterstützt und in die richtige Richtung geführt werden“, sagt Ordoñez.

Scroll to Top