Deepfake-Pornografie als Form der digitalen Gewalt

1. Was sind Deepfakes?

Deepfakes sind digitale Inhalte wie Bilder, Tonaufnahmen oder Videos, die mithilfe Künstlicher Intelligenz erzeugt oder verändert wurden. Sie ähneln realen Personen, Objekten, Orten, Institutionen oder Ereignissen so stark, dass sie beim Betrachter den falschen Eindruck von Echtheit oder Authentizität erwecken können.

2. Formen der Manipulation

Mithilfe sogenannter „Face-Swapping“-Technologie wird das Gesicht der betroffenen Person auf das Bild- oder Videomaterial einer anderen Person übertragen. Neben dem Face-Swapping, gibt es weitere Formen der Manipulation durch Künstliche Intelligenz. Dazu zählt unter anderem das „Voice Swapping“, bei dem die Stimme einer Person nachgeahmt oder ersetzt wird. Eine weitere Technik ist das sogenannte „Body Puppetry“, bei dem die Körperbewegungen einer Person aufgezeichnet und auf eine andere Person in einem Video übertragen werden.

3. Betroffene Personen – nicht nur Prominente

Die betroffenen Personen sind hauptsächlich Mädchen und Frauen. Die Gefahr, in Deepfake-Pornografie zu erscheinen, betrifft nicht nur prominente Persönlichkeiten. Auch Privatpersonen und nicht-öffentliche Personen können Opfer solcher Manipulationen werden. Wir müssen mit der Gefahr leben, dass uns das jederzeit passieren kann.

4. Technologische Entwicklung und Anwendungen

Als die ersten Deepfake-Tools entwickelt wurden, waren sie technisch anspruchsvoll und nur schwer zugänglich. In der Anfangsphase wurden vor allem Face-Swap-Videos mit prominenten Frauen erstellt und verbreitet. Mit der fortschreitenden Entwicklung wurden die Anwendungen jedoch zunehmend benutzerfreundlicher und damit für eine breitere Öffentlichkeit nutzbar. Infolgedessen gerieten immer häufiger auch Privatpersonen ins Visier von Deepfake-Manipulationen.
Inzwischen gibt es zahlreiche Apps, Websites und Programme, die Künstliche Intelligenz nutzen. Darunter auch solche, mit denen sich Deepfake-Pornografie erstellen lässt. Selbst scheinbar harmlose Bilder, die auf Instagram oder anderen Sozialen Medien gepostet werden, können als Grundlage für derartige Inhalte dienen. Die Bandbreite reicht dabei von manipulierten Bildern in Unterwäsche oder Nacktheit bis hin zu vollständig gefälschten pornografischen Videos. Für die Erstellung solcher Deepfakes genügt oft bereits ein einzelnes Foto.

5. Erste Fälle und steigendes Vorkommen

Bereits im Herbst 2017 tauchten erste Deepfake-Pornovideos mit bekannten Schauspielerinnen im Internet auf. Während diese frühen Fälschungen noch relativ leicht als unecht zu erkennen waren, ist die Qualität heutiger Deepfakes so hoch, dass sie kaum noch von echten Aufnahmen zu unterscheiden sind.
Im Sommer 2024 wurde durch einen Bericht der Journalistin Ko Narin öffentlich, dass sich in Südkorea zahlreiche Gruppen organisiert haben, die Deepfake-Pornografie von Studentinnen und Schülerinnen verbreiten. Betroffen sind mehr als 500 Bildungseinrichtungen, darunter Universitäten und Schulen. Die Verbreitung der Inhalte erfolgte hauptsächlich über die Messenger-Plattform Telegram.

6. Verbreitung und Plattformökonomie

Das System funktioniert folgendermaßen: Einzelne Deepfake-Ersteller verdienen Geld mit ihren Videos und verbreiten Ausschnitte davon auf großen Deepfake-Plattformen, um neue Kundschaft zu gewinnen. Diese Plattformen generieren Einnahmen hauptsächlich durch Werbung, beispielsweise von Anbietern spezieller Deepfake-Apps. Die Anbieter dieser Apps erzielen ihre Gewinne durch Abonnements und nutzen teilweise Soziale Medien für ihre Werbung. Darüber hinaus profitieren auch Webhosting-Dienste, Serverbetreiber und Suchmaschinenbetreiber von den Aktivitäten auf diesen Plattformen.
Mit der Weiterentwicklung Künstlicher Intelligenz werden Deepfakes künftig noch schneller, einfacher und kostengünstiger herzustellen sein. Von diesem Geschäft profitieren zahlreiche Akteure: die Urheber der Videos, Betreiber der Plattformen, Hersteller der Apps sowie Webhosting- und Serverdienste. Sie alle erzielen Einnahmen durch die Nutzung manipulierten oder gestohlenen Bild- und Identitätsmaterials.

7. Auswirkungen auf die Betroffenen

Das Leben der Opfer wird durch Deepfake-Pornografie oft vollständig erschüttert. Viele verlieren dadurch entweder ihren Arbeitsplatz oder zumindest einen großen Teil ihrer Würde. Die Folgen können schwerwiegende und langfristige psychische sowie physische Schäden umfassen, insbesondere aufgrund der herabwürdigenden und sexualisierenden Objektivierung. Zudem kann es zu Rufschädigungen kommen, etwa durch Rachepornos. Cybermobbing wird durch solche Inhalte verstärkt und wirkungsvoller. Dabei werden nicht nur die Rechte der Opfer verletzt, sondern auch die der im Ausgangsmaterial dargestellten Pornodarstellerinnen.

8. Beispiele für gesetzliche Regelungen weltweit

Im Jahr 2020 haben China, Südkorea sowie mehrere US-Bundesstaaten Gesetze verabschiedet, die die Verbreitung von Deepfake-Pornografie unter Strafe stellen. Anfang 2024 haben Großbritannien und Italien die Verbreitung pornografischer Deepfakes unter Strafe gestellt. Nach einer EU-Richtlinie sind die Mitgliedstaaten verpflichtet, die Verbreitung von Deepfakes bis spätestens 2027 strafrechtlich zu ahnden.

9. Herausforderungen beim rechtlichen Vorgehen

In vielen Ländern existieren Gesetze, die sich auf bestimmte Aspekte der Erstellung und Verbreitung von Deepfake-Pornografie anwenden lassen. So können etwa Urheberrechtsverletzungen oder rufschädigende Inhalte rechtlich verfolgt werden. In der Praxis jedoch gestaltet sich der rechtliche Weg schwierig: Wer gegen solche Inhalte vorgehen möchte, braucht finanzielle Mittel, um juristische Schritte einzuleiten. Hinzu kommt, dass es oft nahezu unmöglich ist, die verantwortlichen Personen hinter der Erstellung und Verbreitung dieser Deepfakes zu identifizieren. Für die meisten Betroffenen bleiben die Handlungsmöglichkeiten daher stark eingeschränkt. Der rechtliche Schutz besteht theoretisch, ist aber für viele in der Realität kaum durchsetzbar.

10. Zivilgesellschaftliches Engagement

Die „NotYourPorn“-Kampagne wurde im Jahr 2019 gegründet und ist eine gemeinnützige Organisation. Sie bietet Aufklärungsprogramme an Schulen sowie Schulungen für die Polizei an, um Einsatzkräfte im Umgang mit Opfern bildbasierter sexueller Gewalt zu unterstützen. Darüber hinaus fördert die Organisation das gesellschaftliche Bewusstsein für dieses Thema und berät die Regierung bei der Ausarbeitung entsprechender Gesetzestexte. „NotYourPorn“ ist eine von zahlreichen Organisationen, die in den letzten Jahren ins Leben gerufen wurden, um den Herausforderungen im Umgang mit solchen Fällen entgegenzuwirken.

Fazit

Mittlerweile sind die Technologien für die Herstellung von Deepfakes nicht nur leicht zugänglich, sondern auch hochgradig effizient. Sie erfordern immer weniger Ausgangsdaten und erzeugen täuschend realistische Ergebnisse. Die Gefahr, in Deepfake-Pornografie dargestellt zu werden, betrifft nicht nur prominente Persönlichkeiten. Auch Privatpersonen und nicht-öffentliche Personen können Opfer solcher Manipulationen werden. Deshalb ist es wichtig, sich bewusst zu machen, dass diese Gefahr jederzeit jeden treffen kann.

Text: Jana G.

Deep Fake: Eine täuschend echte Lüge

Deep Fakes sind durch KI (künstliche Intelligenz) manipulierte Inhalte, meistens Gesichter und Stimmen von echten Personen, die so gut sind, dass sie nur schwer von echten Personen unterschieden werden können. Die wohl bekannteste Methode ist das sogenannte Face-Swap, bei dem ausschließlich die Stimme und das Gesicht einer Quellperson übernommen werden.

Deep Fakes als Gefahr

Jeder, der in sozialen Netzwerken unterwegs ist, ist vielleicht schon einmal darüber gestolpert, dass prominente Persönlichkeiten irgendwelche Aussagen tätigen oder sogar mit anderen Prominenten einen Dialog führen, die aber nie stattgefunden haben. Diese Face-Swaps können für politische Manipulationen missbraucht werden, um Politikern Worte in den Mund zu legen, die sie nie gesagt haben – zur Rufschädigung oder sogar Verleumdung. So wurden im Jahr 2023 falsche Nacktbilder einer damals 14-Jährigen erstellt, die so echt schienen, dass selbst die eigene Mutter sie für authentisch hielt. Diese gefälschten Fotos können den Ruf nachhaltig zerstören, was den Mobbingfaktor erheblich erhöht und im schlimmsten Fall sogar zum Selbstmord führen kann. Täter benutzen diese Deep Nudes sogar als Druckmittel, um Betroffene damit zu erpressen. Eine Studie der Cybersicherheitsfirma Deeptrace konnte bereits 2019 zeigen, dass über 95 Prozent der im Internet zu findenden Deepfakes pornographisches Material sind.

Wie schützt man sich?

Um sich vor Deep Fakes zu schützen, ist es wichtig, sich der Gefahr bewusst zu sein. Man kann zum Beispiel seine Social-Media-Accounts auf „privat“ stellen, damit nicht jeder gepostete Inhalte sehen kann. So wird man für Fremde weniger zur Zielscheibe von Deep Fakes.

Wie erkennt man Deep Fakes?

  • Unnatürliche Gesichter: Deep Fakes haben meist eine merkwürdige Mimik und unlogische Schatten.
  • Fehlendes Blinzeln: Wenn in einem Video kein Blinzeln vorhanden ist, kann es sich um einen Deep Fake handeln.
  • Spezielle Tools nutzen: Tools wie Deepware Scanner oder Deep Fake-o-meter können Deep Fakes erkennen.
  • Unscharfe Übergänge: Zum Beispiel zwischen Gesicht und Haaren oder Gesicht und Hals sind verräterische Merkmale.

Die guten Seiten an Deep Fakes

  • Kostensenkung: Schauspieler müssen nicht für jede Szene am Set sein.
  • Verjüngung oder Wiederbelebung: Deep Fakes können alte Schauspieler verjüngen oder verstorbene Schauspieler wiederbeleben.
  • Traumabewältigung: In kontrollierten therapeutischen Settings können Deep Fakes genutzt werden, um z. B. Gesprächssimulationen mit verstorbenen Angehörigen zu ermöglichen.
  • Sprach- und Stimmwiedergabe: Für Menschen, die ihre Stimme verloren haben, kann eine personalisierte künstliche Stimme erstellt werden.

Fazit

Ich finde Deep Fakes im Grundgedanken keine schlechte Idee, da man vor allem verstorbene Schauspieler wieder zum Leben erwecken kann. Wenn ein Schauspieler mitten in einer Trilogie aufhört, z. B. gesundheitlich bedingt oder während der Dreharbeiten stirbt, kann man Deep Fakes als Alternative nutzen.

Gleichzeitig muss man aber auch ehrlich sein: Jede neue Technologie, so nützlich sie sein mag, birgt das Risiko des Missbrauchs. Deep Nudes sind dafür ein besonders negatives Beispiel, denn sie verletzen die Privatsphäre massiv und werden häufig als Druckmittel eingesetzt. Das zeigt, dass technischer Fortschritt auch Verantwortung erfordert – denn wie bei vielen Erfindungen kann er auch als Waffe genutzt werden, um Macht auszuüben oder Menschen zu schaden.

Deshalb ist es dringend notwendig, dass wir uns umfassend mit den Chancen und Risiken von KI auseinandersetzen und vor allem in Bildung investieren. Nur so können wir einen bewussten und verantwortungsvollen Umgang fördern und verhindern, dass Technologien zum Schaden Einzelner oder der Gesellschaft missbraucht werden. Ebenso kritisch sehe ich es, wenn KI ganze Berufe, wie Schauspieler oder Synchronsprecher, einfach ersetzt, ohne ethische und soziale Folgen ausreichend zu bedenken. Allgemein sollte gegen den Missbrauch von Deep Fakes konsequent strafrechtlich vorgegangen werden.

Text: Justin A.

KI – kann ich!

Künstliche Intelligenz (KI) erfreut sich einer immer größer werdenden Beliebtheit, welche nicht zuletzt vor den Klassenzimmern Halt macht. Wir Schüler und Schülerinnen kennen und nutzen schon eine Menge dieser Neuheiten, doch eine App hat es uns besonders angetan: ChatGPT.

Ob als Chatbot für Hausaufgaben, automatisierte Korrekturen oder als intelligente Lernplattform – es gibt nichts, was diese App nicht kann. Doch während einige Personen KI als wertvolles Werkzeug für das individuelle Lernen sehen, befürchten andere, insbesondere Eltern und Lehrer, eine Abnahme kritischen Denkens und kreativer Fähigkeiten. Um der Frage auf den Grund zu gehen, welche Rolle KI wirklich in der Schule spielen soll, wird in diesem Artikel ein fachgerechter Erfahrungsbericht aus Schülersicht hinzugezogen.  

Unsere Autorin Laura hat ChatGPT dafür verwendet, ein Bild für ihren Artikel zu generieren. Der Prompt war dabei „Erstelle mir ein Bild, in dem Kinder in der Schule KI im Unterricht nutzen!“. Zumindest der auf dem Laptop zu sehende Texte ist problematisch, weil sprachlich und inhaltlich nicht korrekt.

Künstliche Intelligenz bietet für uns Schüler und Schülerinnen weitreichende Vorteile. Apps, wie ChatGPT helfen uns, Projekte zu strukturieren, Texte zu verbessern und ermöglichen es uns so, den primären Fokus auf unsere Kreativität zu legen. In Hinblick auf das Fachreferat oder die Seminararbeit eignet sich KI prima, um sich einen ersten Überblick zu verschaffen, um sofort weiter in die Tiefe eingehen zu können. Vor einigen Jahren, wäre ein solcher Überblick mit tagelanger Recherchearbeit verbunden gewesen.

Zudem profitieren von einer solchen Technologie Schüler und Schülerinnen, mit Migrationshintergrund, die z.B. keine Möglichkeit haben sich ihren Text Korrektur lesen zu lassen. Ein Kommentar vieler Lehrer und Eltern wäre jetzt wahrscheinlich: „Ja, doch dafür sind Lehrer da!“. Grundsätzlich ja, jedoch herrscht bereits ein Lehrermangel an deutschen Schulen, welche nicht zuletzt von 29% Schülerinnen und Schülern besucht wird, die eine Einwanderungsgeschichte haben.

Kinder und Jugendliche, welche Lernschwierigkeiten haben, profitieren schon jetzt von Lernplattformen mit KI-Unterstützung, welche sich dem Tempo der Schüler anpassen. Sie erklären schwierige Themen auf unterschiedlichste Weisen und Bieten sofortiges Feedback. Dies ist besonders hilfreich für Schüler, die zusätzliche Hilfe benötigen oder schneller vorankommen wollen. Gerade in Grundschulen – wo vorwiegend der Lehrermangel herrscht – würde die Verwendung von KI im Unterricht große Erfolge erzielen. Die Lernplattform „Century Tech“, welche personalisierte Lernpfade für die Schüler erstellt und den Lehrern Einblicke in ihren Lernfortschritt gewährt, würde das Potenzial eines jeden Schülers stärken. Zudem ist es so für die Lehrkraft einfacher, sich einen Erwartungshorizont zu bilden – gerade in Grundschulen, da dort jedes Kind eigenes Vorwissen mitbringt.

Es kristallisiert sich heraus, dass die Nutzung von KI im Schulalltag sinnvoll ist und daher nicht direkt von der älteren Generation abgelehnt werden sollte. Argumente, wie „KI führt dazu, dass die Jugend verdummt“, da Jugendliche nun weniger eigenständig denken müssen sind nicht tendenziell falsch. Es kommt nur ganz darauf an, in welchem Ausmaß wir diese nutzen. Doch gerade bei wichtigen Aufgaben, wie z.B. der Seminararbeit, ist eigentlich klar, dass wir trotz des Einsatzes von ChatGPT, die Informationen kritisch hinterfragen. Das Gleiche gilt auch für das Erstellen von Bilddateien. Schließlich sind wir die Generation, die mit der Digitalisierung aufgewachsen ist, wenn also jemand weiß, wie man mit KI umzugehen hat, dann wir!

Quelle der Studie: https://www.destatis.de/DE/Presse/Pressemitteilungen/Zahl-der-Woche/2024/PD24_36_p002.html?u  

Text: Laura E.