Deep Fake: Eine täuschend echte Lüge

Deep Fakes sind durch KI (künstliche Intelligenz) manipulierte Inhalte, meistens Gesichter und Stimmen von echten Personen, die so gut sind, dass sie nur schwer von echten Personen unterschieden werden können. Die wohl bekannteste Methode ist das sogenannte Face-Swap, bei dem ausschließlich die Stimme und das Gesicht einer Quellperson übernommen werden.

Deep Fakes als Gefahr

Jeder, der in sozialen Netzwerken unterwegs ist, ist vielleicht schon einmal darüber gestolpert, dass prominente Persönlichkeiten irgendwelche Aussagen tätigen oder sogar mit anderen Prominenten einen Dialog führen, die aber nie stattgefunden haben. Diese Face-Swaps können für politische Manipulationen missbraucht werden, um Politikern Worte in den Mund zu legen, die sie nie gesagt haben – zur Rufschädigung oder sogar Verleumdung. So wurden im Jahr 2023 falsche Nacktbilder einer damals 14-Jährigen erstellt, die so echt schienen, dass selbst die eigene Mutter sie für authentisch hielt. Diese gefälschten Fotos können den Ruf nachhaltig zerstören, was den Mobbingfaktor erheblich erhöht und im schlimmsten Fall sogar zum Selbstmord führen kann. Täter benutzen diese Deep Nudes sogar als Druckmittel, um Betroffene damit zu erpressen. Eine Studie der Cybersicherheitsfirma Deeptrace konnte bereits 2019 zeigen, dass über 95 Prozent der im Internet zu findenden Deepfakes pornographisches Material sind.

Wie schützt man sich?

Um sich vor Deep Fakes zu schützen, ist es wichtig, sich der Gefahr bewusst zu sein. Man kann zum Beispiel seine Social-Media-Accounts auf „privat“ stellen, damit nicht jeder gepostete Inhalte sehen kann. So wird man für Fremde weniger zur Zielscheibe von Deep Fakes.

Wie erkennt man Deep Fakes?

  • Unnatürliche Gesichter: Deep Fakes haben meist eine merkwürdige Mimik und unlogische Schatten.
  • Fehlendes Blinzeln: Wenn in einem Video kein Blinzeln vorhanden ist, kann es sich um einen Deep Fake handeln.
  • Spezielle Tools nutzen: Tools wie Deepware Scanner oder Deep Fake-o-meter können Deep Fakes erkennen.
  • Unscharfe Übergänge: Zum Beispiel zwischen Gesicht und Haaren oder Gesicht und Hals sind verräterische Merkmale.

Die guten Seiten an Deep Fakes

  • Kostensenkung: Schauspieler müssen nicht für jede Szene am Set sein.
  • Verjüngung oder Wiederbelebung: Deep Fakes können alte Schauspieler verjüngen oder verstorbene Schauspieler wiederbeleben.
  • Traumabewältigung: In kontrollierten therapeutischen Settings können Deep Fakes genutzt werden, um z. B. Gesprächssimulationen mit verstorbenen Angehörigen zu ermöglichen.
  • Sprach- und Stimmwiedergabe: Für Menschen, die ihre Stimme verloren haben, kann eine personalisierte künstliche Stimme erstellt werden.

Fazit

Ich finde Deep Fakes im Grundgedanken keine schlechte Idee, da man vor allem verstorbene Schauspieler wieder zum Leben erwecken kann. Wenn ein Schauspieler mitten in einer Trilogie aufhört, z. B. gesundheitlich bedingt oder während der Dreharbeiten stirbt, kann man Deep Fakes als Alternative nutzen.

Gleichzeitig muss man aber auch ehrlich sein: Jede neue Technologie, so nützlich sie sein mag, birgt das Risiko des Missbrauchs. Deep Nudes sind dafür ein besonders negatives Beispiel, denn sie verletzen die Privatsphäre massiv und werden häufig als Druckmittel eingesetzt. Das zeigt, dass technischer Fortschritt auch Verantwortung erfordert – denn wie bei vielen Erfindungen kann er auch als Waffe genutzt werden, um Macht auszuüben oder Menschen zu schaden.

Deshalb ist es dringend notwendig, dass wir uns umfassend mit den Chancen und Risiken von KI auseinandersetzen und vor allem in Bildung investieren. Nur so können wir einen bewussten und verantwortungsvollen Umgang fördern und verhindern, dass Technologien zum Schaden Einzelner oder der Gesellschaft missbraucht werden. Ebenso kritisch sehe ich es, wenn KI ganze Berufe, wie Schauspieler oder Synchronsprecher, einfach ersetzt, ohne ethische und soziale Folgen ausreichend zu bedenken. Allgemein sollte gegen den Missbrauch von Deep Fakes konsequent strafrechtlich vorgegangen werden.

Text: Justin A.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert