Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
Welcome to Chechnya, Dokumenation, HBO, Deepfakes, Tscheschenien
TECH

Können Deepfakes auch Positives bewirken? Manchmal, ja!

Marinela Potor
Aktualisiert: 17. Februar 2025
von Marinela Potor
Eine Doku zeigt, wie Deepfakes auch Positives bewirken können. (Foto: WarnerMedia)
Teilen

Deepfakes werden in der Regel mit Falschmeldungen oder Kriminalität in Verbindung gebracht. Doch können sie auch Positives bewirken? In manchen Fällen, ja – wie ein Dokumentarfilm zeigt. 

Ob es Mark Zuckerberg, Kim Kardashian oder Barack Obama ist: Sie alle hatten schon prominente Auftritte in Deepfake-Videos.

Unter Deepfakes versteht man in der Regel den Einsatz von Künstlicher Intelligenz (KI), um Videos und Audios so zu verändern, dass es am Ende aussieht, als ob eine Person etwas sage oder tue, dies aber in Wirklichkeit nie passiert ist.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Sonos Era 100 gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Theoretisch könnte also jemand mit der Technologie ein Video produzieren, in dem Thomas Gottschalk ein Lied von Michael Wendler singt. Während Deepfakes also durchaus amüsant sein können, haben sie in der Regel eher negative Absichten.

Frauen häufig Opfer von Deepfakes

In vielen Fällen werden sie nämlich bewusst eingesetzt, um Informationen oder Nachrichten im Internet zu manipulieren, verfälschen oder auch einfach nur, um Lügen zu verbreiten.

Besonders häufig sind Frauen Opfer von Deepfakes. Wie eine Untersuchung zeigt, werden die Videos mit den verfälschten Gesichtern nämlich vor allem für Pornodarstellungen eingesetzt. Ohne die Zustimmung der jeweiligen Frau, deren Gesicht ohne ihr Wissen benutzt wird.

Tatsächlich ist so auch der Name „Deepfake“ entstanden. Er geht auf einen Reddit-Nutzer zurück, der die Technologie für eine pornografische Darstellung missbrauchte.

Aus all diesen Gründen ist die KI-basierte Technologie nicht besonders beliebt. Doch Deepfakes können auch Positives bewirken, wie der HBO-Dokumentarfilm „Welcome to Chechnya“ („Willkommen in Tschetschenien“) zeigt.

Deepfakes können Identitäten schützen

In dem Dokumentarfilm geht es um die LGBTQ-Gemeinschaft in Tschetschenien. Diese Menschen sind in Tschetschenien nicht nur Hass, sondern auch Gewalt, Folter und Verfolgung ausgesetzt. Für die Produktion war es daher sehr wichtig, die Identitäten der Protagonist:innen zu schützen.

In der Regel passiert das über verschwommene Gesichter und die Veränderung der Stimmen. Dadurch geht aber natürlich auch der direkte Bezug der Zuschauer:innen zu den Personen verloren, da man diese nicht wirklich sieht.

Darum hat das Film-Team etwas Neues probiert: Deepfakes. Dafür arbeitete das Team mit Ryan Laney zusammen. Tatsächlich mag Laney das Wort für den Einsatz der Technologie in seinem Film nicht besonders, wie er gegenüber Recode verriet.

Denn seiner Meinung nach drückt der Begriff eine bewusste Manipulation oder Lüge aus. In der Dokumentation jedoch haben alle Beteiligten dem Einsatz der Technologie zugestimmt: Die Protagonist:innen sowie die Freiwilligen, die ihre Gesichter „ausgeliehen“ haben.

Auch die Zuschauer:innen werden über den Einsatz der Technologie informiert und sie ist auch nicht so perfekt, dass es nicht auffallen würde. Dennoch entsteht dadurch eine emotionalere Bindung zu den Charakteren in der Dokumentation, was dem Ganzen mehr Emotionen beim Zuschauen verleiht.

So nutzt „Welcome to Chechnya“ Deepfakes

Bevor sich das Dokumentar-Team für echte Menschen als Deepfake-Doppelgänger entschieden hat, probierte das Team zunächst verschiedene Varianten gemeinsam mit einer Psychologin und Test-Zuschauer:innen aus.

In einem Szenario setzten sie animierte Charaktere ein, was überhaupt nicht gut ankam. Dann probierten sie eine Variante, bei der die Gesichter der Freiwilligen zu sehen waren, aber die Augen der echten Personen. Das wiederum fanden die meisten befremdlich.

So entschied man sich letztlich zur kompletten Überlappung der Gesichter. Ryan Laney nutzte als Ausgangspunkt die Bewegungen der echten Personen. Daran wiederum orientieren sich die Bewegungen und Emotionen der freiwilligen Darsteller:innen.

Es ist in etwa so, wie wenn das eigene Gesicht über eine vorliegende Schablone gezogen wird, damit es genau passt, wie etwa bei biometrischen Passbildern. Die Überlappung ist dadurch nicht perfekt, aber gut genug, um sehr realistisch zu wirken.

Auch andere Unternehmen nutzen Technologie

Laney ist übrigens nicht der einzige, der erkannt hat, dass man mit Deepfake-Technologie gefährdete Menschen schützen kann. Er bietet mit seinem Unternehmen, Teus Media, „digitale Schleier“. Zu seinen Kunden gehören beispielsweise Journalist:innen, die so ihre Quellen schützen möchten.

Auch andere Start-ups wie D-ID oder Alathea AI haben ein ähnliches Angebot und auch Forscher:innen arbeiten daran, die Technologie als Möglichkeit des Identitätsschutzes voranzubringen.

Einige Nutzer:innen in sozialen Netzwerken greifen sogar selbst zur Technologie, etwa um auf Snapchat über persönliche Vergewaltigungserfahrungen zu sprechen, ohne dabei die eigene Identität enthüllen zu müssen.

So könnte es für Deepfakes tatsächlich auch positive Einsatzmöglichkeiten geben. Doch auch im Fall von Identitätsschutz kann die Technologie gefährlich sein.

Viele Fragen noch offen

Was passiert beispielsweise, wenn die Person, die ihr Gesicht zur Verfügung stellt, plötzlich selbst Opfer von Anfeindungen wird? Und wie stellt man am besten eine Person durch eine andere dar? Sollte sie so ähnlich wie möglich aussehen oder am besten komplett anders?

Das sind durchaus Fragen, die in Zukunft noch häufiger aufkommen werden. Denn Deepfakes werden immer besser, sodass man schon bald nicht mehr den Unterschied zwischen „echt“ und „fake“ erkennen kann.

Auch interessant:

  • Deepfakes unter der Lupe: Wen es hauptsächlich trifft
  • So gefährlich sind Deepfake-Videos schon heute
  • KI statt Mensch: Wie die Simpsons-Stimmen künftig erzeugt werden
  • Neue KI kann Fake News stoppen, bevor sie sich über Social Media verbreiten

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

STELLENANZEIGEN
Fully Remote: Personalized Internet Ads Asses...
Telus Digital in Berlin
Content Creator mit Fokus auf Text und Multim...
Synformulas GmbH in Gräfelfing bei München
Head of Content, Brand & Social Media (w/...
pro aurum GmbH in München
Senior Social-Media-Redakteur / Content Creat...
ETL Gruppe in Berlin
Mitarbeiter Online Marketing (mwd)
Vesterling AG in Sauerlach
Software Documentation Specialist (m/w/d)
Rosen Technology & Research Center GmbH in Lingen
Online Marketing Manager (m/w/d)
Otto Graf GmbH Kunststofferzeugnisse in Teningen
Online Marketing Spezialist (d/m/w)
Sachsen Medien GmbH in Leipzig
THEMEN:FernsehenKünstliche IntelligenzMedienVideo
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonMarinela Potor
Folgen:
Marinela Potor ist Journalistin mit einer Leidenschaft für alles, was mobil ist. Sie selbst pendelt regelmäßig vorwiegend zwischen Europa, Südamerika und den USA hin und her und berichtet über Mobilitäts- und Technologietrends aus der ganzen Welt.
EMPFEHLUNG
American Express Gold Card
American Express: Höchstes Startguthaben und Membership Rewards Punkte seit Jahren!
Anzeige MONEY
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

begrünte Dachflächen Solaranlagen Solarenergie PV-Anlage Erneuerbare Energien
GREENTECH

Doppelnutzung: Begrünte Dachflächen mit Solaranlagen

Ein KI-Roboter übergibt einem Menschen eine Anleitung.
BREAK/THE NEWSTECH

Bomben bauen leicht gemacht: Reichen die Sicherheitsvorkehrungen bei KI?

WhatsApp auf neues Handy übertragen
AnzeigeTECH

WhatsApp auf neues Handy übertragen, wenn das alte defekt ist

China KI-Server Meer Künstliche Intelligenz Wasser Kühlung Rechenzentrum Rechenzentren
TECH

China versenkt KI-Server im Meer – um Wasser zu sparen

Langzeitenergiespeicher Energiewende Erneuerbare Energien
GREENTECH

Energiespeicher sichert Solarenergie für den Winter – über Jahre

Solarzellen Fassade Solarenergie PV-Anlage PV-Modul Energiewende erneuerbare Energien
GREENTECH

Strom aus der Hauswand: Solarzellen direkt in der Fassade

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

UPDATE abonnieren & mit etwas Glück SONOS gewinnen!

Sonos Era 100 Smart Speaker
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?