Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du der Datenschutzerklärung zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
KI Audio-Deepfakes erkennen
TECH

So kannst du Audio-Deepfakes erkennen

Fabian Peters
Aktualisiert: 26. März 2025
von Fabian Peters
Mit DALL-E generiert (KI).
Teilen

Neben Fake-Videos und -Bildern kursieren im Netz auch immer mehr gefälschte Audio-Dateien. Das Problem: Die meisten dieser Stimm-Fakes wurden mithilfe von KI generiert, sind aber nicht als solche gekennzeichnet. Wir verraten dir, wie du Audio-Deepfakes erkennen kannst. 

Was sind Audio-Deepfakes?

Audio-Deepfakes sind künstlich erzeugte oder manipulierte Sprachaufnahmen, die mithilfe von KI erstellt werden. Diese Tonaufnahmen wirken in der Regel täuschend echt. Sogenannte neuronale Netze werden dazu mit großen Mengen an Sprachdaten trainiert. Das ermöglicht eine Nachahmung von bestimmten Sprachmustern, Klängen und Intonationen.

Die Technologie kann für harmlose Zwecke wie Synchronisationen in der Filmbranche zum Einsatz kommen. Allerdings kommt es immer häufiger vor, dass Audio-Deepfakes eingesetzt werden, um Desinformation zu betreiben.

BASIC thinking UPDATE

Jeden Tag bekommen 10.000+ Abonnenten die wichtigsten Tech-News direkt in die Inbox. Abonniere jetzt dein kostenloses Tech-Briefing:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

  • 5 Minuten pro Tag
  • 100% kostenlos
  • Exklusive PDF-Guides

Vor allem Prominente und Politiker werden zum Opfer von solchen Fake-Aufnahmen. Diese lassen sich aufgrund der technologischen Entwicklung im ersten Moment kaum noch von echten Aufnahmen unterscheiden.

Text-to-Speech und Voice Conversion

Für die Erstellung von Audio-Deepfakes in Form von manipulierten Stimmen kommen vor allem zwei Verfahren zum Einsatz: Text-to-Speech und Voice Conversion.

Beim Text-to-Speech-Verfahren wird ein vorgegebener Text mithilfe von KI in eine Audiodatei umgewandelt. Das System analysiert den Text dabei zunächst auf linguistischer Ebene, um ihn anschließend in Form einer vorab aufgenommenen Stimme zu synthetisieren.

Bei der Voice Conversion wird die Stimme einer Person so verändert, dass sie wie die Stimme einer anderen Person klingt. Der gesprochene Inhalt bleibt dabei unverändert.

Für beide Verfahren benötigt es große Mengen an Daten, um ein entsprechendes KI-System zu trainieren. Die Art der Trainingsdaten kann sich zwar unterscheiden, allerdings haben beide Verfahren gemeinsam, dass sie große Mengen an Audio-Aufnahmen der Zielperson in möglichst hoher und konstanter Qualität erfordern.

In der Regel werden mehrere Stunden Audiomaterial benötigt, was für Audio-Deepfakes von Prominenten und Politikern oftmals kein Problem darstellt. Es gibt aber auch Methoden, die mit wenigen Minuten Aufnahmen auskommen. Diese werden mithilfe von ähnlichen Stimmprofilen ergänzt.

Audio-Deepfakes erkennen

Audio-Deepfakes stellen in Zeiten politischer Unsicherheiten und geopolitischer Veränderungen eine immer größere Gefahr dar. Im Gegensatz zu Deepfake-Video benötigen sie weniger Trainingsdaten und Rechenleistung. Heißt konkret: Audio-Deepfakes lassen sich einfacher erstellen. Gleichzeitig ist es komplizierter, gefälschte Sprachaufnahmen zu erkennen.

Denn im Vergleich zu Fake-Videos gibt es deutlich weniger Anhaltspunkte für Fälschungen. Dennoch gibt es Möglichkeiten, um Audio-Deepfakes zu erkennen. Verräterische Muster können beispielsweise ein Hinweis auf eine Manipulation mittel KI sein. Solche Muster lassen sich mitunter im Vergleich mit echten Aufnahmen einer Person identifizieren.

Unnatürliche Pausen, unterschiedliche Aussprachweisen oder unrealistische Atemmuster können Hinweise darauf sein. Gleiches gilt für merkwürdige Hintergrundgeräusche sowie unnatürliche Klänge. Es gibt jedoch auch KI-Tools, die dabei helfen können Audio-Deepfaks zu entlarven.

Das Fraunhofer-Institut hat mit Deepfake Total etwa eine Plattform, auf der Nutzer verdächtige Audiodateien hochladen und analysieren lassen können. Anschließend werden die Dateien in Form eines sogenannten „Fake-O-Meter“ mit einer Punktzahl bewertet. Diese gibt an, wie wahrscheinlich es ist, dass es sich um ein Audio-Deepfake handeln könnte.

Die Website „How to Verify“ listete zudem weitere Tools und Tipps, um Audio-Deepfakes erkennen zu können. Da KI-Software nicht unfehlbar ist, kommt es letztlich jedoch auf einen Mix an Techniken an, um Fälschungen zu identifizieren. Auch klassische Vorgehensweisen können dabei helfen.

Beispielsweise kann es sich lohnen, verdächtige Audio-Inhalte mit bekannten Fakten zu vergleichen. Gleiches gilt für eine zusätzliche Kontext-Recherche in vertrauenswürdigen Medien.

Auch interessant: 

  • Fake News erkennen: 3 Strategien, um Desinformation zu entlarven
  • Geschäftsmodell Desinformation: Bonuszahlungen für virale Inhalte auf Facebook
  • Angeführt von Meta: US-Unternehmen wollen AI Act und DMA der EU nicht umsetzen
  • Social Media-Plattformen gefährden Journalismus und Demokratie
Kleines Kraftwerk

Anzeige

STELLENANZEIGEN
Sachbearbeiter Verwaltungsdigitalisierung (m/...
Landratsamt Schwäbisch Hall in Schwäbisch Hall
BASIC thinking Freiberuflicher Redakteur (m/w/d)
BASIC thinking GmbH in Home Office
Praktikant Social Media im Digital Marketing ...
Ferrero MSC GmbH & Co. KG in Frankfurt/M.
Praktikum Social Media & Digitales Market...
Holtzbrinck Buchverlage GmbH in Frankfurt am Main
Senior Social Media Manager (m/w/d)
REWE in Köln
Content Creator/Videograf mit 70% Home-Office...
AOK-Verlag GmbH in Remagen

Du willst solche Themen nicht verpassen? Mit dem BASIC thinking UPDATE, deinem täglichen Tech-Briefing, starten über 10.000 Leser jeden Morgen bestens informiert in den Tag. Jetzt kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

THEMEN:DeepfakeEvergreenFake News
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonFabian Peters
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).
Kleines Kraftwerk

Anzeige

EMPFEHLUNG
Online-Speicher Internxt
Einmal zahlen, ein Leben lang Online-Speicher erhalten
Anzeige TECH
UPDATE – DEIN TECH-BRIEFING

Jeden Tag bekommen 10.000+ Abonnenten von uns die wichtigsten Tech-News direkt in die Inbox. Abonniere jetzt dein kostenloses Tech-Briefing:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

Centaur KI-Modell Verhalten vorhersagen
TECH

Centaur: Deutsches KI-Modell kann menschliches Verhalten vorhersagen

Elektroauto-Rekord
GREENTECH

Rekord: E-Auto von Lucid schafft 1.200 Kilometer – mit einer Ladung

besten Autos besten Kleinwagen 2025
TECH

Diese Automarken bereiten die meisten Probleme

KI Wasserverbrauch Künstliche Intelligenz Wasser
GREENTECH

Wasserverbrauch von KI: Warum Chatbots so durstig sind

Agri-Photovoltaik, Solarenergie, Landwirtschaft, Fraunhofer, Forschung, Studie, Deutschland, Ausbauziele, Klimaschutz, Umweltschutz
GREENTECH

Agri-Photovoltaik: Klimaschutz vom Acker – mit völlig unterschätztem Potenzial

Vodafone iPhone 16 Pro
AnzeigeTECH

Apple-Deal bei Vodafone: iPhone 16 Pro mit 200 Euro Willkommensbonus

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?