Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
KI Audio-Deepfakes erkennen
TECH

So kannst du Audio-Deepfakes erkennen

Fabian Peters
Aktualisiert: 26. März 2025
von Fabian Peters
Mit DALL-E generiert (KI).
Teilen

Neben Fake-Videos und -Bildern kursieren im Netz auch immer mehr gefälschte Audio-Dateien. Das Problem: Die meisten dieser Stimm-Fakes wurden mithilfe von KI generiert, sind aber nicht als solche gekennzeichnet. Wir verraten dir, wie du Audio-Deepfakes erkennen kannst. 

Was sind Audio-Deepfakes?

Audio-Deepfakes sind künstlich erzeugte oder manipulierte Sprachaufnahmen, die mithilfe von KI erstellt werden. Diese Tonaufnahmen wirken in der Regel täuschend echt. Sogenannte neuronale Netze werden dazu mit großen Mengen an Sprachdaten trainiert. Das ermöglicht eine Nachahmung von bestimmten Sprachmustern, Klängen und Intonationen.

Die Technologie kann für harmlose Zwecke wie Synchronisationen in der Filmbranche zum Einsatz kommen. Allerdings kommt es immer häufiger vor, dass Audio-Deepfakes eingesetzt werden, um Desinformation zu betreiben.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück AirPods 4 gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Vor allem Prominente und Politiker werden zum Opfer von solchen Fake-Aufnahmen. Diese lassen sich aufgrund der technologischen Entwicklung im ersten Moment kaum noch von echten Aufnahmen unterscheiden.

Text-to-Speech und Voice Conversion

Für die Erstellung von Audio-Deepfakes in Form von manipulierten Stimmen kommen vor allem zwei Verfahren zum Einsatz: Text-to-Speech und Voice Conversion.

Beim Text-to-Speech-Verfahren wird ein vorgegebener Text mithilfe von KI in eine Audiodatei umgewandelt. Das System analysiert den Text dabei zunächst auf linguistischer Ebene, um ihn anschließend in Form einer vorab aufgenommenen Stimme zu synthetisieren.

Bei der Voice Conversion wird die Stimme einer Person so verändert, dass sie wie die Stimme einer anderen Person klingt. Der gesprochene Inhalt bleibt dabei unverändert.

Für beide Verfahren benötigt es große Mengen an Daten, um ein entsprechendes KI-System zu trainieren. Die Art der Trainingsdaten kann sich zwar unterscheiden, allerdings haben beide Verfahren gemeinsam, dass sie große Mengen an Audio-Aufnahmen der Zielperson in möglichst hoher und konstanter Qualität erfordern.

In der Regel werden mehrere Stunden Audiomaterial benötigt, was für Audio-Deepfakes von Prominenten und Politikern oftmals kein Problem darstellt. Es gibt aber auch Methoden, die mit wenigen Minuten Aufnahmen auskommen. Diese werden mithilfe von ähnlichen Stimmprofilen ergänzt.

Audio-Deepfakes erkennen

Audio-Deepfakes stellen in Zeiten politischer Unsicherheiten und geopolitischer Veränderungen eine immer größere Gefahr dar. Im Gegensatz zu Deepfake-Video benötigen sie weniger Trainingsdaten und Rechenleistung. Heißt konkret: Audio-Deepfakes lassen sich einfacher erstellen. Gleichzeitig ist es komplizierter, gefälschte Sprachaufnahmen zu erkennen.

Denn im Vergleich zu Fake-Videos gibt es deutlich weniger Anhaltspunkte für Fälschungen. Dennoch gibt es Möglichkeiten, um Audio-Deepfakes zu erkennen. Verräterische Muster können beispielsweise ein Hinweis auf eine Manipulation mittel KI sein. Solche Muster lassen sich mitunter im Vergleich mit echten Aufnahmen einer Person identifizieren.

Unnatürliche Pausen, unterschiedliche Aussprachweisen oder unrealistische Atemmuster können Hinweise darauf sein. Gleiches gilt für merkwürdige Hintergrundgeräusche sowie unnatürliche Klänge. Es gibt jedoch auch KI-Tools, die dabei helfen können Audio-Deepfaks zu entlarven.

Das Fraunhofer-Institut hat mit Deepfake Total etwa eine Plattform, auf der Nutzer verdächtige Audiodateien hochladen und analysieren lassen können. Anschließend werden die Dateien in Form eines sogenannten „Fake-O-Meter“ mit einer Punktzahl bewertet. Diese gibt an, wie wahrscheinlich es ist, dass es sich um ein Audio-Deepfake handeln könnte.

Die Website „How to Verify“ listete zudem weitere Tools und Tipps, um Audio-Deepfakes erkennen zu können. Da KI-Software nicht unfehlbar ist, kommt es letztlich jedoch auf einen Mix an Techniken an, um Fälschungen zu identifizieren. Auch klassische Vorgehensweisen können dabei helfen.

Beispielsweise kann es sich lohnen, verdächtige Audio-Inhalte mit bekannten Fakten zu vergleichen. Gleiches gilt für eine zusätzliche Kontext-Recherche in vertrauenswürdigen Medien.

Auch interessant: 

  • Fake News erkennen: 3 Strategien, um Desinformation zu entlarven
  • Geschäftsmodell Desinformation: Bonuszahlungen für virale Inhalte auf Facebook
  • Angeführt von Meta: US-Unternehmen wollen AI Act und DMA der EU nicht umsetzen
  • Social Media-Plattformen gefährden Journalismus und Demokratie
BASIC thinking WhatsApp Kanal
STELLENANZEIGEN
Content Producer (m/w/d)
BAUHAUS in Mannheim
Werkstudent Online Marketing
ALL IN GROUP GmbH in München
Social Media Manager (w/m/d) (befristete Elte...
Yello Strom GmbH in Köln
Mitarbeiter Datenmanagement & Marketing (...
Adolf Schuch GmbH in Worms
Praktikant Marktforschung – Consumer In...
Ferrero MSC GmbH & Co. KG in Frankfurt/M.
Influencer Marketing & Cooperations Manag...
Model Car World GmbH in Rüsselsheim am Main
Sales Manager Travel Networks (m/w/d)
MSC Cruises GmbH in München
Content Creator Video (m/w/d)
rahm GmbH in Troisdorf bei Köln
THEMEN:DeepfakeEvergreenFake News
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonFabian Peters
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).
WhatsApp Kanal BASIC thinking Tech-Deals Sidebar
EMPFEHLUNG
Strom-Wechselservice Wechselpilot-2
Strom-Wechselservice: Was bringt dir der Service wirklich?
Anzeige MONEY
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

WELOCK Double 11 Deals
AnzeigeTECH

WELOCK Smart Lock Double 11 Deals: Bis zu 70 Euro sparen – Jetzt zuschlagen!

Psychologische Tricks Künstlicher Intelligenz
TECH

Psycho-Tricks wirken auch bei KI – das ist der Grund

CRM für Energieversorger
AnzeigeTECH

CRM für Energieversorger: Effizientes Management von Vertrieb und Fördermitteln

WhatsApp BASIC thinking TECH-DEALS
SERVICETECH

Pünktlich zum Black Friday: Die BASIC thinking TECH-DEALS auf WhatsApp

BMW X1 Auto SUV Straße
TECH

Die besten Automarken laut Fahrtest-Ergebnissen

Zeiterfassungsgesetz 2026
AnzeigeTECH

Kommt das Zeiterfassungsgesetz 2026? Was Unternehmen jetzt wissen müssen

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

Teste jetzt die AI Voice Agents
von ElevenLabs in 32 Sprachen

Elevenlabs Logo

Anzeige

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?