Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
KI Audio-Deepfakes erkennen
TECH

So kannst du Audio-Deepfakes erkennen

Fabian Peters
Aktualisiert: 26. März 2025
von Fabian Peters
Mit DALL-E generiert (KI).
Teilen

Neben Fake-Videos und -Bildern kursieren im Netz auch immer mehr gefälschte Audio-Dateien. Das Problem: Die meisten dieser Stimm-Fakes wurden mithilfe von KI generiert, sind aber nicht als solche gekennzeichnet. Wir verraten dir, wie du Audio-Deepfakes erkennen kannst. 

Was sind Audio-Deepfakes?

Audio-Deepfakes sind künstlich erzeugte oder manipulierte Sprachaufnahmen, die mithilfe von KI erstellt werden. Diese Tonaufnahmen wirken in der Regel täuschend echt. Sogenannte neuronale Netze werden dazu mit großen Mengen an Sprachdaten trainiert. Das ermöglicht eine Nachahmung von bestimmten Sprachmustern, Klängen und Intonationen.

Die Technologie kann für harmlose Zwecke wie Synchronisationen in der Filmbranche zum Einsatz kommen. Allerdings kommt es immer häufiger vor, dass Audio-Deepfakes eingesetzt werden, um Desinformation zu betreiben.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Beats Studio Buds gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Vor allem Prominente und Politiker werden zum Opfer von solchen Fake-Aufnahmen. Diese lassen sich aufgrund der technologischen Entwicklung im ersten Moment kaum noch von echten Aufnahmen unterscheiden.

Text-to-Speech und Voice Conversion

Für die Erstellung von Audio-Deepfakes in Form von manipulierten Stimmen kommen vor allem zwei Verfahren zum Einsatz: Text-to-Speech und Voice Conversion.

Beim Text-to-Speech-Verfahren wird ein vorgegebener Text mithilfe von KI in eine Audiodatei umgewandelt. Das System analysiert den Text dabei zunächst auf linguistischer Ebene, um ihn anschließend in Form einer vorab aufgenommenen Stimme zu synthetisieren.

Bei der Voice Conversion wird die Stimme einer Person so verändert, dass sie wie die Stimme einer anderen Person klingt. Der gesprochene Inhalt bleibt dabei unverändert.

Für beide Verfahren benötigt es große Mengen an Daten, um ein entsprechendes KI-System zu trainieren. Die Art der Trainingsdaten kann sich zwar unterscheiden, allerdings haben beide Verfahren gemeinsam, dass sie große Mengen an Audio-Aufnahmen der Zielperson in möglichst hoher und konstanter Qualität erfordern.

In der Regel werden mehrere Stunden Audiomaterial benötigt, was für Audio-Deepfakes von Prominenten und Politikern oftmals kein Problem darstellt. Es gibt aber auch Methoden, die mit wenigen Minuten Aufnahmen auskommen. Diese werden mithilfe von ähnlichen Stimmprofilen ergänzt.

Audio-Deepfakes erkennen

Audio-Deepfakes stellen in Zeiten politischer Unsicherheiten und geopolitischer Veränderungen eine immer größere Gefahr dar. Im Gegensatz zu Deepfake-Video benötigen sie weniger Trainingsdaten und Rechenleistung. Heißt konkret: Audio-Deepfakes lassen sich einfacher erstellen. Gleichzeitig ist es komplizierter, gefälschte Sprachaufnahmen zu erkennen.

Denn im Vergleich zu Fake-Videos gibt es deutlich weniger Anhaltspunkte für Fälschungen. Dennoch gibt es Möglichkeiten, um Audio-Deepfakes zu erkennen. Verräterische Muster können beispielsweise ein Hinweis auf eine Manipulation mittel KI sein. Solche Muster lassen sich mitunter im Vergleich mit echten Aufnahmen einer Person identifizieren.

Unnatürliche Pausen, unterschiedliche Aussprachweisen oder unrealistische Atemmuster können Hinweise darauf sein. Gleiches gilt für merkwürdige Hintergrundgeräusche sowie unnatürliche Klänge. Es gibt jedoch auch KI-Tools, die dabei helfen können Audio-Deepfaks zu entlarven.

Das Fraunhofer-Institut hat mit Deepfake Total etwa eine Plattform, auf der Nutzer verdächtige Audiodateien hochladen und analysieren lassen können. Anschließend werden die Dateien in Form eines sogenannten „Fake-O-Meter“ mit einer Punktzahl bewertet. Diese gibt an, wie wahrscheinlich es ist, dass es sich um ein Audio-Deepfake handeln könnte.

Die Website „How to Verify“ listete zudem weitere Tools und Tipps, um Audio-Deepfakes erkennen zu können. Da KI-Software nicht unfehlbar ist, kommt es letztlich jedoch auf einen Mix an Techniken an, um Fälschungen zu identifizieren. Auch klassische Vorgehensweisen können dabei helfen.

Beispielsweise kann es sich lohnen, verdächtige Audio-Inhalte mit bekannten Fakten zu vergleichen. Gleiches gilt für eine zusätzliche Kontext-Recherche in vertrauenswürdigen Medien.

Auch interessant: 

  • Fake News erkennen: 3 Strategien, um Desinformation zu entlarven
  • Geschäftsmodell Desinformation: Bonuszahlungen für virale Inhalte auf Facebook
  • Angeführt von Meta: US-Unternehmen wollen AI Act und DMA der EU nicht umsetzen
  • Social Media-Plattformen gefährden Journalismus und Demokratie
Bondora

Anzeige

STELLENANZEIGEN
Director (m/w/d) Digital Media & Planning
emetriq GmbH in Hamburg, Hamburg, Deutschland
Werkstudent:in (m/w/d) Events, Social Media M...
LBD-Beratungsgesellschaft mbH in Berlin
Video Content Creator (m/w/d)
Warimex Waren-Import-Export Handels GmbH in Neuried
Referent*in Social Media (m/w/d) mit Schwerpu...
Bundestagsfraktion Bündnis 90/Die Grünen in Berlin
Social Media Manager/-in (w/m/d)*
Stadtwerke Gelsenkirchen GmbH in Gelsenkirchen
Junior Social Media Manager (m/w/d)
PB3C GmbH in Berlin
Pflichtpraktikum Social Media (m/w/d)
EDEKA ZENTRALE Stiftung & Co. KG in Hamburg
(Junior) Digital Marketing Manager (m/w/d)
LOTTO Hessen GmbH in Wiesbaden
THEMEN:DeepfakeEvergreenFake News
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonFabian Peters
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).
NIBC

Anzeige

EMPFEHLUNG
Nass-Trockensauger
Nur für kurze Zeit: Starken AEG 2-in-1-Nass-Trockensauger für nur 389 Euro sichern
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

Ökostrom Rechenzentren
GREENTECH

Rechenzentren: Ökostrom deutlich günstiger als Atomkraft

KI Gehirn verkümmern Auswirkungen Künstliche Intelligenz ChatGPT
BREAK/THE NEWSTECH

Vom Denken befreit: Wie KI unsere Köpfe in Watte packt

CRM für Fintech-Unternehmen
AnzeigeTECH

CRM für Fintech-Unternehmen: Kunden gewinnen und regulatorische Anforderungen erfüllen

Bitrix24
AnzeigeTECH

CRM-Vergleich 2025: Die besten Lösungen für Unternehmen

Perowskit-Solarzelle Wirkungsgrad
GREENTECH

Perowskit-Solarzelle mit Rekord-Effizienz – dank chemischem Trick

Tesla Model 3 Straße Berg Auto vegan
GREENTECH

Das sind die besten veganen Autos in Deutschland

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

UPDATE abonnieren & mit etwas Glück Beats gewinnen!

Beats Studio Buds +
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?