Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
KI Audio-Deepfakes erkennen
TECH

So kannst du Audio-Deepfakes erkennen

Fabian Peters
Aktualisiert: 26. März 2025
von Fabian Peters
Mit DALL-E generiert (KI).
Teilen

Neben Fake-Videos und -Bildern kursieren im Netz auch immer mehr gefälschte Audio-Dateien. Das Problem: Die meisten dieser Stimm-Fakes wurden mithilfe von KI generiert, sind aber nicht als solche gekennzeichnet. Wir verraten dir, wie du Audio-Deepfakes erkennen kannst. 

Was sind Audio-Deepfakes?

Audio-Deepfakes sind künstlich erzeugte oder manipulierte Sprachaufnahmen, die mithilfe von KI erstellt werden. Diese Tonaufnahmen wirken in der Regel täuschend echt. Sogenannte neuronale Netze werden dazu mit großen Mengen an Sprachdaten trainiert. Das ermöglicht eine Nachahmung von bestimmten Sprachmustern, Klängen und Intonationen.

Die Technologie kann für harmlose Zwecke wie Synchronisationen in der Filmbranche zum Einsatz kommen. Allerdings kommt es immer häufiger vor, dass Audio-Deepfakes eingesetzt werden, um Desinformation zu betreiben.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück AirPods 4 gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Vor allem Prominente und Politiker werden zum Opfer von solchen Fake-Aufnahmen. Diese lassen sich aufgrund der technologischen Entwicklung im ersten Moment kaum noch von echten Aufnahmen unterscheiden.

Text-to-Speech und Voice Conversion

Für die Erstellung von Audio-Deepfakes in Form von manipulierten Stimmen kommen vor allem zwei Verfahren zum Einsatz: Text-to-Speech und Voice Conversion.

Beim Text-to-Speech-Verfahren wird ein vorgegebener Text mithilfe von KI in eine Audiodatei umgewandelt. Das System analysiert den Text dabei zunächst auf linguistischer Ebene, um ihn anschließend in Form einer vorab aufgenommenen Stimme zu synthetisieren.

Bei der Voice Conversion wird die Stimme einer Person so verändert, dass sie wie die Stimme einer anderen Person klingt. Der gesprochene Inhalt bleibt dabei unverändert.

Für beide Verfahren benötigt es große Mengen an Daten, um ein entsprechendes KI-System zu trainieren. Die Art der Trainingsdaten kann sich zwar unterscheiden, allerdings haben beide Verfahren gemeinsam, dass sie große Mengen an Audio-Aufnahmen der Zielperson in möglichst hoher und konstanter Qualität erfordern.

In der Regel werden mehrere Stunden Audiomaterial benötigt, was für Audio-Deepfakes von Prominenten und Politikern oftmals kein Problem darstellt. Es gibt aber auch Methoden, die mit wenigen Minuten Aufnahmen auskommen. Diese werden mithilfe von ähnlichen Stimmprofilen ergänzt.

Audio-Deepfakes erkennen

Audio-Deepfakes stellen in Zeiten politischer Unsicherheiten und geopolitischer Veränderungen eine immer größere Gefahr dar. Im Gegensatz zu Deepfake-Video benötigen sie weniger Trainingsdaten und Rechenleistung. Heißt konkret: Audio-Deepfakes lassen sich einfacher erstellen. Gleichzeitig ist es komplizierter, gefälschte Sprachaufnahmen zu erkennen.

Denn im Vergleich zu Fake-Videos gibt es deutlich weniger Anhaltspunkte für Fälschungen. Dennoch gibt es Möglichkeiten, um Audio-Deepfakes zu erkennen. Verräterische Muster können beispielsweise ein Hinweis auf eine Manipulation mittel KI sein. Solche Muster lassen sich mitunter im Vergleich mit echten Aufnahmen einer Person identifizieren.

Unnatürliche Pausen, unterschiedliche Aussprachweisen oder unrealistische Atemmuster können Hinweise darauf sein. Gleiches gilt für merkwürdige Hintergrundgeräusche sowie unnatürliche Klänge. Es gibt jedoch auch KI-Tools, die dabei helfen können Audio-Deepfaks zu entlarven.

Das Fraunhofer-Institut hat mit Deepfake Total etwa eine Plattform, auf der Nutzer verdächtige Audiodateien hochladen und analysieren lassen können. Anschließend werden die Dateien in Form eines sogenannten „Fake-O-Meter“ mit einer Punktzahl bewertet. Diese gibt an, wie wahrscheinlich es ist, dass es sich um ein Audio-Deepfake handeln könnte.

Die Website „How to Verify“ listete zudem weitere Tools und Tipps, um Audio-Deepfakes erkennen zu können. Da KI-Software nicht unfehlbar ist, kommt es letztlich jedoch auf einen Mix an Techniken an, um Fälschungen zu identifizieren. Auch klassische Vorgehensweisen können dabei helfen.

Beispielsweise kann es sich lohnen, verdächtige Audio-Inhalte mit bekannten Fakten zu vergleichen. Gleiches gilt für eine zusätzliche Kontext-Recherche in vertrauenswürdigen Medien.

Auch interessant: 

  • Fake News erkennen: 3 Strategien, um Desinformation zu entlarven
  • Geschäftsmodell Desinformation: Bonuszahlungen für virale Inhalte auf Facebook
  • Angeführt von Meta: US-Unternehmen wollen AI Act und DMA der EU nicht umsetzen
  • Social Media-Plattformen gefährden Journalismus und Demokratie

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

BASIC thinking WhatsApp Kanal
STELLENANZEIGEN
DLP-Security Specialist (m/w/d)
CompuGroup Medical SE & Co. KGaA in Koblenz
IT-System Engineer – Endpoint and Privi...
CompuGroup Medical SE & Co. KGaA in Koblenz
Cloud Database Engineer (m/w/d)
CompuGroup Medical SE & Co. KGaA in Koblenz
Praktikant Online-Marketing und Brand/Content...
Vodafone GmbH in Düsseldorf
Social Media Content Creator & Manager (w...
Breakthrough-Consulting GmbH Michae... in Aschaffenburg
Mitarbeiter (m/w/d) Unternehmenskommunikation...
Rottländer Business-IT GmbH in Siegburg
Social Media Marketing Manager (w/m/d)
Breakthrough-Consulting GmbH Michae... in Aschaffenburg
Content Creator Social Media (m/w/d)
Elektro Buhl GmbH in Radolfzell
THEMEN:DeepfakeEvergreenFake News
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonFabian Peters
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).
WhatsApp Kanal BASIC thinking Tech-Deals Sidebar
EMPFEHLUNG
PŸUR Black Friday
Black Friday bei PŸUR: Highspeed-Internet zu echten Dauertiefpreisen sichern
Anzeige TECH
PITAKA Black Friday
Black Friday Deals 2025: Premium Cases für Top-Smartphones jetzt zu Bestpreisen sichern
Anzeige TECH
Wechselpilot
Wie Wechselpilot dafür sorgt, dass du jährlich mehrere hundert Euro bei deinem Energietarif sparst
Anzeige MONEY
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

RingConn v3.12
AnzeigeTECH

RingConn Translation Software Upgrade v3.12 – Mehr Gesundheit, Bewegung und smarte Insights

Niedertemperatur-Brennstoffzelle Wasserstoff
GREENTECH

Niedertemperatur-Brennstoffzelle kurbelt Wasserstoffproduktion an

Reifenabrieb E-Auto Elektroauto
BREAK/THE NEWSTECH

Warum E-Autos nicht mehr Reifenabrieb verursachen als Verbrenner

Vernal Black Friday
AnzeigeTECH

Vernal Black Friday: Bis zu 38 Prozent sparen auf Home-Office Sets und Höhenverstellbare Schreibtische

smartes Fenster verdunkeln Verglasung
TECH

Smartes Fenster: Verglasung verdunkelt sich auf Knopfdruck

KI-Blutbildanalyse Leukämie
TECH

Blutbildanalyse: KI übertrifft Experten bei Leukämie-Erkennung

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

HomePower 2000 Ultra
+ 2 Solarmodule für 1€ dazu

HomePower_2000_Ultra_500_2_650x

Anzeige

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?