Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2026 BASIC thinking GmbH
Deepfakes, Cybersecurity, Forschung, Wissenschaft, Künstliche Intelligenz, Fälschung, Bilder, Fotos, KI, Studie, Cybersicherheit
TECH

Studie verrät: So kannst du Deepfakes von echten Aufnahmen unterscheiden

Beatrice Bode
Aktualisiert: 25. Juli 2024
von Beatrice Bode
CC BY 4.0/ Adejumoke Owolabi
Teilen

Im Internet kursieren immer mehr Deepfakes. Sie stellen ein Gefahr dar, weil sie täuschend echt wirken. Eine neue Studie liefert nun eine Methode, um Deepfakes von echten Bildern zu unterschieden zu können.

Deepfakes sind täuschend echt wirkende, jedoch künstlich erstellte oder veränderte Fotos-, Video- oder Sprachaufzeichnungen. So lautet die Definition der deutschen Bundesregierung.

Das Problem: Cyberkriminelle nutzen Deepfakes für Phishing, Desinformation und die Manipulation der öffentlichen Meinung. Denn durch fortschrittliche Künstliche Intelligenz ist es mittlerweile sehr schwer, Deepfakes zu entlarven.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Beats-Kopfhörer gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Studie erklärt, wie sich Deepfakes von echten Aufnahmen unterscheiden

Eine Studie der Royal Astronomical Society zeigt, dass es bei vielen Deepfakes ein Detail gibt, durch das sie sich von echten Fotos unterscheiden lasen: die Lichtreflexion im Auge. So können KI-generierte Fälschungen durch die Analyse des menschlichen Auges erkannt werden.

In einer offiziellen Pressemitteilung zeigen die Astronom:innen dafür als Beispiel ein Bild: Auf der linken Seite ist eine echte Abbildung der Schauspielerin Scarlett Johansson zu sehen. Auf der rechten Seite befindet sich ein Foto einer Person, das eine Künstliche Intelligenz erstellt hat.

Unter der Abbildung befinden sich Nahaufnahmen der Augäpfel beider Menschen. Dort ist zu sehen, dass die Reflexionen bei der echten Person konsistent und bei der künstlichen Person physikalisch falsch sind.

Das heißt: Wenn die Spiegelungen in den Augäpfeln übereinstimmen, ist das Bild wahrscheinlich das eines echten Menschen. Sind sie ungleich, handelt es sich vermutlich um einen Deepfake.

Wieso untersuchen Astronomen Künstliche Intelligenz?

Die Studie ist das Ergebnis der Forschungsarbeit von Adejumoke Owolabi, Master-Studentin an der University of Hull im englischen Yorkshire. Sie hat KI-generierte Fälschungen auf dieselbe Weise analysiert, wie Astronom:innen Bilder von Galaxien untersuchen.

„Um die Form von Galaxien zu messen, analysieren wir, ob sie zentral kompakt sind, ob sie symmetrisch sind und wie glatt sie sind. Wir analysieren die Lichtverteilung“, erklärt Kevin Pimbblet, Professor für Astrophysik und Direktor des Exzellenzzentrums für Datenwissenschaft, Künstliche Intelligenz und Modellierung. „Wir erkennen die Reflexionen auf automatische Weise und lassen ihre morphologischen Merkmale durch die CAS- und Gini-Indizes laufen“.

Normalerweise nutzen die Forschenden den Gini-Koeffizent, um zu messen, wie das Licht in einem Bild einer Galaxie auf seine Pixel verteilt ist. Dazu werden sie in aufsteigender Reihenfolge nach ihrem Lichtstrom geordnet und dann mit dem Ergebnis verglichen, das man bei einer vollkommen gleichmäßigen Lichtstromverteilung erwarten würde. Auf die gleiche Weise lassen sich auch die linken und rechten Augäpfel von Menschen vergleichen.

Die wissenschaftliche Methode, die das Team der University of Hull nutzt, sei kein Allheilmittel zur Erkennung gefälschter Bilder, so Kevin Pimbblet. Es gäbe auch falsch-positive und falsch-negative Ergebnisse. Allerdings liefere die Herangehensweise „einen Angriffsplan für das Wettrüsten bei der Erkennung von Fälschungen“.

Auch interessant:

  • Deepfakes: Bayern fordert Strafe von bis zu 5 Jahren Freiheitsentzug
  • Drohende EU-Strafen: Tech-Konzerne müssen gegen Deepfakes vorgehen
  • CT-Scans: Künstliche Intelligenz könnte Tausende Leben retten
  • Zombie-Marken: KI-Websites stehlen Identität von Autoren

🤝 25 Euro geschenkt!

Eröffne jetzt dein kostenloses NIBC Tagesgeld und erhalte bis zu 2,75 Prozent Zinsen auf dein Geld! Und obendrauf gibt's sogar noch 25 Euro geschenkt!


Jetzt Zinsen sichern

Anzeige

STELLENANZEIGEN
Content Creator – Video / Social Media ...
Ergotopia GmbH in Köln
Werkstudent:in Social Media Content Creator (...
BZKI Bildungszentrum für künstliche Intell... in Kempen
Graphic Designer & Content Creator (m/w/d)
FamiCord AG in Leipzig
Senior SAP Consultant FI/CO (f/m/div.)
Bosch Gruppe in Wetzlar
SAP Project Manager (m/w/d)
Bosch Gruppe in Stuttgart
Werkstudent*in Online Marketing (w/m/div)
Sparda-Bank Berlin eG in Berlin
Key Account Manager (m/w/d) im Bereich Online...
AZ fundraising services GmbH & Co. KG in Gütersloh
PreMaster Program | Software Engineer for MEM...
Bosch Gruppe in Reutlingen
THEMEN:CybersecurityDeepfakeForschungKünstliche Intelligenz
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonBeatrice Bode
Folgen:
Beatrice ist Multi-Media-Profi. Ihr Studium der Kommunikations - und Medienwissenschaften führte sie über Umwege zum Regionalsender Leipzig Fernsehen, wo sie als CvD, Moderatorin und VJ ihre TV-Karriere begann. Mittlerweile hat sie allerdings ihre Sachen gepackt und reist von Land zu Land. Von unterwegs schreibt sie als Autorin für BASIC thinking.

🤝 25 Euro geschenkt!

Eröffne jetzt dein kostenloses NIBC Tagesgeld und erhalte bis zu 2,75 Prozent Zinsen auf dein Geld! Und obendrauf gibt's sogar noch 25 Euro geschenkt!


Jetzt Zinsen sichern

Anzeige

EMPFEHLUNG
Samsung Galaxy S25 Ultra
Android-Special bei o2: Samsung Galaxy S25 Ultra & Tab S10 für nur 7 Euro Anzahlung
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

HubSpot vs. Insightly
AnzeigeTECH

Vergleich: HubSpot vs. Insightly – Welche Lösung überzeugt im Projektgeschäft?

Netflix KI Synchronsprecher Künstliche Intelligenz
BREAK/THE NEWSENTERTAIN

Wegen KI-Klausel: Deutsche Synchronsprecher boykottieren Netflix

HubSpot vs. Monday.com
AnzeigeTECH

HubSpot vs. Monday.com: Welches CRM ist ideal fürs Projektmanagement in Agenturen?

CRM für Autohäuser
AnzeigeTECH

Was ist das beste CRM-System für Autohäuser?

Feststoffbatterie
GREENTECH

Silber-Keramik-Trick könnte Feststoffbatterien stabilisieren

ChatGPT Grokipedia Elon Musk Quelle
BREAK/THE NEWSTECH

Quellen-Chaos: ChatGPT zitiert Fake News von Grokipedia

Mehr anzeigen
Folge uns:
© 2003 - 2026 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

NIBC Tagesgeld-Deal: 2,75 % Zinsen + 25 Euro geschenkt!

50 Euro

Anzeige

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?