KI lernt von KI, Roboter, Künstliche Intelligenz

Studie offenbart: KI lernt von KI – und wird immer schlechter

Maria Gramsch
Adobe Stock / phonlamaiphoto

Für ihre Weiterentwicklung benötigt Künstliche Intelligenz intensives Training. Doch was passiert, wenn KI von KI lernt? Laut einer neuen Studie wirkt sich das negativ aus, denn die KI-Systeme werden dadurch immer schlechter.

Ein KI-System benötigt für sein Training Unmengen an Daten. Doch was passiert, wenn diese Daten selbst KI-generiert sind? Mit dieser Frage haben sich Forschende der Rice University im texanischen Houston und der Stanford University beschäftigt.

Sie sind in ihrer Studie „Self-Consuming Generative Models Go MAD“ zu dem Schluss gekommen, dass KI-Systeme schlechter werden, wenn KI-generierte Bilder für ihre Training eingesetzt werden.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 12.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Apple AirPods gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Was passiert, wenn KI von KI lernt?

Die Forschenden haben sich für ihre Untersuchung auf Bildgeneratoren wie DALL·E 3 von OpenAI sowie Midjourney und Stable Diffusion konzentriert.

Die rasanten Fortschritte bei generativen KI-Algorithmen für Bilder, Texte und andere Datentypen haben dazu geführt, dass die Versuchung groß ist, synthetische Daten zum Trainieren von Modellen der nächsten Generation zu verwenden.

Fließen wiederholt KI-generierte Daten in das Training neuer KI-Generationen ein, entsteht laut den Forschende eine autophage – „sich selbst verzehrende“ – Schleife. In ihrem Test haben sie die verschiedenen KI-Modelle solchen autophagen Schleifen ausgesetzt.

Im Ergebnis litten dabei sowohl Qualität als auch Vielfalt. Beide Merkmale verringerten sich progressiv. Die Forschenden bezeichnen diesen Zustand als Model Autophagy Disorder (MAD) in Anlehnung an den Rinderwahnsinn.

Künstliche Intelligenz generiert schraffierte Gesichter

Für ihre Untersuchung haben die Forschenden KI-Modelle mit verschiedenen Daten trainiert. Dabei griffen sie in jeder neuen Stufe stärker auf die bereits durch KI erzeugten Bilder zurück.

Diese wiesen bereits in Stufe drei eine vollständige synthetische Schleife auf, wodurch sich in den Bildern kreuzschraffierten Artefakte zeigten. In jeder weiteren Generation nahmen diese Artefakte zu. Die Forschenden vermuten hier möglicherweise einen architektonischen Fingerabdruck.

Je weniger echte Daten die KI-Modelle also erhalten haben, desto eher waren die erzeugten Bilder verzerrt. Doch nicht nur die Kreuzschraffierungen traten dabei auf.

Auch entstanden so Datensätze, bei denen die Personen in den Ergebnissen sich immer stärker ähnelten. Am Ende sahen diese teilweise aus, als wären sie ein und dieselbe Person.

KI könnte sich selbst zerstören

Laut Studien-Autor Richard Baraniuk, Professor an der Rice University, könnte dies ernsthafte Folgen für die Entwicklung von Künstlicher Intelligenz haben. KI-Systeme könnten sich bereits schon nach wenigen Generationen durch KI-basiertes Training in einer Feedbackschleife befinden.

So könnten die Modelle „irreparabel beschädigt werden“. Das wiederum würde nach nur kurzer Zeit zum Modellkollaps der Systeme führen.

Auch interessant:

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 12.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

STELLENANZEIGEN
Content Creator (m/w/d) Schwerpun...
Steinau KG in Arnsberg
Junior Marketing Manager (m/w/d) – Schw...
Bayerisches Pilgerbüro gGmbH in München
SEO Lead (m/f/x)
Rebuy Recommerce GmbH in Berlin
Frontend Software Engineer (f/m/div.)
Bosch Gruppe in Renningen
Data Engineer (f/m/div.)
Bosch Gruppe in Renningen
Social Media Strategist (m/w/d)
BANSBACH GMBH in Stuttgart
Backend Software Engineer (f/m/div.)
Bosch Gruppe in Renningen
Praktikant*in Corporate Social Media (Pflicht...
Mercedes-Benz AG in Stuttgart
Teile diesen Artikel
Folgen:
Maria ist freie Journalistin und technische Mitarbeiterin an der Universität Leipzig. Seit 2021 arbeitet sie als freie Autorin für BASIC thinking. Maria lebt und paddelt in Leipzig und arbeitet hier unter anderem für die Leipziger Produktionsfirma schmidtFilm. Sie hat einen Bachelor in BWL von der DHBW Karlsruhe und einen Master in Journalistik von der Universität Leipzig.