KI Internet schlechter Künstliche Intelligenz

Wie KI das Internet immer schlechter macht

Fabian Peters
Bild: Mit ChatGPT generiert (KI).

Anzeige

Künstliche Intelligenz verändert das Internet grundlegend – und zwar nicht nur zum Positiven. Denn: Inhalte werden oberflächlicher, von Grund auf verzerrt und dadurch weniger wahrhaft. Was als technologische Revolution begann, entwickelt sich zunehmend zu einem Problem für Informationsqualität und Nutzerkompetenz.

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Hintergrund: Warum KI das Internet schlechter macht

  • Laut einer Studie des Tow Center for Digital Journalism liefern KI‑Suchmaschinen in über 60 Prozent der Fälle ungenaue oder falsche Quellenangaben. Beispielsweise wurde bei DeepSeek in 115 von 200 Fällen die Quelle falsch zugeordnet.
  • Der Foundation Model Transparency Index bewertet die Transparenz führender KI‑Entwickler wie OpenAI, Google und Meta. Kein Modell erreichte mehr als 54 Prozent der maximal möglichen Transparenzpunkte. Besonders unklar bleibt, wie Trainingsdaten ausgewählt und Bias kontrolliert werden.
  • KI‑Systeme greifen oft auf bereits verzerrte oder falsche Inhalte zurück, die dann weiterverbreitet werden. Nutzer übernehmen diese Fehler, was die Problematik noch verstärkt. Das Ergebnis: Echokammern und Blasen, die selektive Informationen propagieren.

Einordnung: KI verroht die Informationslandschaft

Die zunehmende Verbreitung von KI-Systemen im Internet führt zu einer Verrohung der Informationslandschaft. Inhalte werden nicht nach Relevanz oder Wahrheit bewertet, sondern nach Sichtbarkeit und Aufmerksamkeit. Das verschiebt den Fokus von Wissensvermittlung zu Engagement-Optimierung, und untergräbt langfristig das Vertrauen in digitale Quellen.

Die Mechanismen der KI sind intransparent: Nutzer können nicht erkennen, warum ein System eine bestimmte Antwort liefert. Dies macht die Überprüfung von Fakten aufwendiger und die Gefahr von Fehlinformationen größer. Wer sich auf KI verlässt, wird zunehmend in einer selbstverstärkenden Informationsblase gefangen.

Hinzu kommt, dass Fehler und Verzerrungen in KI‑Modellen kaum kontrolliert werden. Selbst gut gemeinte Antworten können falsche Narrative verstärken und politische, wissenschaftliche oder gesellschaftliche Debatten beeinflussen. Die Verantwortung liegt dabei nicht allein bei den Systemen, sondern bei Entwicklern, Plattformen und Nutzern, die kritisch reflektieren müssen.

Um dem entgegenzuwirken, müssen ethische Standards, Transparenzpflichten und eine stärkere Nutzerkompetenz gefördert werden. KI darf nicht nur eine Frage der technischen Machbarkeit sein, sondern muss immer auch gesellschaftliche Verantwortung einbeziehen, um die Qualität der Informationslandschaft zu sichern.

Stimmen

  • Analysten des Tow Center for Digital Journalism mahnen: „KI‑Suchmaschinen liefern in über 60 Prozent der Fälle ungenaue oder falsche Quellenangaben, was die Glaubwürdigkeit der bereitgestellten Informationen erheblich beeinträchtigt.“
  • Die Foundation Model Transparency Index kommt zu einem ähnlichen Schluss: „Kein einziges KI‑Modell erreichte mehr als 54 Prozent der maximal möglichen Transparenzpunkte, was auf erhebliche Mängel in der Offenlegung von Trainingsdaten und Modellarchitektur hinweist.“
  • „Nutzer übernehmen systematische Fehler einer voreingenommenen KI, was zu einer Verstärkung dieser Verzerrungen führt und die Qualität der bereitgestellten Informationen beeinträchtigt“, so ein Fazit von der Universität Deusto.

Ausblick: Medienkompetenz entscheidend

Die Entwicklung von KI‑Systemen wird weiter rasant voranschreiten, was die Informationslandschaft noch stärker prägen dürfte. Regulierungsbehörden weltweit könnten Transparenzpflichten, Offenlegung von Trainingsdaten und Kennzeichnungspflichten für KI-Inhalte gesetzlich verankern.

Parallel könnten technische Lösungen entstehen, die KI-Antworten als unsicher markieren oder Nutzer auf mögliche Fehler hinweisen. Kombiniert mit menschlicher Kuratierung könnte dies helfen, die Verbreitung falscher Informationen zu begrenzen.

Auf Nutzerseite wird Medienkompetenz entscheidend: Wer KI‑generierte Inhalte nutzt, muss lernen, kritisch zu hinterfragen, Quellen zu prüfen und die eigene Informationsblase zu verlassen. Nur so kann die Gesellschaft verhindern, dass die Qualität von Wissen dauerhaft leidet.

Langfristig hängt der Erfolg dieser Maßnahmen auch von der Bereitschaft der Entwickler ab, ethische Richtlinien, Transparenz und Verantwortung zu priorisieren, statt kurzfristige Aufmerksamkeit zu maximieren. Die Balance zwischen technologischem Fortschritt und Informationsqualität wird entscheidend sein.

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Auch interessant:

🤝 25 Euro geschenkt!

Eröffne jetzt dein kostenloses NIBC Tagesgeld und erhalte bis zu 2,75 Prozent Zinsen auf dein Geld! Und obendrauf gibt's sogar noch 25 Euro geschenkt!


Jetzt Zinsen sichern

Voraussetzungen gelten, Anzeige

STELLENANZEIGEN
Graphic Designer & Content Creator (m/w/d)
FamiCord AG in Leipzig
Senior SAP Consultant FI/CO (f/m/div.)
Bosch Gruppe in Wetzlar
Intern/Working Student (m/f/d) in Generative AI
Clarios Germany GmbH & Co. KG in Hannover
Intern (m/f/d) in Digital Marketing
Clarios Germany GmbH & Co. KG in Hannover
Senior Cyber Security Engineer (m/f/d)
Clarios Germany GmbH & Co. KG in Hannover
Digital Marketing Manager (m/w/d)
Schwer Fittings GmbH in Denkingen
Personalberater (m/w/d)
Ratbacher GmbH - Karriere bei Rat... in Stuttgart, M...
Organizational Integration Manager (m/f/d)
Clarios Germany GmbH & Co. KG in
Teile diesen Artikel
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).