KI Demokratie Künstliche Intelligenz Wahrheit

Wie KI Wahrheit verzerrt und Demokratie zerstört

Fabian Peters
Bild: DespositPhotos

Künstliche Intelligenz verändert das Internet und unsere Gesellschaft von Grund auf – und zwar nicht nur zum Positiven. Denn: Inhalte und Debatten werden oberflächlicher, grundlegend verzerrt oder schlichtweg falsch. Das hat nicht nur negative Effekte auf die Informationsqualität und das digitale Miteinander. KI gefährdet reale Diskurse, unser soziales Zusammenleben und letztlich auch die Demokratie. Eine kommentierende Analyse.

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 12.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Wie KI  Wahrheit verzerrt und Demokratie gefährdet

  • Ob Diktaturen, Medien oder populistische Parteien: Immer mehr politische Akteure setzen gezielt KI ein, um Menschen zu täuschen, falsche oder irreführende Informationen zu verbreiten oder Debatten zu verfälschen. Die häufigsten Ziele: Aufmerksamkeit, wirtschaftliche Vorteile oder politische Macht. Die häufigsten Täuschungsmanöver: Die Verbreitung von KI-generierten Bildern, Videos oder Inhalten, die nicht der Realität entsprechen oder Tatsachen verfälschen oder unterschlagen.
  • Die vermutlich noch größere Gefahr: Täuschung im großen Stil. Sogenannte KI-Schwärme könnten schon bald einen öffentlichen Konsens suggerieren und Demokratien klammheimlich verzerren und zersetzen. Hintergrund sind gesteuerte KI-Bots, die ein Gedächtnis haben, sich auf gemeinsame Ziele koordinieren und dabei Ton und Inhalt variieren können.
  • Nicht nur viele naive Nutzer übernehmen unbedarft KI-Inhalte, ohne diese zu prüfen. Auch KI-Systeme selbst basieren mitunter auf falschen Informationen, die sie aus dem Netz speisen. Es ist sogar möglich, Sprachmodelle gezielt zu manipulieren. Ein Beispiel dafür lieferte der britische Suchmaschinen-Experte Jon Goodey. Auf LinkedIn veröffentlichte er im Rahmen eines Experiments einen Beitrag über ein angebliches Google-Update, das es niemals gab. Zahlreiche Nutzer, aber auch Medien übernahmen den Inhalt, den übrigens eine KI zusammengesponnen hatte, ungeprüft. Das führte dazu, dass er sogar von einigen KI-Modellen selbst aufgenommen wurde.

KI lässt zirkuläres Verfäschungs-System entstehen

Die große Erzählung von einer schier übermächtigen KI, die weder Grenzen noch Unmögliches kennt, war sowohl für viele Unternehmen als auch Medien lange bequem. Mittlerweile zerbröselt sie aber immer mehr. Denn: Künstliche Intelligenz ist kein Orakel, sondern ein Echo-Raum.

Sie verstärkt, was da ist: Fakten und Urteile, aber auch Halbwissen, Vorurteile und Lügen. Die Wahrheit wird zwar keineswegs abgeschafft, aber verdünnt. Denn: Desinformation ist kein neues Phänomen. Aber KI kann genutzt werden, um sie zu skalieren. Denn: Was einst Menschen zusammenschustern mussten, kann nun automatisiert werden.

Oder kurzum: KI braucht kein Orchester, um zur Täuschung missbraucht zu werden, sondern nur einen Dirigenten und einen digitalen Chor, der dieselbe interessengetriebene Partitur singt – inklusive automatisiertem Applaus. Das Perfideste ist jedoch, dass die Grenzen zwischen Täuschung und Irrtum verschwimmen. Denn KI „lernt“ mittlerweile aus falschen Inhalten und lässt ein zirkuläres System der Verfälschung entstehen.

Stimmen

  • In einem Artikel in der renommierten Fachzeitschrift Science beschreiben die Autoren, wie gefährlich KI-Schwärme sein können. Jonas R. Kunst von der BI Norwegian Business School und einer der Hauptautoren dazu: „Die Gefahr besteht nicht mehr nur in Fake News, sondern darin, dass die Grundlage des demokratischen Diskurses – unabhängige Stimmen – zusammenbricht, wenn ein einzelner Akteur Tausende von einzigartigen, KI-generierten Profilen kontrollieren kann.“
  • David Garcia, Professor für Social and Behavioural Data Science an der Universität Konstanz, in einem Statement: „Über die Täuschungen oder die Sicherheit von einzelnen Chatbots hinaus müssen wir neue Gefahren erforschen, die sich aus der Interaktion von vielen KI-Akteuren ergeben. Dazu ist es essenziell, dass wir diese KI-Akteure mit Methoden der Verhaltenswissenschaften untersuchen und ihr kollektives Verhalten analysieren, wenn sie in großen Gruppen interagieren.“
  • Forscher der Ludwig-Maximilians-Universität München und der Universität Wien haben noch einen weiteren KI-Einfluss ausgemacht, der demokratiegefährdend sein kann und häufig medial befeuert wird. Studienautor Christoph Fuchs dazu: „Wenn Menschen das Gefühl haben, von Künstlicher Intelligenz verdrängt zu werden, äußern sie Zweifel am politischen System – diese Leute sind weniger zufrieden mit Demokratie und ihren Institutionen.“

KI wird Demokratie nicht kollabieren lassen, aber sie ausfransen

Die gute Nachricht zuerst: KI wird wahrscheinlich keinen plötzlichen Demokratie-Kollaps herbeiführen. Doch sie wird weiterhin genutzt und missbraucht werden sowie sich in ihrer technischen Funktionsweise selbst ad absurdum führen und dadurch freiheitliche Gesellschaftsstrukturen gefährden und ausfransen.

Öffentliche Debatten könnten zu einer Kulisse werden, in der echte Stimmen gegen ein Heer synthetischer und manipulierter Inhalte antreten – und verlieren könnten oder kompromissbereit sein müssten. Problem: KI-generierte Inhalte würden dann dazu führen, dass Konsens kein Ergebnis mehr wäre, sondern ein gelenktes Fake-Produkt.

Gleichzeitig beginnt bereits ein neuer Wettstreit. Auf der einen Seite: KI-gestützte Manipulation. Auf der anderen: Aufklärung, die mitunter selbst auf KI basiert. Denn um die Wahrheit nicht immer weiter zu verzerren und Demokratien zu zerstören, braucht es Prüfalgorithmen, Herkunftsnachweise, digitale Wasserzeichen.

Heißt: Der Kampf zwischen Täuschung und Aufklärung könnte zu einem Dauerzustand werden – zumal Schlupflöcher nie auszuschließen sind. Grundsätzliches Hinterfragen ist im KI-Zeitalter deshalb einerseits angebracht. Doch andererseits droht aller Aufklärung zum Trotz eine Gesellschaft im Dauerzweifel.

Das Bitterste daran ist, dass eine Technologie, die Wissen demokratisieren sollte, Vertrauen zu einer der knappsten Ressourcen machen könnte. Mittlerweile hoffe ich deshalb eigentlich nur noch, dass die sogenannte KI-Blase endlich platzt.

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 12.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Auch interessant:

STELLENANZEIGEN
Openstack Engineer (m/f/d)
CompuGroup Medical SE & Co. KGaA in Koblenz
Mitarbeiter Marketing (m/w/d) mit Schwerpunk...
Bayerisches Pilgerbüro gGmbH in München
Social Media & Digital Assistant (m/w/d) ...
Petra GmbH in Frankfurt am Main
Trainee (m/w/d) Video Content Creation & ...
Eura Mobil GmbH in Sprendlingen
Praktikant Marktforschung – Consumer In...
FERRERO MSC GmbH & Co. KG in Frankfurt am Main
Marketing und Social Media Manager m/w/d
MDH AG - Mamisch Dental Health in Mülheim an der Ruhr
Praktikant – Social Media Management (m...
Allianz Versicherungs-AG in Unterföhring (bei München)
Head of Online Marketing (m/w/d) Stellvertret...
motoin GmbH in Aachen
Teile diesen Artikel
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).
Keine Kommentare