Laut einer Recherche des Guardian zitiert und paraphrasiert ChatGPT die umstrittene KI-Enzyklopädie Grokipedia von Elon Musk. Die vermeintliche Wikipedia-Alternative wurde bereits mehrfach überführt, falsche und manipulative Inhalte zu sensiblen Themen wie dem Holocaust, politischen Konflikten oder Homosexualität verbreitet zu haben. Eine kommentierende Analyse
ChatGPT zitiert Grokipedia
- Elon Musk behauptet seit geraumer Zeit, dass Wikipedia nicht objektiv sei und einer politischen linken Ausrichtung folge. Mit Grokipedia will er deshalb eine Alternative etablieren. Die Realität: Es gibt sowohl Studien, die linkspolitische als auch rechtspolitische Inhalte auf Wikipedia nachgewiesen haben. Beides ist dem freien Prinzip der Enzyklopädie geschuldet, das vorsieht, dass die Community Inhalte selbst erstellen, aber auch überwachen kann.
- Grokipedia folgt keinem freien Prinzip. Die Musk-Enzyklopädie steht in der Kritik, rechtspopulistische Narrative unkritisch als Fakten darzustellen. Im Gegensatz zu Wikipedia gibt es bei Grokipedia keine Menschen, die Inhalte erstellen oder kontrollieren können. Alle Beiträge stammen von einer KI, also einem vorprogrammierten Algorithmus – und der ist ziemlich einseitig.
- Tests des Guardian haben ergeben, dass ChatGPT seit Kurzem vermehrt Grokipedia als Quelle zitiert. Darunter: Zu Fragen zu den politischen Strukturen im Iran, gleichgeschlechtlichen Ehen sowie Holocaustleugnern. ChatGPT habe auf über ein Dutzend solcher Fragen neun Mal Grokipedia herangezogen. Das Problem: Es wurde bereits mehrfach nachgewiesen, dass die Plattform meinungsstarke, irreführende oder längst widerlegte Inhalte wiedergibt.
ChatGPT ist keine verlässliche Informationsquelle
Die Recherche des Guardian ist ein weiteres Paradebeispiel dafür, dass ChatGPT keine verlässliche Informationsquelle ist. Was die „Qualität“ der Information betrifft, verhält sich das Zitieren von Grokipedia in etwa so, als würde man vom schlechtesten Schüler in der Klasse abschreiben, der seinen Mitschülern nach dem Gong das Pausengeld klaut.
Das Problem geht jedoch über Grokipedia hinaus. Denn auch andere KI-Chatbots sind dem nicht gefeit. Grund ist die Funktionsweise von Algorithmen, die anhand von Mustern und Wahrscheinlichkeiten entscheiden. Heißt konkret: ChatGPT und Co. lassen sich sogar „überlisten“ und gezielt mit Falschinformationen unterwandern, indem das Falsche schlichtweg häufig genug nachgeplappert wird.
Trauriges Beispiel: Laut Guardian verbreiten viele Chatbots bereits russische Desinformation. Darunter die Behauptung, dass die USA biologische Waffen in der Ukraine entwickeln würden. Ganz anderes Thema, aber ein gutes Beispiel dafür, warum Stimmungsmache Fakten häufig überwiegt:
Ein Redakteur eines rechtspopulistischen, deutschen Nachrichtenmagazins schrieb kürzlich in einem Beitrag auf X (ehemals Twitter): „Sechs Tage #Stromausfall heißt auch sechs Tage ohne E-Mobilität. Falsche Pferde stehen still.“ Dass auch Zapfsäulen für Verbrenner nicht ohne Strom funktionieren? Geschenkt!
Ob gewollt oder nicht: Das Problem ist, dass immer mehr Menschen das kritische Denken einstellen. KI trägt bereits einen negativen Teil dazu bei – vor allem auch, weil einmal verbreiteter Schwachsinn bei vielen kleben bleibt. Etwaige Korrekturen laufen im Nachhinein unter dem Lauffeuer-Radar.
Stimmen
- Ein OpenAI-Sprecher erklärte dem Guardian, dass die Websuche des Modells „darauf abzielt, aus einer Vielzahl öffentlich zugänglicher Quellen und Standpunkte zu schöpfen“. Er ergänzte: „Wir wenden Sicherheitsfilter an, um das Risiko zu verringern, dass Links mit hohem Schadenspotenzial angezeigt werden. ChatGPT zeigt durch Zitierungen deutlich, aus welchen Quellen eine Antwort stammt“.
- Desinformationsforscherin Nina Jankowicz räumte zwar ein, dass es vermutlich nicht die Absicht von Elon Musk war, ChatGPT zu beeinflussen. Doch: Die von ihr und ihren Kollegen überprüften Grokipedia-Einträge „im besten Fall auf unzuverlässigen Quellen, im schlimmsten Fall auf schlecht recherchierten und absichtlichen Falschinformationen“ basieren. „Die meisten Menschen werden nicht die nötige Arbeit auf sich nehmen, um herauszufinden, wo die Wahrheit tatsächlich liegt“.
- Der Guardian hat auch Grokipedia-Konzern xAI um eine Stellungnahme zu den nachweislichen Falschinformationen der KI-Enzyklopädie gebeten, um dem Unternehmen die Möglichkeit zu geben, sich zu den Vorwürfen zu äußern. Die ebenso abgedroschene wie selbstentlarvende Antwort: „Traditionelle Medien lügen.“
KI-Modelle können beeinflusst werden
Experten sehen die Entwicklung kritisch. Viele warnen bereits seit geraumer Zeit vor sogenanntem LLM Grooming, bei dem gezielt große Mengen irreführender Inhalte ins Netz gestellt werden, um KI-Modelle zu beeinflussen.
Besonders problematisch ist, dass Quellen wie Grokipedia dadurch zusätzlich an Glaubwürdigkeit gewinnen können. Einmal eingespeiste Falschinformationen sind außerdem kaum mehr aufzuhalten.
Heißt konkret: Wer ChatGPT & Co. blind vertraut, surft auf einer Welle von Halbwahrheiten, die nachträgliche Korrekturen untergehen lässt.
Sowohl Entwickler, Medien als auch die Politik stehen deshalb in der Verantwortung. Nicht nur, um zu regulieren, sondern Medienkompetenz zu fördern. Andernfalls wird sogenannte Künstliche Intelligenz mehr und mehr für reale Dummheit sorgen.
Auch interessant:




