Technologie

Künstliche Intelligenz: So kannst du KI-Texte erkennen

KI Texte erkennen, Chat GPT, Künstliche Intelligenz
Adobe Stock/ irissca
geschrieben von Fabian Peters

Das Thema Künstliche Intelligenz ist in aller Munde. Das gilt spätestens seit dem Release des Sprachmodells ChatGPT. Denn die Künstliche Intelligenz generiert verblüffend authentische Antworten und Formulierungen. Doch das birgt auch Gefahren. Aber wie lassen sich KI-Texte erkennen?

„Dieser Satz könnte von einer KI stammen.“ Spätestens seit dem das Sprachmodell ChatGPT für Furore sorgt, lassen sich KI-generierte Texte kaum noch von menschlichen unterscheiden. Aber wie lässt sich herausfinden, ob ein Text von einem Menschen oder einer Maschine stammt?

Chat GPT: Wie lassen sich KI-Texte erkennen?

Das haben wir kurzerhand den Sprachbot ChatGPT selbst gefragt. Der Antwort zufolge gibt es derweil drei grundlegende Möglichkeiten, um KI-Texte zu erkennen:

Es gibt mehrere Möglichkeiten, um KI-Texte zu erkennen. Eine Möglichkeit ist die Verwendung von Metriken wie der Perplexität, die die Überraschung eines Modells bei der Vorhersage des nächsten Wortes in einem Text misst. Ein niedriger Wert deutet darauf hin, dass das Modell den Text gut generieren kann. Eine andere Möglichkeit ist die Verwendung von Prüfverfahren wie dem Turing-Test, bei dem ein menschlicher Prüfer versucht zu bestimmen, ob ein Text von einem Menschen oder einer KI generiert wurde. Eine weitere Methode ist die Verwendung von Machine Learning-Modellen, die trainiert werden, um KI-Texte von menschlich erstellten Texten zu unterscheiden.

Die Möglichkeit, anhand der Vorhersage der Wahrscheinlichkeit eines nächsten Wortes einen KI-Text als solchen zu identifizieren: Das klingt zunächst einmal plausibel. Allerdings wurde ChatGPT genau so programmiert, einen Menschen bestmöglich zu imitieren.

Turing-Test und Software: So kannst du KI-TExt erkennen

Möglichkeit zwei und drei wirken daher etwas effektiver. Doch wer mal eben auf die Schnelle herausfinden will, ob ein Text von einer KI oder von einem Menschen stammt, will nicht jedes Mal einen Turing-Test durchführen. Dabei geht es übrigens darum, dass ein menschlicher Prüfer anhand eines Gesprächs mit einer (vermeintlichen) KI, versucht herausfinden, ob sie ein Computerprogramm oder ein Mensch ist.

Allerdings wird auch genau das immer komplizierte. Es bleibt Möglichkeit drei: die Verwendung von Machine-Learning-Modellen. Das sind Algorithmen, die bestimmte Arten von Mustern erkennen können. Doch wie zuverlässig und effektiv sind solche Plattformen?

Google-Algorithmen erkannten Künstliche Intelligenz nicht

Die Gefahren Künstlicher Intelligenz sind vielschichtig. New York hat beispielsweise den Einsatz von ChatGPT an öffentlichen Schulen verboten, da man negative Auswirkungen auf das Lernen befürchtet. Das Online-Magazin CNET ließ seine Finanzartikel derweil von der KI schreiben und erzielte damit gute Google-Ergebnisse.

Dabei hatte der US-Konzern eigentlich versprochen, KI-Inhalte in seiner Suche zu bestrafen. CNET hat seinen KI-Content zwar im Nachhinein überarbeitet, allerdings versuchte das Magazin den Ursprung der Texte offenbar geheim zu halten, denn eine Ankündigung gab es nicht.

Die Google-Algoritmen waren jedoch offenbar nicht in der Lage, die KI-Texte als solche zu erkennen. Beide Beispiele offenbaren dabei, wie sich mithilfe von Künstlichen Intelligenz Vorteile erschleichen lassen. Doch wenn selbst die Algorithmen von Milliardenunternehmen Google eine KI nicht identifizieren können, warum sollten es andere tun?

KI gegen KI: Ein Katz-und-Maus-Spiel

Das Model Giant Language Model Test Room (GLTR), das von Forschern der Universität Harvard sowie Technologie-Konzern IBM entwickelt wurde, weckt zumindest Hoffnung. Die Software basiert auf CHATGPT-Trainingsdaten, um die Wahrscheinlichkeit zu ermitteln, ob ein Text von der KI stammt.

Allerdings schränken selbst die Entwickler ein, dass GLTR KI-Texte vorwiegend in Verdachtsfällen erkennen kann. Das Programm hat beispielsweise die ChatGPT-Antwort auf unserer Frage, welche Möglichkeiten es gibt, um KI-Texte zu erkennen, als Top-Content eingestuft und damit nicht erkannt.

Das Tool GPTZero, das auch auf einer KI basiert, verspricht derweil ebenso Abhilfe. Der Princteon-Student Edward Tian hat die entsprechende App derweil Anfang 2023 als Reaktion auf ChatGPT veröffentlicht. Allerdings hat auch das Analyse-Tool Schwachstellen.

Künstliche Intelligenz: Welche Gefahren birgt KI?

Einige längere ChatGPT-Texte erkannte GPTZero während unserer Tests zwar. Mit kürzeren Passagen schien das Programm aber Probleme zu haben. Doch auch wenn das Katz-Maus-Spiel KI gegen KI die größten Chancen birgt: Wer wirklich verhindern will, dass andere KI-Tools Texte erkennen, kann seine Sprachmodelle wiederum entsprechend anpassen.

Selbst OpenAI, das Unternehmen hinter ChatGPT, räumte in einer Mitteilung ein, dass die Entwicklung auf ein solches Katz-und-Maus-Spiel hinauslaufen könne. Auf die Frage hin, welche weiteren Gefahren Künstliche Intelligenz birgt, antwortet ChatGPT wiederum: „KI kann eine Vielzahl von Gefahren birgen (Anm. d. Red.: grammatikalisch falsch), darunter:

  1. „Fehlerhafte Entscheidungen: KI-Systeme basieren auf Algorithmen und Daten, die Fehler enthalten können, was zu ungenauen oder sogar falschen Entscheidungen führen kann.“
  2. „Diskriminierung: KI-Systeme können diskriminierend sein, wenn sie auf unvollständigen oder ungenauen Daten trainiert werden, was zu ungerechten Entscheidungen führen kann.“
  3. „Verlust von Arbeitsplätzen: KI kann Automatisierungsprozesse beschleunigen und somit zum Verlust von Arbeitsplätzen führen.“
  4. „Kriegsführung und Angriffe: KI-Systeme können in Waffensystemen eingesetzt werden, was den Einsatz von Waffengewalt erleichtern und die Kriegsführung verändern kann.“
  5. „Datenschutz und Datensicherheit: KI-Systeme erfordern große Mengen an Daten, die möglicherweise sensibel und persönlich sind, was zu Datenschutzproblemen führen kann.“
  6. „Ethische und moralische Fragen: KI kann ethische und moralische Fragen aufwerfen, insbesondere in Bezug auf die Verantwortung für Entscheidungen und Handlungen, die von KI-Systemen getroffen werden.“

Auch interessant: 

Über den Autor

Fabian Peters

Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).