Mittlerweile gibt es gefühlt für jedes Problem auf der Welt eine KI – auch in der Psychotherapie. Via Social Media berichten etwa immer mehr Menschen, dass sie ChatGPT und Co. für eine vermeintliche Therapie nutzen – um Ängste zu verarbeiten oder Depressionen zu bekämpfen. Doch was wie ein niederschwelliger Zugang erscheinen mag, offenbart sich als gefährlicher Trugschluss. Ein Kommentar.
ChatGPT hat der Welt einen Stempel aufgedrückt. Der Chatbot hat nicht nur das Thema KI salonfähig gemacht, sondern eine neue digitale Ära eingeleitet. Denn: Das Sprachmodell legt zweifellos beeindruckende Funktionsfähigkeiten an den Tag.
Die KI wirkt offenbar sogar so „klug“, als dass manch einer glaubt, sich in Therapie begeben zu müssen – und zwar bei ChatGPT. Zugegeben: Studien haben bereits gezeigt, dass KI-Tools wie ChatGPT eine Therapie sinnvoll ergänzen und sogar verbessern können. Einen Menschen oder gar Psychologen kann Künstliche Intelligenz aber nicht ersetzen.
Therapie mit ChatGPT: Selbst Dr. Google hat Bedenken
Das sieht auch Dr. Google, der schlechteste Arzt der Welt, so – und liegt damit ausnahmsweise richtig. Denn KI basiert auf Algorithmen und damit auf vorab definierten Handlungsmustern. ChatGPT und Co. können deshalb keine echten Emotionen erkennen, keine echtes Mitgefühl zeigen und vor allem keine echten Menschen ersetzen – von mangelnder Empathie ganz zu schweigen.
Hinzu kommen technische Fallhöhen. KI neigt etwa gelegentlich zu sogenannten Halluzinationen. Heißt salopp gesagt: Sie erzählt Quatsch – und könnte daher theoretisch mitunter selbst einen Therapeuten gebrauchen.
Bei Rezeptvorschlägen mag das noch harmlos sein, doch plausible wirkende Informationen, die dennoch falsch sind, können in psychologischen Krisen fatale Folgen haben. Fast noch erschreckender hingegen ist, mit welcher Leichtigkeit Nutzer via Social Media ihre Selbsttherapie mit ChatGPT dokumentieren.
Einer der Hauptgründe: Selbstbeweihräucherung und virale Inszenierung. Getreu dem Motto Boulevardzeitung – und damit ohne Rücksicht auf Verluste. Denn: Influencer sind die BILD im Social Media-Universum. Sie gieren nach Aufmerksamkeit und Klicks – der Wahrheit und Realität zum Trotz.
Hinzu kommt, dass sogenannte Therapien mittels ChatGPT die Preisgabe persönlicher Informationen und Gesundheitsdaten mit sich ziehen. OpenAI nutzt solche Nutzereingaben für das Training seiner KI-Modelle – zumindest sofern man nicht proaktiv widerspricht.
KI als Psychologe: Das eigentliche Problem
Der niederschwellige Zugang und die vermeintliche Intelligenz von KI können viele Menschen dazu verleiten, auf eine echte Therapie zu verzichten – ob aus Scham, Angst oder schlichtweg aufgrund fehlender Therapieplätze und langer Wartezeiten.
Und genau das offenbart das eigentliche Problem; nämlich dass eine ChatGPT-Therapie nicht nur ein Selbsthilfe-Trend ist, sondern ein Symptom. Die Suche nach Alternativen ist zwar verständlich, doch wenn das bessere Nichts zur Normalität wird, kann es durchaus gefährlich werden.
Hinweis: Bei diesem Artikel handelt es sich um einen Kommentar. Das ist eine journalistische Darstellungsform, die explizit die Meinung des Autors und nicht des gesamten Magazins widerspiegelt. Der Kommentar erhebt keinen Anspruch auf Sachlichkeit, sondern soll die Meinungsbildung anregen und ist als Meinungsbeitrag durch Artikel 5 des Grundgesetzes geschützt.
Auch interessant: