Immer mehr Menschen nutzen ChatGPT für eine Selbsttherapie – etwa um Ängste und Depressionen zu verarbeiten oder zu bekämpfen. Sam Altman hat nun davor gewarnt, dass OpenAI die Sicherheit von sensiblen Daten wie persönlichen Gesundheitsinformationen nicht garantieren kann. Gleichzeitig fordert er eine Art Schweigepflicht für ChatGPT – wie bei Therapeuten, Anwälten oder Ärzten. In unserem Format „Break The News“ haben wir die Hintergründe entschlüsselt.
Hintergrund: ChatGPT als Therapeut
- Via Social Media berichten immer mehr Menschen, dass sie ChatGPT für eine Selbsttherapie nutzen. Auf mögliche Datenschutzrisiken gehen nur die wenigsten ein. Ein weiteres Problem stellen schlechte Ratschläge, falsche Informationen oder erfundene Inhalte durch KI-Verzerrungen oder -Halluzinationen dar. Kurzum: Momente, in denen ChatGPT gewissermaßen selbst einen Therapeuten gebrauchen könnte. Eine Schweigepflicht? Ist allein deshalb schon fragwürdig.
- Studien haben bereits bewiesen, dass KI-Tools wie ChatGPT eine Therapie sinnvoll ergänzen und sogar verbessern können. Einen Menschen oder gar Psychologen kann Künstliche Intelligenz aber nicht ersetzen. Heißt: Ein echter Therapeut sollte entscheiden, ob und inwieweit ChatGPT eine Ergänzung sein kann oder nicht.
- Den Datenschutzrichtlinien von OpenAI zufolge werden Chats bei ChatGPT innerhalb von 30 Tagen dauerhaft gelöscht. Allerdings nur, wenn man sie zuvor selbst gelöscht hat. Offiziell einzige Einschränkung: Wenn das Unternehmen aus „rechtlichen oder sicherheitsrelevanten Gründen“ dazu verpflichtet ist, Chats länger aufzubewahren.
Einordnung: Dr. Google lässt grüßen
Dr. Google sollte eigentlich ein warnendes Beispiel sein. Denn genauso wenig wie das Internet kann ChatGPT eine echte Therapie ersetzen. Vor allem nicht, weil solche Chatbots auf ebenjene Informationen zugreifen, die auch bei Google zu finden sind – sie verpacken sie nur anders.
Hinzu kommen die technischen Fallhöhen wie Verzerrungen und Halluzinationen. Der niederschwellige Zugang und die vermeintliche Intelligenz von KI können viele Menschen aber dazu verleiten, auf eine echte Therapie zu verzichten – ob aus Scham, Angst oder schlichtweg aufgrund fehlender Therapieplätze und langer Wartezeiten.
Doch genau das offenbart das eigentliche Problem. Denn die ChatGPT-Therapie ist nicht nur ein Selbsthilfe-Trend, sondern ein Symptom. Die Suche nach Therapie-Alternativen ist verständlich, doch das geringere Übel ist nicht automatisch das bessere – auch davor sollte Altman warnen.
Stimmen
- OpenAI-Chef Sam Altman warnte in einem Podcast vor Gesprächen mit ChatGPT zu sensiblen Themen wie der eigenen Gesundheit: „Kommt es zu einer Klage oder Ähnlichem, könnten wir gezwungen sein, diese Gespräche herauszugeben. Es gibt dafür ein rechtliches Privileg – ärztliche Schweigepflicht oder anwaltliche Verschwiegenheit. Dasselbe Konzept sollte es für Gespräche mit KI geben.“ Was Altman verschweigt: OpenAI selbst kann Nutzereingaben in ChatGPT einsehen und für das KI-Training verwenden, sofern Nutzer nicht aktiv widersprechen.
- Tatjana Schneeberger, Psychologin am Deutschen Forschungszentrum für Künstliche Intelligenz, blickt nicht nur durch die Daten-Brille: „Die Antworten, die ChatGPT gibt, entsprechen nicht immer dem, was Experten in einer Therapiesituation sagen würden. Zum Beispiel bestärkt ChatGPT meistens die eigene Meinung.” Einer KI, die speziell für therapeutische Zwecke entwickelt wurde, räumt sie als Unterstützung aber gute Chancen ein: „Für einen Chatbot, den man spezifisch zu Therapiezwecken baut, nutzt man natürlich nur hochwertige, kuratierte Daten, wo Expertinnen und Experten Inputs gegeben haben.”
- Wir möchten mit Blick auf die Therapie mit ChatGPT vor allem vor KI-Halluzinationen warnen, denn: „Bei Vorschlägen zu Kochrezepten mag das noch harmlos sein, doch plausibel wirkende Informationen, die dennoch falsch sind, können in psychologischen Krisen fatale Folgen haben. Fast noch erschreckender hingegen ist, mit welcher Leichtigkeit Nutzer via Social Media ihre Selbsttherapie mit ChatGPT dokumentieren.“
Ausblick: ChatGPT kann einen echten Therapeuten nicht ersetzen
KI-Modelle wie ChatGPT können das Gesundheitssystem entlasten und ergänzen – etwa durch niedrigschwellige Angebote oder strukturierte Informationen. Doch sie sollten nie den Eindruck erwecken, eine echte therapeutische Beziehung ersetzen zu können.
Denn vor allem in der Psychotherapie sind menschliche Nähe, echtes Zuhören und individuelle Einschätzung durch Fachpersonal unersetzlich.
Was man sich deshalb stets vor Augen führen sollte ist, dass KI auf Algorithmen und damit auf vorab definierten Handlungsmustern basiert. ChatGPT und Co. können deshalb keine echten Emotionen erkennen, kein echtes Mitgefühl zeigen und vor allem keine echten Menschen ersetzen.
Das sieht selbst ChatGPT so: “Ich kann Gespräche führen, zuhören, Fragen stellen, dich zur Reflexion anregen – und das kann manchmal helfen. Aber ich bin kein Mensch, keine Psychologin, keine Ärztin. Ich habe kein Bewusstsein, kein Mitgefühl im eigentlichen Sinn, und keine Möglichkeit, deinen Zustand professionell einzuschätzen.”
Auch interessant: