Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
ChatGPT Therapie Therapeut KI Künstliche Intelligenz
BREAK/THE NEWSTECH

ChatGPT als Therapeut: KI kennt keine Schweigepflicht

Fabian Peters
Aktualisiert: 30. Juli 2025
von Fabian Peters
Bild: Mit ChatGPT generiert (KI).
Teilen

Immer mehr Menschen nutzen ChatGPT für eine Selbsttherapie – etwa um Ängste und Depressionen zu verarbeiten oder zu bekämpfen. Sam Altman hat nun davor gewarnt, dass OpenAI die Sicherheit von sensiblen Daten wie persönlichen Gesundheitsinformationen nicht garantieren kann. Gleichzeitig fordert er eine Art Schweigepflicht für ChatGPT – wie bei Therapeuten, Anwälten oder Ärzten. In unserem Format „Break The News“ haben wir die Hintergründe entschlüsselt.

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Hintergrund: ChatGPT als Therapeut

  • Via Social Media berichten immer mehr Menschen, dass sie ChatGPT für eine Selbsttherapie nutzen. Auf mögliche Datenschutzrisiken gehen nur die wenigsten ein. Ein weiteres Problem stellen schlechte Ratschläge, falsche Informationen oder erfundene Inhalte durch KI-Verzerrungen oder -Halluzinationen dar. Kurzum: Momente, in denen ChatGPT gewissermaßen selbst einen Therapeuten gebrauchen könnte. Eine Schweigepflicht? Ist allein deshalb schon fragwürdig.
  • Studien haben bereits bewiesen, dass KI-Tools wie ChatGPT eine Therapie sinnvoll ergänzen und sogar verbessern können. Einen Menschen oder gar Psychologen kann Künstliche Intelligenz aber nicht ersetzen. Heißt: Ein echter Therapeut sollte entscheiden, ob und inwieweit ChatGPT eine Ergänzung sein kann oder nicht.
  • Den Datenschutzrichtlinien von OpenAI zufolge werden Chats bei ChatGPT innerhalb von 30 Tagen dauerhaft gelöscht. Allerdings nur, wenn man sie zuvor selbst gelöscht hat. Offiziell einzige Einschränkung: Wenn das Unternehmen aus „rechtlichen oder sicherheitsrelevanten Gründen“ dazu verpflichtet ist, Chats länger aufzubewahren.

Einordnung: Dr. Google lässt grüßen

Dr. Google sollte eigentlich ein warnendes Beispiel sein. Denn genauso wenig wie das Internet kann ChatGPT eine echte Therapie ersetzen. Vor allem nicht, weil solche Chatbots auf ebenjene Informationen zugreifen, die auch bei Google zu finden sind – sie verpacken sie nur anders.

Hinzu kommen die technischen Fallhöhen wie Verzerrungen und Halluzinationen. Der niederschwellige Zugang und die vermeintliche Intelligenz von KI können viele Menschen aber dazu verleiten, auf eine echte Therapie zu verzichten – ob aus Scham, Angst oder schlichtweg aufgrund fehlender Therapieplätze und langer Wartezeiten.

Doch genau das offenbart das eigentliche Problem. Denn die ChatGPT-Therapie ist nicht nur ein Selbsthilfe-Trend, sondern ein Symptom. Die Suche nach Therapie-Alternativen ist verständlich, doch das geringere Übel ist nicht automatisch das bessere – auch davor sollte Altman warnen.

Stimmen

  • OpenAI-Chef Sam Altman warnte in einem Podcast vor Gesprächen mit ChatGPT zu sensiblen Themen wie der eigenen Gesundheit: „Kommt es zu einer Klage oder Ähnlichem, könnten wir gezwungen sein, diese Gespräche herauszugeben. Es gibt dafür ein rechtliches Privileg – ärztliche Schweigepflicht oder anwaltliche Verschwiegenheit. Dasselbe Konzept sollte es für Gespräche mit KI geben.“ Was Altman verschweigt: OpenAI selbst kann Nutzereingaben in ChatGPT einsehen und für das KI-Training verwenden, sofern Nutzer nicht aktiv widersprechen.
  • Tanja Schneeberger, Psychologin am Deutschen Forschungszentrum für Künstliche Intelligenz, blickt nicht nur durch die Daten-Brille: „Die Antworten, die ChatGPT gibt, entsprechen nicht immer dem, was Experten in einer Therapiesituation sagen würden. Zum Beispiel bestärkt ChatGPT meistens die eigene Meinung.” Einer KI, die speziell für therapeutische Zwecke entwickelt wurde, räumt sie als Unterstützung aber gute Chancen ein: „Für einen Chatbot, den man spezifisch zu Therapiezwecken baut, nutzt man natürlich nur hochwertige, kuratierte Daten, wo Expertinnen und Experten Inputs gegeben haben.”
  • Wir möchten mit Blick auf die Therapie mit ChatGPT vor allem vor KI-Halluzinationen warnen, denn: „Bei Vorschlägen zu Kochrezepten mag das noch harmlos sein, doch plausibel wirkende Informationen, die dennoch falsch sind, können in psychologischen Krisen fatale Folgen haben. Fast noch erschreckender hingegen ist, mit welcher Leichtigkeit Nutzer via Social Media ihre Selbsttherapie mit ChatGPT dokumentieren.“

Ausblick: ChatGPT kann einen echten Therapeuten nicht ersetzen

KI-Modelle wie ChatGPT können das Gesundheitssystem entlasten und ergänzen – etwa durch niedrigschwellige Angebote oder strukturierte Informationen. Doch sie sollten nie den Eindruck erwecken, eine echte therapeutische Beziehung ersetzen zu können.

Denn vor allem in der Psychotherapie sind menschliche Nähe, echtes Zuhören und individuelle Einschätzung durch Fachpersonal unersetzlich.

Was man sich deshalb stets vor Augen führen sollte ist, dass KI auf Algorithmen und damit auf vorab definierten Handlungsmustern basiert. ChatGPT und Co. können deshalb keine echten Emotionen erkennen, kein echtes Mitgefühl zeigen und vor allem keine echten Menschen ersetzen.

Das sieht selbst ChatGPT so: “Ich kann Gespräche führen, zuhören, Fragen stellen, dich zur Reflexion anregen – und das kann manchmal helfen. Aber ich bin kein Mensch, keine Psychologin, keine Ärztin. Ich habe kein Bewusstsein, kein Mitgefühl im eigentlichen Sinn, und keine Möglichkeit, deinen Zustand professionell einzuschätzen.”

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Auch interessant:

  • Neue Gaskraftwerke: Mit Vollgas in die fossile Vergangenheit
  • Neues Format, exklusive Inhalte: UPDATE-Newsletter wird eigenständiges Produkt
  • Aus der Traum: Der große Wasserstoff-Irrtum der Autoindustrie
  • Irrer KI-Plan: Trump will Künstliche Intelligenz umbenennen
Bondora

Anzeige

STELLENANZEIGEN
Werkstudent m/w/d Content Creator – Soc...
Smyths Toys Deutschland SE & Co. KG in Köln
Social Media Manager*in im Personalmarketing
Union Investment in Frankfurt am Main
Technical Trainer (m/w/d) für Kunden- & W...
MEYLE AG in Hamburg
Senior Digital Marketing Manager (m/w/d)
ICB innovative cosmetic brands GmbH in Karlsfeld
Social Media / Digital Content Manager (m/w/d)
valyours GmbH in Hamburg
E-Commerce Marketing Manager (m/w/d) 100% Rem...
Marielove Inh. Patrick Wernitz in bundesweit, Home-O...
Marketing-Manager (m/w/d) Schwerpunkt Content...
SBK Siemens-Betriebskrankenkasse in München
Referent (m/w/d) Digital Analyst (Voll- oder ...
ROLAND Rechtsschutz-Versicherungs-AG in Köln
THEMEN:GesundheitKünstliche Intelligenz
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonFabian Peters
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).
NIBC

Anzeige

EMPFEHLUNG
Nass-Trockensauger
Nur für kurze Zeit: Starken AEG 2-in-1-Nass-Trockensauger für nur 389 Euro sichern
Anzeige TECH
Strom-Wechselservice Wechselpilot-2
Strom-Wechselservice: Was bringt dir der Service wirklich?
Anzeige MONEY
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

WELOCK
AnzeigeTECH

WELOCK Smart Lock Zylinder: Moderne Sicherheit für Haustür, Wohnung und Büro

KI Demokratie, Kolumne, Politik, Künstliche Intelligenz, Antizipatorische Demokratie, Gesellschaft, Gesellschaftssystem
MONEYTECH

Wegen KI: Warum wir Demokratie neu denken müssen

Grokipedia Wikipedia-Alternative Elon Musk Grok KI Enzeklopädie
BREAK/THE NEWSTECH

Grokipedia: Die Ein-Mann-Meinungsmaschine von Elon Musk

CRM für Immobilienmakler
AnzeigeTECH

CRM für Immobilienmakler: Moderne Lösungen für Objektverwaltung und Kundenbetreuung

Vertikales Windrad Stadt Dächer KI Haus
GREENTECH

Vertikales Windrad mit KI – für Häuser in der Stadt

PlanetVPN Telemedizin
AnzeigeTECH

Telemedizin unterwegs: Gesundheitsdaten im öffentlichen WLAN mit VPN schützen

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

Bis 23.11. Hausrat versichern &
10 Prozent Rabatt sichern!

GVV Direkt Logo

Anzeige

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?