Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
ChatGPT Therapie Therapeut KI Künstliche Intelligenz
BREAK/THE NEWSTECH

ChatGPT als Therapeut: KI kennt keine Schweigepflicht

Fabian Peters
Aktualisiert: 30. Juli 2025
von Fabian Peters
Bild: Mit ChatGPT generiert (KI).
Teilen

Immer mehr Menschen nutzen ChatGPT für eine Selbsttherapie – etwa um Ängste und Depressionen zu verarbeiten oder zu bekämpfen. Sam Altman hat nun davor gewarnt, dass OpenAI die Sicherheit von sensiblen Daten wie persönlichen Gesundheitsinformationen nicht garantieren kann. Gleichzeitig fordert er eine Art Schweigepflicht für ChatGPT – wie bei Therapeuten, Anwälten oder Ärzten. In unserem Format „Break The News“ haben wir die Hintergründe entschlüsselt.

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Hintergrund: ChatGPT als Therapeut

  • Via Social Media berichten immer mehr Menschen, dass sie ChatGPT für eine Selbsttherapie nutzen. Auf mögliche Datenschutzrisiken gehen nur die wenigsten ein. Ein weiteres Problem stellen schlechte Ratschläge, falsche Informationen oder erfundene Inhalte durch KI-Verzerrungen oder -Halluzinationen dar. Kurzum: Momente, in denen ChatGPT gewissermaßen selbst einen Therapeuten gebrauchen könnte. Eine Schweigepflicht? Ist allein deshalb schon fragwürdig.
  • Studien haben bereits bewiesen, dass KI-Tools wie ChatGPT eine Therapie sinnvoll ergänzen und sogar verbessern können. Einen Menschen oder gar Psychologen kann Künstliche Intelligenz aber nicht ersetzen. Heißt: Ein echter Therapeut sollte entscheiden, ob und inwieweit ChatGPT eine Ergänzung sein kann oder nicht.
  • Den Datenschutzrichtlinien von OpenAI zufolge werden Chats bei ChatGPT innerhalb von 30 Tagen dauerhaft gelöscht. Allerdings nur, wenn man sie zuvor selbst gelöscht hat. Offiziell einzige Einschränkung: Wenn das Unternehmen aus „rechtlichen oder sicherheitsrelevanten Gründen“ dazu verpflichtet ist, Chats länger aufzubewahren.

Einordnung: Dr. Google lässt grüßen

Dr. Google sollte eigentlich ein warnendes Beispiel sein. Denn genauso wenig wie das Internet kann ChatGPT eine echte Therapie ersetzen. Vor allem nicht, weil solche Chatbots auf ebenjene Informationen zugreifen, die auch bei Google zu finden sind – sie verpacken sie nur anders.

Hinzu kommen die technischen Fallhöhen wie Verzerrungen und Halluzinationen. Der niederschwellige Zugang und die vermeintliche Intelligenz von KI können viele Menschen aber dazu verleiten, auf eine echte Therapie zu verzichten – ob aus Scham, Angst oder schlichtweg aufgrund fehlender Therapieplätze und langer Wartezeiten.

Doch genau das offenbart das eigentliche Problem. Denn die ChatGPT-Therapie ist nicht nur ein Selbsthilfe-Trend, sondern ein Symptom. Die Suche nach Therapie-Alternativen ist verständlich, doch das geringere Übel ist nicht automatisch das bessere – auch davor sollte Altman warnen.

Stimmen

  • OpenAI-Chef Sam Altman warnte in einem Podcast vor Gesprächen mit ChatGPT zu sensiblen Themen wie der eigenen Gesundheit: „Kommt es zu einer Klage oder Ähnlichem, könnten wir gezwungen sein, diese Gespräche herauszugeben. Es gibt dafür ein rechtliches Privileg – ärztliche Schweigepflicht oder anwaltliche Verschwiegenheit. Dasselbe Konzept sollte es für Gespräche mit KI geben.“ Was Altman verschweigt: OpenAI selbst kann Nutzereingaben in ChatGPT einsehen und für das KI-Training verwenden, sofern Nutzer nicht aktiv widersprechen.
  • Tanja Schneeberger, Psychologin am Deutschen Forschungszentrum für Künstliche Intelligenz, blickt nicht nur durch die Daten-Brille: „Die Antworten, die ChatGPT gibt, entsprechen nicht immer dem, was Experten in einer Therapiesituation sagen würden. Zum Beispiel bestärkt ChatGPT meistens die eigene Meinung.” Einer KI, die speziell für therapeutische Zwecke entwickelt wurde, räumt sie als Unterstützung aber gute Chancen ein: „Für einen Chatbot, den man spezifisch zu Therapiezwecken baut, nutzt man natürlich nur hochwertige, kuratierte Daten, wo Expertinnen und Experten Inputs gegeben haben.”
  • Wir möchten mit Blick auf die Therapie mit ChatGPT vor allem vor KI-Halluzinationen warnen, denn: „Bei Vorschlägen zu Kochrezepten mag das noch harmlos sein, doch plausibel wirkende Informationen, die dennoch falsch sind, können in psychologischen Krisen fatale Folgen haben. Fast noch erschreckender hingegen ist, mit welcher Leichtigkeit Nutzer via Social Media ihre Selbsttherapie mit ChatGPT dokumentieren.“

Ausblick: ChatGPT kann einen echten Therapeuten nicht ersetzen

KI-Modelle wie ChatGPT können das Gesundheitssystem entlasten und ergänzen – etwa durch niedrigschwellige Angebote oder strukturierte Informationen. Doch sie sollten nie den Eindruck erwecken, eine echte therapeutische Beziehung ersetzen zu können.

Denn vor allem in der Psychotherapie sind menschliche Nähe, echtes Zuhören und individuelle Einschätzung durch Fachpersonal unersetzlich.

Was man sich deshalb stets vor Augen führen sollte ist, dass KI auf Algorithmen und damit auf vorab definierten Handlungsmustern basiert. ChatGPT und Co. können deshalb keine echten Emotionen erkennen, kein echtes Mitgefühl zeigen und vor allem keine echten Menschen ersetzen.

Das sieht selbst ChatGPT so: “Ich kann Gespräche führen, zuhören, Fragen stellen, dich zur Reflexion anregen – und das kann manchmal helfen. Aber ich bin kein Mensch, keine Psychologin, keine Ärztin. Ich habe kein Bewusstsein, kein Mitgefühl im eigentlichen Sinn, und keine Möglichkeit, deinen Zustand professionell einzuschätzen.”

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Auch interessant:

  • Neue Gaskraftwerke: Mit Vollgas in die fossile Vergangenheit
  • Neues Format, exklusive Inhalte: UPDATE-Newsletter wird eigenständiges Produkt
  • Aus der Traum: Der große Wasserstoff-Irrtum der Autoindustrie
  • Irrer KI-Plan: Trump will Künstliche Intelligenz umbenennen
STELLENANZEIGEN
DLP-Security Specialist (m/w/d)
CompuGroup Medical SE & Co. KGaA in Koblenz
IT-System Engineer – Endpoint and Privi...
CompuGroup Medical SE & Co. KGaA in Koblenz
Cloud Database Engineer (m/w/d)
CompuGroup Medical SE & Co. KGaA in Koblenz
Mitarbeiter*in Social Media (m/w/d)
Magni Deutschland GmbH in Dülmen
Content Manager – E-Commerce / Shopify ...
kalb Material für Möbel GmbH in Bünde
Head of Brand, Content & Communication (m...
MAXPERT GmbH in Frankfurt am Main
Social Media & Community Manager — DACH (...
G.B.T. Technology Trading GmbH in Hamburg, bundesweit
Pflichtpraktikum im E-Business – Busine...
Liebherr-Hausgeräte Ochsenhausen GmbH in Ulm
THEMEN:GesundheitKünstliche Intelligenz
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonFabian Peters
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).
WhatsApp Kanal BASIC thinking Tech-Deals Sidebar
EMPFEHLUNG
Samsung Galaxy S25 Ultra
Android-Special bei o2: Samsung Galaxy S25 Ultra & Tab S10 für nur 7 Euro Anzahlung
Anzeige TECH
ITSM Software aus Deutschland
ITSM Software aus Deutschland: Sicher & souverän für den Mittelstand
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

Reverion, Start-up, Klimaschutz, Umweltschutz, Deutschland, Start-up-Check, Kolumne
TECH

Aus Gas mach Strom: Reversible Kraftwerke mit Brennstoffzellen

CRM für Apotheken
AnzeigeTECH

Was ist das beste CRM für Apotheken?

Audi A3 Sportback g-tron Foto: AUDI AG
TECH

Dauertest: Das sind die besten Autos in Deutschland

Browser-Erweiterung KI-Inhalte
TECH

Slop Evader: Browsererweiterung blendet KI-Inhalte aus

McDonald’s KI-Werbung Künstliche Intelligenz
BREAK/THE NEWSTECH

McDonald’s blamiert sich mit KI-Werbung

KI Geothermie
GREENTECH

Geothermie: KI spürt verborgene Energiequellen auf

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

Tagesgeldkonto eröffnen
50 € geschenkt bekommen

50 Euro

Anzeige

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?