Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
ChatGPT Therapie Therapeut KI Künstliche Intelligenz
BREAK/THE NEWSTECH

ChatGPT als Therapeut: KI kennt keine Schweigepflicht

Fabian Peters
Aktualisiert: 29. Juli 2025
von Fabian Peters
Bild: Mit ChatGPT generiert (KI).
Teilen

Immer mehr Menschen nutzen ChatGPT für eine Selbsttherapie – etwa um Ängste und Depressionen zu verarbeiten oder zu bekämpfen. Sam Altman hat nun davor gewarnt, dass OpenAI die Sicherheit von sensiblen Daten wie persönlichen Gesundheitsinformationen nicht garantieren kann. Gleichzeitig fordert er eine Art Schweigepflicht für ChatGPT – wie bei Therapeuten, Anwälten oder Ärzten. In unserem Format „Break The News“ haben wir die Hintergründe entschlüsselt.

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Hintergrund: ChatGPT als Therapeut

  • Via Social Media berichten immer mehr Menschen, dass sie ChatGPT für eine Selbsttherapie nutzen. Auf mögliche Datenschutzrisiken gehen nur die wenigsten ein. Ein weiteres Problem stellen schlechte Ratschläge, falsche Informationen oder erfundene Inhalte durch KI-Verzerrungen oder -Halluzinationen dar. Kurzum: Momente, in denen ChatGPT gewissermaßen selbst einen Therapeuten gebrauchen könnte. Eine Schweigepflicht? Ist allein deshalb schon fragwürdig.
  • Studien haben bereits bewiesen, dass KI-Tools wie ChatGPT eine Therapie sinnvoll ergänzen und sogar verbessern können. Einen Menschen oder gar Psychologen kann Künstliche Intelligenz aber nicht ersetzen. Heißt: Ein echter Therapeut sollte entscheiden, ob und inwieweit ChatGPT eine Ergänzung sein kann oder nicht.
  • Den Datenschutzrichtlinien von OpenAI zufolge werden Chats bei ChatGPT innerhalb von 30 Tagen dauerhaft gelöscht. Allerdings nur, wenn man sie zuvor selbst gelöscht hat. Offiziell einzige Einschränkung: Wenn das Unternehmen aus „rechtlichen oder sicherheitsrelevanten Gründen“ dazu verpflichtet ist, Chats länger aufzubewahren.

Einordnung: Dr. Google lässt grüßen

Dr. Google sollte eigentlich ein warnendes Beispiel sein. Denn genauso wenig wie das Internet kann ChatGPT eine echte Therapie ersetzen. Vor allem nicht, weil solche Chatbots auf ebenjene Informationen zugreifen, die auch bei Google zu finden sind – sie verpacken sie nur anders.

Hinzu kommen die technischen Fallhöhen wie Verzerrungen und Halluzinationen. Der niederschwellige Zugang und die vermeintliche Intelligenz von KI können viele Menschen aber dazu verleiten, auf eine echte Therapie zu verzichten – ob aus Scham, Angst oder schlichtweg aufgrund fehlender Therapieplätze und langer Wartezeiten.

Doch genau das offenbart das eigentliche Problem. Denn die ChatGPT-Therapie ist nicht nur ein Selbsthilfe-Trend, sondern ein Symptom. Die Suche nach Therapie-Alternativen ist verständlich, doch das geringere Übel ist nicht automatisch das bessere – auch davor sollte Altman warnen.

Stimmen

  • OpenAI-Chef Sam Altman warnte in einem Podcast vor Gesprächen mit ChatGPT zu sensiblen Themen wie der eigenen Gesundheit: „Kommt es zu einer Klage oder Ähnlichem, könnten wir gezwungen sein, diese Gespräche herauszugeben. Es gibt dafür ein rechtliches Privileg – ärztliche Schweigepflicht oder anwaltliche Verschwiegenheit. Dasselbe Konzept sollte es für Gespräche mit KI geben.“ Was Altman verschweigt: OpenAI selbst kann Nutzereingaben in ChatGPT einsehen und für das KI-Training verwenden, sofern Nutzer nicht aktiv widersprechen.
  • Tatjana Schneeberger, Psychologin am Deutschen Forschungszentrum für Künstliche Intelligenz, blickt nicht nur durch die Daten-Brille: „Die Antworten, die ChatGPT gibt, entsprechen nicht immer dem, was Experten in einer Therapiesituation sagen würden. Zum Beispiel bestärkt ChatGPT meistens die eigene Meinung.” Einer KI, die speziell für therapeutische Zwecke entwickelt wurde, räumt sie als Unterstützung aber gute Chancen ein: „Für einen Chatbot, den man spezifisch zu Therapiezwecken baut, nutzt man natürlich nur hochwertige, kuratierte Daten, wo Expertinnen und Experten Inputs gegeben haben.”
  • Wir möchten mit Blick auf die Therapie mit ChatGPT vor allem vor KI-Halluzinationen warnen, denn: „Bei Vorschlägen zu Kochrezepten mag das noch harmlos sein, doch plausibel wirkende Informationen, die dennoch falsch sind, können in psychologischen Krisen fatale Folgen haben. Fast noch erschreckender hingegen ist, mit welcher Leichtigkeit Nutzer via Social Media ihre Selbsttherapie mit ChatGPT dokumentieren.“

Ausblick: ChatGPT kann einen echten Therapeuten nicht ersetzen

KI-Modelle wie ChatGPT können das Gesundheitssystem entlasten und ergänzen – etwa durch niedrigschwellige Angebote oder strukturierte Informationen. Doch sie sollten nie den Eindruck erwecken, eine echte therapeutische Beziehung ersetzen zu können.

Denn vor allem in der Psychotherapie sind menschliche Nähe, echtes Zuhören und individuelle Einschätzung durch Fachpersonal unersetzlich.

Was man sich deshalb stets vor Augen führen sollte ist, dass KI auf Algorithmen und damit auf vorab definierten Handlungsmustern basiert. ChatGPT und Co. können deshalb keine echten Emotionen erkennen, kein echtes Mitgefühl zeigen und vor allem keine echten Menschen ersetzen.

Das sieht selbst ChatGPT so: “Ich kann Gespräche führen, zuhören, Fragen stellen, dich zur Reflexion anregen – und das kann manchmal helfen. Aber ich bin kein Mensch, keine Psychologin, keine Ärztin. Ich habe kein Bewusstsein, kein Mitgefühl im eigentlichen Sinn, und keine Möglichkeit, deinen Zustand professionell einzuschätzen.”

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Auch interessant:

  • Neue Gaskraftwerke: Mit Vollgas in die fossile Vergangenheit
  • Neues Format, exklusive Inhalte: UPDATE-Newsletter wird eigenständiges Produkt
  • Aus der Traum: Der große Wasserstoff-Irrtum der Autoindustrie
  • Irrer KI-Plan: Trump will Künstliche Intelligenz umbenennen
STELLENANZEIGEN
Praktikant Online-Marketing und Brand/Content...
Vodafone GmbH in Düsseldorf
Community Manager (w/m/d)
Horl 1993 GmbH in Freiburg
Videograf / Video Content Creator (w/m/d) – V...
FingerHaus GmbH in Frankenberg / Eder
Digital Content & Innovation Manager (alle*)
Hausärztinnen- und Hausärzteverbande Ba... in Stuttgart
Praktikant Social Media (all genders)
Snipes SE in Köln
E-Commerce Marketing Manager (m/w/d) 100% Rem...
marielove - für neuen Schwung. in Brandenburg
Referent/in* für Social Media Management und ...
Stadt Friedrichshafen in Friedrichshafen
Content & Community Manager (m/w/d)
PMP Projektmanagement GmbH in Stuttgart
THEMEN:GesundheitKünstliche Intelligenz
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonFabian Peters
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).
Keine Kommentare Keine Kommentare

Schreibe einen Kommentar Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

EMPFEHLUNG
Cloud-Telefonie Universe Cloud-2
Ganz einfach zur eigenen Cloud-Telefonie mit Universe Cloud
Anzeige TECH
iPhone 16 Pro Max Vodafone Business
iPhone 16 Pro Max + Prime XL Unlimited für einmalig unter 200 Euro
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

Feststoffbatterien aus Europa Festkörperbatterie Batterietechnoligie
GREENTECH

Feststoffbatterien: Europa sagt Asien den Kampf an

KI-Kodex EU Verhaltenskodex Künstliche Intelligenz
MONEYTECH

Der KI-Kodex der EU ist mutig – aber ungenügend

Frizzi Engler-Hamm
MONEYTECH

Homescreen! Ein Blick auf das Smartphone von Frizzi Engler-Hamm

Lithium Abbau Deutschland Vulcan Energy Hessen Rheinland-Pfalz
BREAK/THE NEWSMONEY

Lithium aus Deutschland: Weißes Gold mit dunklen Flecken?

KI Arbeitsmarkt digitale Kluft Arbeit Job Spaltung
MONEYTECH

Digitale Kluft: Wie Künstliche Intelligenz den Arbeitsmarkt spaltet

Rekord-Elektromotor, Mercedes, Yasa, Elektromobilität, E-Auto, E-Fahrzeug, Konzeptfahrzeug
GREENTECH

Mercedes-Tochter entwickelt „zufällig“ Rekord-Elektromotor

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?