Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
ChatGPT Therapie Therapeut KI Künstliche Intelligenz
BREAK/THE NEWSTECH

ChatGPT als Therapeut: KI kennt keine Schweigepflicht

Fabian Peters
Aktualisiert: 30. Juli 2025
von Fabian Peters
Bild: Mit ChatGPT generiert (KI).
Teilen

Immer mehr Menschen nutzen ChatGPT für eine Selbsttherapie – etwa um Ängste und Depressionen zu verarbeiten oder zu bekämpfen. Sam Altman hat nun davor gewarnt, dass OpenAI die Sicherheit von sensiblen Daten wie persönlichen Gesundheitsinformationen nicht garantieren kann. Gleichzeitig fordert er eine Art Schweigepflicht für ChatGPT – wie bei Therapeuten, Anwälten oder Ärzten. In unserem Format „Break The News“ haben wir die Hintergründe entschlüsselt.

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Hintergrund: ChatGPT als Therapeut

  • Via Social Media berichten immer mehr Menschen, dass sie ChatGPT für eine Selbsttherapie nutzen. Auf mögliche Datenschutzrisiken gehen nur die wenigsten ein. Ein weiteres Problem stellen schlechte Ratschläge, falsche Informationen oder erfundene Inhalte durch KI-Verzerrungen oder -Halluzinationen dar. Kurzum: Momente, in denen ChatGPT gewissermaßen selbst einen Therapeuten gebrauchen könnte. Eine Schweigepflicht? Ist allein deshalb schon fragwürdig.
  • Studien haben bereits bewiesen, dass KI-Tools wie ChatGPT eine Therapie sinnvoll ergänzen und sogar verbessern können. Einen Menschen oder gar Psychologen kann Künstliche Intelligenz aber nicht ersetzen. Heißt: Ein echter Therapeut sollte entscheiden, ob und inwieweit ChatGPT eine Ergänzung sein kann oder nicht.
  • Den Datenschutzrichtlinien von OpenAI zufolge werden Chats bei ChatGPT innerhalb von 30 Tagen dauerhaft gelöscht. Allerdings nur, wenn man sie zuvor selbst gelöscht hat. Offiziell einzige Einschränkung: Wenn das Unternehmen aus „rechtlichen oder sicherheitsrelevanten Gründen“ dazu verpflichtet ist, Chats länger aufzubewahren.

Einordnung: Dr. Google lässt grüßen

Dr. Google sollte eigentlich ein warnendes Beispiel sein. Denn genauso wenig wie das Internet kann ChatGPT eine echte Therapie ersetzen. Vor allem nicht, weil solche Chatbots auf ebenjene Informationen zugreifen, die auch bei Google zu finden sind – sie verpacken sie nur anders.

Hinzu kommen die technischen Fallhöhen wie Verzerrungen und Halluzinationen. Der niederschwellige Zugang und die vermeintliche Intelligenz von KI können viele Menschen aber dazu verleiten, auf eine echte Therapie zu verzichten – ob aus Scham, Angst oder schlichtweg aufgrund fehlender Therapieplätze und langer Wartezeiten.

Doch genau das offenbart das eigentliche Problem. Denn die ChatGPT-Therapie ist nicht nur ein Selbsthilfe-Trend, sondern ein Symptom. Die Suche nach Therapie-Alternativen ist verständlich, doch das geringere Übel ist nicht automatisch das bessere – auch davor sollte Altman warnen.

Stimmen

  • OpenAI-Chef Sam Altman warnte in einem Podcast vor Gesprächen mit ChatGPT zu sensiblen Themen wie der eigenen Gesundheit: „Kommt es zu einer Klage oder Ähnlichem, könnten wir gezwungen sein, diese Gespräche herauszugeben. Es gibt dafür ein rechtliches Privileg – ärztliche Schweigepflicht oder anwaltliche Verschwiegenheit. Dasselbe Konzept sollte es für Gespräche mit KI geben.“ Was Altman verschweigt: OpenAI selbst kann Nutzereingaben in ChatGPT einsehen und für das KI-Training verwenden, sofern Nutzer nicht aktiv widersprechen.
  • Tanja Schneeberger, Psychologin am Deutschen Forschungszentrum für Künstliche Intelligenz, blickt nicht nur durch die Daten-Brille: „Die Antworten, die ChatGPT gibt, entsprechen nicht immer dem, was Experten in einer Therapiesituation sagen würden. Zum Beispiel bestärkt ChatGPT meistens die eigene Meinung.” Einer KI, die speziell für therapeutische Zwecke entwickelt wurde, räumt sie als Unterstützung aber gute Chancen ein: „Für einen Chatbot, den man spezifisch zu Therapiezwecken baut, nutzt man natürlich nur hochwertige, kuratierte Daten, wo Expertinnen und Experten Inputs gegeben haben.”
  • Wir möchten mit Blick auf die Therapie mit ChatGPT vor allem vor KI-Halluzinationen warnen, denn: „Bei Vorschlägen zu Kochrezepten mag das noch harmlos sein, doch plausibel wirkende Informationen, die dennoch falsch sind, können in psychologischen Krisen fatale Folgen haben. Fast noch erschreckender hingegen ist, mit welcher Leichtigkeit Nutzer via Social Media ihre Selbsttherapie mit ChatGPT dokumentieren.“

Ausblick: ChatGPT kann einen echten Therapeuten nicht ersetzen

KI-Modelle wie ChatGPT können das Gesundheitssystem entlasten und ergänzen – etwa durch niedrigschwellige Angebote oder strukturierte Informationen. Doch sie sollten nie den Eindruck erwecken, eine echte therapeutische Beziehung ersetzen zu können.

Denn vor allem in der Psychotherapie sind menschliche Nähe, echtes Zuhören und individuelle Einschätzung durch Fachpersonal unersetzlich.

Was man sich deshalb stets vor Augen führen sollte ist, dass KI auf Algorithmen und damit auf vorab definierten Handlungsmustern basiert. ChatGPT und Co. können deshalb keine echten Emotionen erkennen, kein echtes Mitgefühl zeigen und vor allem keine echten Menschen ersetzen.

Das sieht selbst ChatGPT so: “Ich kann Gespräche führen, zuhören, Fragen stellen, dich zur Reflexion anregen – und das kann manchmal helfen. Aber ich bin kein Mensch, keine Psychologin, keine Ärztin. Ich habe kein Bewusstsein, kein Mitgefühl im eigentlichen Sinn, und keine Möglichkeit, deinen Zustand professionell einzuschätzen.”

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Auch interessant:

  • Neue Gaskraftwerke: Mit Vollgas in die fossile Vergangenheit
  • Neues Format, exklusive Inhalte: UPDATE-Newsletter wird eigenständiges Produkt
  • Aus der Traum: Der große Wasserstoff-Irrtum der Autoindustrie
  • Irrer KI-Plan: Trump will Künstliche Intelligenz umbenennen
STELLENANZEIGEN
Ausbildung zur/zum Fachinformatiker/in für Sy...
DZ BANK AG in Frankfurt am Main
Sales Manager (m/w/d) Online Marketing
Sellwerk GmbH & Co. KG in Aschaffenburg, Würzburg, M...
Social Media Manager (w/m/d)
ADAC Niedersachsen/Sachsen-Anhalt e.V. in Laatzen
Mitarbeiter:innen im Online-Marketing & E...
Maiwald GmbH in München
(Senior) Online Marketing Manager (m/w/d) – a...
horizoom GmbH in Köln, Berlin
Praktikum Content-Manager Live-Interactions (...
ProSiebenSat.1 Careers in München
Duales Studium zum Bachelor of Science (DH), ...
DZ BANK AG in Frankfurt am Main
Content Marketing Manager SEO/SEA (m/w/d)
profection GmbH & Co. KG in Lüdenscheid,Köln,Düsseldorf
THEMEN:GesundheitKünstliche Intelligenz
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonFabian Peters
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).
Keine Kommentare Keine Kommentare

Schreibe einen Kommentar Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

EMPFEHLUNG
eSchwalbe
E-Roller-Deal: Jetzt eSchwalbe für nur 29 Euro im Monat sichern
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

Langzeitenergiespeicher Energiewende Erneuerbare Energien
GREENTECH

Energiespeicher sichert Solarenergie für den Winter – über Jahre

Solarzellen Fassade Solarenergie PV-Anlage PV-Modul Energiewende erneuerbare Energien
GREENTECH

Strom aus der Hauswand: Solarzellen direkt in der Fassade

Ein Offshore-Windpark im offenen Meer.
BREAK/THE NEWSGREEN

Offshore-Windparks: Geht Europa die Luft aus?

Kupfer-Katalysator CO2 Alkohol
GREENTECH

Kupfer-Katalysator: Forscher wandeln CO2 in Alkohol um

Elon Musk Wikipedia Grok Grokipedia KI Künstliche Intelligenz OpenAI ChatGPT
TECH

Musk plant „Grokipedia“ – KI soll Wikipedia korrigieren und Kontext ergänzen

Eine Einkaufstüte mit dem Logo von ChatGPT darauf.
BREAK/THE NEWSTECH

Werbung bei ChatGPT: Am Ende siegt das Geld immer

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?