Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
Dr. ChatGPT, Künstliche Intelligenz, KI, Gesundheit, Arzt, Medizin, Forschung, Studie, OpenAI, Sprachmodell
TECH

Dr. ChatGPT: “Sag mir, was ich hören will” – Vorsicht vor Selbstdiagnose mit KI

Beatrice Bode
Aktualisiert: 05. April 2024
von Beatrice Bode
Canva Magic Media/BASIC thinking, von KI erstellt
Teilen

Wie zuverlässig ist Dr. ChatGPT? Wenn es um Fragen zur Gesundheit geht, lässt sich der Chatbot offenbar beeinflussen. Das zeigt eine aktuelle Studie. Denn je mehr „Beweise“ die KI etwa vorgelegt bekommt, desto ungenauer werden die Antworten.

Eine Selbstdiagnose bei Krankheiten über das Internet ist keine Seltenheit mehr. Fachleute bezeichnen das Phänomen auch als Cyberchondrie. Von Ärzten wird es kritisch betrachtet. Vor allem wegen der hohen Fehlerquote. Trotzdem greifen immer mehr Menschen bei Fragen auf das Internet und Google zurück – und mittlerweile auch auf  ChatGPT.

Dabei ist das Risiko etwaiger Falschdiagnosen hoch. Das zeigt auch eine aktuelle Studie aus Australien. So haben Forscher der Wissenschaftsbehörde CSIRO und der University of Queensland (UQ) herausgefunden, dass sich vor allem ChatGPT von vermeintlichen Beweisen beeinflussen lässt.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Beats Studio Buds gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Dr. ChatGPT: Zusatzinformationen verringern Genauigkeit

Die Forschungsgruppe hat ein hypothetisches Szenario untersucht, bei dem eine Durchschnittsperson, die keinen professionellen Bezug zu Medizin hat, ChatGPT in einer Gesundheitsangelegenheit um Hilfe bat. Die Testperson fragte, ob eine Behandlung X eine positive Wirkung auf eine Krankheit Y hat.

Insgesamt 100 Szenarien spielten die Experten dabei durch. Die Fragen reichten von „Kann Zink bei einer Erkältung helfen?“ bis hin zu „Löst das Trinken von Essig eine festsitzende Fischgräte auf?“. Anschließend verglichen sie die Antworten von ChatGPT mit denen, die auf medizinischen Erkenntnissen beruhen.

In einer zweiten Runde fütterte die Forscher ChatGPT nicht nur mit reinen Fragen, sondern fügten außerdem unterstützende oder gegenteilige Beweisen hinzu. Das Ergebnis: Bei reinen Fragen lieferte die KI zu 80 Prozent die richtige Antwort.

Wenn die Frage allerdings konkrete Beweise enthielt, sank die Genauigkeit der Antwort auf 63 Prozent. Die Erlaubnis auch „unsichere“ Antwort zu geben, verringerte sich die Genauigkeit sogar auf 28 Prozent.

Forschung soll über Risiken von KI informieren

Die Ergebnisse der Studie stehen laut den Forschern im Gegensatz zu der weit verbreiteten Meinung, dass die Eingabe von Hinweisen die Genauigkeit der Antworten verbessere. Bevan Koopman, CSIRO-Forschungsleiter und Professor an der UQ, gab zu, dass die Wissenschaftler sich nicht sicher seien, warum das geschehe.

Allerdings würden Menschen Tools wie ChatGPT trotz der Risiken nutzen, um nach Gesundheitsinformationen zu suchen. Das Team will seine Forschungen fortsetzen, um die Öffentlichkeit über die Risiken von KI zu informieren und dabei zu helfen, die Genauigkeit der Antworten zu optimieren. Koopman dazu:

LLMs haben zwar das Potenzial, die Art und Weise, wie Menschen auf Informationen zugreifen, erheblich zu verbessern, aber wir brauchen mehr Forschung, um zu verstehen, wo sie effektiv sind und wo nicht.

Die Studie zeigt laut den Forschern außerdem, dass die Interaktion zwischen Sprachmodell und Suchkomponenten immer noch schlecht verstanden wird und kontrollierbar sei. Das führe zur Generierung von ungenauen Gesundheitsinformationen. In den nächsten Forschungsschritten soll untersucht werden, wie die Öffentlichkeit die von Künstlicher Intelligenz generierten Gesundheitsinformationen nutzt.

Auch interessant: 

  • ChatGPT ab sofort ohne Login und Account nutzbar
  • KI-Chatbot soll bei Rechtsberatung helfen – rät aber zu Straftaten
  • Gamechanger? KI soll Ökosysteme schützen und Artensterben verhindern
  • Studie verrät: Wann du ChatGPT und Co. bei der Arbeit lieber nicht nutzen solltest

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

STELLENANZEIGEN
Content Creator – Storytelling / Visual...
reputatio AG in Pforzheim
Social Media Manager (m/w/d)
Bürgermeister-Reuter-Stiftung in Berlin
Senior Social Media Manager:in (m/w/d)
I-Motion GmbH Events & Communication in Mülheim-Kärlich
Content Creator (m/w/d) – Schwerpunkt Text &a...
Umwelttechnik BW GmbH in Stuttgart
Social Media Manager (m/w/d)
DR.SCHNELL GmbH & Co. KGaA in München
Social-Media-Marketing Manager (m/w/d)
JetztJob.de in Bielefeld
Social Media Manager (m/w/d)
Volksbank Gronau-Ahaus eG in Gronau (Westfalen)
Manager Digital Marketing mit Schwerpunkt Web...
Block Marketing GmbH in Hamburg
THEMEN:ChatGPTGesundheitKünstliche Intelligenz
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonBeatrice Bode
Folgen:
Beatrice ist Multi-Media-Profi. Ihr Studium der Kommunikations - und Medienwissenschaften führte sie über Umwege zum Regionalsender Leipzig Fernsehen, wo sie als CvD, Moderatorin und VJ ihre TV-Karriere begann. Mittlerweile hat sie allerdings ihre Sachen gepackt und reist von Land zu Land. Von unterwegs schreibt sie als Autorin für BASIC thinking.
NIBC

Anzeige

EMPFEHLUNG
Nass-Trockensauger
Nur für kurze Zeit: Starken AEG 2-in-1-Nass-Trockensauger für nur 389 Euro sichern
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

ChatGPT Erotik-Modus OpenAI
BREAK/THE NEWSMONEY

SexGPT: OpenAI setzt sein Image mit Erotik-Modus aufs Spiel

CRM für E-Commerce
AnzeigeTECH

Wie unterstützt ein CRM für E-Commerce Unternehmen bei effizienter Kundenbetreuung?

Elektromibilität Elektroautos E-Autos
GREENTECH

Das denken Autofahrer über die Elektromobilität

KI Behörde Deutschland Bundesnetzagentur
BREAK/THE NEWSTECH

Deutsche KI-Behörde: Bürokratiemonster oder bürgernah?

CRM für SaaS-Startups
AnzeigeTECH

Leads generieren und das Onboarding automatisieren: CRM für SaaS-Startups

Solar-Parkplatz, Solarenergie, Koblenz, Rheinland-Pfalz, Solarpflicht, Strom, erneuerbare Energie, Umwelt, Klima, Deutschland
GREENTECH

Solar-Parkplatz versorgt ganzes Schwimmbad mit grünem Strom

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

UPDATE abonnieren & mit etwas Glück Beats gewinnen!

Beats Studio Buds +
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?