Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
Dr. ChatGPT, Künstliche Intelligenz, KI, Gesundheit, Arzt, Medizin, Forschung, Studie, OpenAI, Sprachmodell
TECH

Dr. ChatGPT: “Sag mir, was ich hören will” – Vorsicht vor Selbstdiagnose mit KI

Beatrice Bode
Aktualisiert: 05. April 2024
von Beatrice Bode
Canva Magic Media/BASIC thinking, von KI erstellt
Teilen

Wie zuverlässig ist Dr. ChatGPT? Wenn es um Fragen zur Gesundheit geht, lässt sich der Chatbot offenbar beeinflussen. Das zeigt eine aktuelle Studie. Denn je mehr „Beweise“ die KI etwa vorgelegt bekommt, desto ungenauer werden die Antworten.

Eine Selbstdiagnose bei Krankheiten über das Internet ist keine Seltenheit mehr. Fachleute bezeichnen das Phänomen auch als Cyberchondrie. Von Ärzten wird es kritisch betrachtet. Vor allem wegen der hohen Fehlerquote. Trotzdem greifen immer mehr Menschen bei Fragen auf das Internet und Google zurück – und mittlerweile auch auf  ChatGPT.

Dabei ist das Risiko etwaiger Falschdiagnosen hoch. Das zeigt auch eine aktuelle Studie aus Australien. So haben Forscher der Wissenschaftsbehörde CSIRO und der University of Queensland (UQ) herausgefunden, dass sich vor allem ChatGPT von vermeintlichen Beweisen beeinflussen lässt.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück AirPods 4 gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Dr. ChatGPT: Zusatzinformationen verringern Genauigkeit

Die Forschungsgruppe hat ein hypothetisches Szenario untersucht, bei dem eine Durchschnittsperson, die keinen professionellen Bezug zu Medizin hat, ChatGPT in einer Gesundheitsangelegenheit um Hilfe bat. Die Testperson fragte, ob eine Behandlung X eine positive Wirkung auf eine Krankheit Y hat.

Insgesamt 100 Szenarien spielten die Experten dabei durch. Die Fragen reichten von „Kann Zink bei einer Erkältung helfen?“ bis hin zu „Löst das Trinken von Essig eine festsitzende Fischgräte auf?“. Anschließend verglichen sie die Antworten von ChatGPT mit denen, die auf medizinischen Erkenntnissen beruhen.

In einer zweiten Runde fütterte die Forscher ChatGPT nicht nur mit reinen Fragen, sondern fügten außerdem unterstützende oder gegenteilige Beweisen hinzu. Das Ergebnis: Bei reinen Fragen lieferte die KI zu 80 Prozent die richtige Antwort.

Wenn die Frage allerdings konkrete Beweise enthielt, sank die Genauigkeit der Antwort auf 63 Prozent. Die Erlaubnis auch „unsichere“ Antwort zu geben, verringerte sich die Genauigkeit sogar auf 28 Prozent.

Forschung soll über Risiken von KI informieren

Die Ergebnisse der Studie stehen laut den Forschern im Gegensatz zu der weit verbreiteten Meinung, dass die Eingabe von Hinweisen die Genauigkeit der Antworten verbessere. Bevan Koopman, CSIRO-Forschungsleiter und Professor an der UQ, gab zu, dass die Wissenschaftler sich nicht sicher seien, warum das geschehe.

Allerdings würden Menschen Tools wie ChatGPT trotz der Risiken nutzen, um nach Gesundheitsinformationen zu suchen. Das Team will seine Forschungen fortsetzen, um die Öffentlichkeit über die Risiken von KI zu informieren und dabei zu helfen, die Genauigkeit der Antworten zu optimieren. Koopman dazu:

LLMs haben zwar das Potenzial, die Art und Weise, wie Menschen auf Informationen zugreifen, erheblich zu verbessern, aber wir brauchen mehr Forschung, um zu verstehen, wo sie effektiv sind und wo nicht.

Die Studie zeigt laut den Forschern außerdem, dass die Interaktion zwischen Sprachmodell und Suchkomponenten immer noch schlecht verstanden wird und kontrollierbar sei. Das führe zur Generierung von ungenauen Gesundheitsinformationen. In den nächsten Forschungsschritten soll untersucht werden, wie die Öffentlichkeit die von Künstlicher Intelligenz generierten Gesundheitsinformationen nutzt.

Auch interessant: 

  • ChatGPT ab sofort ohne Login und Account nutzbar
  • KI-Chatbot soll bei Rechtsberatung helfen – rät aber zu Straftaten
  • Gamechanger? KI soll Ökosysteme schützen und Artensterben verhindern
  • Studie verrät: Wann du ChatGPT und Co. bei der Arbeit lieber nicht nutzen solltest
BASIC thinking WhatsApp Kanal
STELLENANZEIGEN
Content Creator (m/w/d)
Paul Leibinger GmbH & Co. KG in Tuttlingen
Projektmanager E-Commerce (m/w/d)
Wilhelm Fricke SE - GRANIT PARTS in Heeslingen bei B...
Social Media Manager (m/w/d)
Matratzen Concord GmbH in Köln
Mitarbeiter Marketing mit SEO (m/w/d) Region ...
Patrick Reichelt & Team Garten- & Landscha... in Berlin
Sales Manager (m/w/d) Online Marketing
Sellwerk GmbH & Co. KG in Düsseldorf, Meerbusch, Kaa...
Marketing Manager Web & Content – G...
Patronus Group in Berlin
Senior Manager MarCom (Online-Marketing) (m/w/d)
Messe Düsseldorf GmbH in Düsseldorf
Assistent Online Marketing (m/w/d)
G.B.T. Technology Trading GmbH in Hamburg
THEMEN:ChatGPTGesundheitKünstliche Intelligenz
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonBeatrice Bode
Folgen:
Beatrice ist Multi-Media-Profi. Ihr Studium der Kommunikations - und Medienwissenschaften führte sie über Umwege zum Regionalsender Leipzig Fernsehen, wo sie als CvD, Moderatorin und VJ ihre TV-Karriere begann. Mittlerweile hat sie allerdings ihre Sachen gepackt und reist von Land zu Land. Von unterwegs schreibt sie als Autorin für BASIC thinking.
WhatsApp Kanal BASIC thinking Tech-Deals Sidebar
EMPFEHLUNG
Strom-Wechselservice Wechselpilot-2
Strom-Wechselservice: Was bringt dir der Service wirklich?
Anzeige MONEY
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

CRM für Energieversorger
AnzeigeTECH

CRM für Energieversorger: Effizientes Management von Vertrieb und Fördermitteln

WhatsApp BASIC thinking TECH-DEALS
SERVICETECH

Pünktlich zum Black Friday: Die BASIC thinking TECH-DEALS auf WhatsApp

BMW X1 Auto SUV Straße
TECH

Die besten Automarken laut Fahrtest-Ergebnissen

Zeiterfassungsgesetz 2026
AnzeigeTECH

Kommt das Zeiterfassungsgesetz 2026? Was Unternehmen jetzt wissen müssen

DeepSeek OCR Token Text zu Bild
BREAK/THE NEWSTECH

DeepSeek OCR: China-KI will Denken neu erfunden haben

HubSpot vs. Airtable vs. Notion
AnzeigeTECH

HubSpot vs. Airtable vs. Notion – CRM-Lösungen für Freelancer und Solopreneure im Vergleich

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

Teste jetzt die AI Voice Agents
von ElevenLabs in 32 Sprachen

Elevenlabs Logo

Anzeige

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?