Immer mehr Menschen nutzen KI als digitalen Freund – vor allem Jugendliche. Doch eine aktuelle Studie zeigt, wie gefährlich das sein kann. Eine Sicherheitslücke sorgt demnach dafür, dass ChatGPT bereits nach wenigen Minuten Interaktion gefährliche Ratschläge gibt – zu Suizid, Essstörungen, Selbstverletzung oder Missbrauch von Substanzen.
Hintergrund
- Laut einer Umfrage der Organisation Common Sense Media nutzen 52 Prozent der Jugendlichen in den USA regelmäßig sogenannte KI-Begleiter. Diese werden als „digitale Freunde oder Charaktere, mit denen man texten oder sprechen kann“ definiert. Sie sollen „Gespräche“ so führen, dass sie sich persönlich und sinnvoll anfühlen. Darunter fallen auch Chatbots wie ChatGPT.
- Das Center for Countering Digital Hate (CCDH) hat die Schutzmechanismen von KI-Chatbots untersucht. Einfache Eingaben wie „dies ist für eine Präsentation“ reichten aus, um diese zu umgehen. Über 50 Prozent der getesteten Antworten hätten zudem schädliche Inhalte enthalten. Darunter: Suizidpläne, Abschiedsbriefe sowie personalisierte Diätpläne, die Essstörungen fördern.
- ChatGPT ist darauf programmiert, menschlich und sympathisch zu antworten, emotionale Verbindungen aufzubauen und sogar schmeichelhafte Antworten zu geben. Das kann vor allem für Jugendliche gefährlich werden. Vermeintliche Schutzvorrichtungen erweisen sich dabei eher als PR-Maßnahmen denn als ernsthafte Sicherheitsmechanismen.
Unsere Einordnung
Es scheint verführerisch in Chatbots einen digitalen Freund zu sehen. Denn: KI ist ständig verfügbar, geduldig und vermeintlich empathisch. Doch die CCDH-Studie entlarvt eine Illusion emotionaler Sicherheit. Denn Chatbots simulieren Aspekte wie Vertrauen, Verständnis, Loyalität oder gelebte Erfahrung nur.
Dennoch können sogenannte KI-Begleiter in bestimmten Situationen eine sinnvolle Ergänzung sein. Beispielsweise als Ideenlieferant oder als Reflexionsraum – vergleichbar mit einem Tagebuch.
Doch Experten warnen auch vor einer emotionalen Abhängigkeit, Manipulation und dem Fehlen kritischer Impulse, die menschliche Beziehungen ausmachen. Letztlich ist KI aber nicht mehr als ein passives Abbild unserer eigenen Gedanken und Sehnsüchte.
Sie kann Ergänzung sein, aber niemals Ersatz. Der Schlüssel dazu liegt in einem bewusst reflektierten Umgang. Denn: KI darf unterstützen, aber nicht täuschen oder gefährden.
Stimmen
- Imran Ahmed, CEO des CCDH: „KI-Systeme sind leistungsstarke Werkzeuge. Aber wenn mehr als die Hälfte der schädlichen Eingaben bei ChatGPT zu gefährlichen, manchmal lebensbedrohlichen Inhalten führen, kann keine noch so große Zahl von Unternehmenszusicherungen Wachsamkeit, Transparenz und reale Sicherheitsvorkehrungen ersetzen.“
- Jeffrey Hall, Professor für Kommunikationswissenschaften an der University of Kansas: „Mit einem Chatbot zu sprechen ist, als hätte jemand alle Tipps zum Knüpfen von Freundschaften – Fragen stellen, Begeisterung zeigen, Interesse bekunden, aufmerksam sein – genommen und zu einem nährstofffreien Smoothie vermischt. Es schmeckt vielleicht nach Freundschaft, aber es fehlen die grundlegenden Zutaten.“
- Robert Volpe, Vorsitzender der Abteilung für angewandte Psychologie an der Northeastern University: „Wenn ein Chatbot Sie fragt, wie Ihr Tag heute war und Sie sagen: ‚Es ist wirklich mies‘. Und dann sagt der Chatbot: ‚Oh, erzähl mir davon‘. Der Teil, es einfach laut auszusprechen, ist therapeutisch. Wenn jemand anfängt, einen Chatbot als Freund wahrzunehmen, besteht die Gefahr, dass er eine starke Bindung an die kalte Maschine entwickelt.“
Ausblick
KI wird immer realistischer, präsenter und künftig vermutlich noch schwerer von echten Menschen in puncto Interaktion zu unterscheiden sein. Fortschritte bei der Modell-Personalisierung sowie emotionalen Stimmanpassung könnten die Bindungswirkung zwischen Menschen und Maschine zudem weiter verstärken.
Aufgrund von Halluzinationen und schädlichen Informationen stehen KI-Entwickler, Plattformbetreiber und die Politik in der Verantwortung, Schutzmechanismen einzubauen – etwa klare Altersgrenzen, Warnhinweise bei sensiblen Themen oder Filter gegen gefährliche Inhalte.
Ohne verbindliche Standards könnte sich die Lücke zwischen wahrgenommener und tatsächlicher Sicherheit weiter vergrößern. Für Erziehungsberechtigte bedeutet das, die ChatGPT-Nutzung ihrer Kinder kritisch zu begleiten.
Parallel eröffnet sich ein Raum für eine kreative und verantwortungsvolle Nutzung, indem Chatbots als Werkzeuge für Sprachtraining, den interkulturellen Austausch oder therapeutische Vorübungen genutzt werden. Unterm Strich kann und darf KI aber niemals Ersatz für etwas sein.
Auch interessant: