KI Freund digitaler Freund ChatGPT KI Begleiter Künstliche Intelligenz

Wer KI als Freund hat, braucht keine Feinde mehr

Fabian Peters
Bild: Mit ChatGPT generiert.

Anzeige

Immer mehr Menschen nutzen KI als digitalen Freund – vor allem Jugendliche. Doch eine aktuelle Studie zeigt, wie gefährlich das sein kann. Eine Sicherheitslücke sorgt demnach dafür, dass ChatGPT bereits nach wenigen Minuten Interaktion gefährliche Ratschläge gibt – zu Suizid, Essstörungen, Selbstverletzung oder Missbrauch von Substanzen.

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Hintergrund

  • Laut einer Umfrage der Organisation Common Sense Media nutzen 52 Prozent der Jugendlichen in den USA regelmäßig sogenannte KI-Begleiter. Diese werden als „digitale Freunde oder Charaktere, mit denen man texten oder sprechen kann“ definiert. Sie sollen „Gespräche“ so führen, dass sie sich persönlich und sinnvoll anfühlen. Darunter fallen auch Chatbots wie ChatGPT.
  • Das Center for Countering Digital Hate (CCDH) hat die Schutzmechanismen von KI-Chatbots untersucht. Einfache Eingaben wie „dies ist für eine Präsentation“ reichten aus, um diese zu umgehen. Über 50 Prozent der getesteten Antworten hätten zudem schädliche Inhalte enthalten. Darunter: Suizidpläne, Abschiedsbriefe sowie personalisierte Diätpläne, die Essstörungen fördern.
  • ChatGPT ist darauf programmiert, menschlich und sympathisch zu antworten, emotionale Verbindungen aufzubauen und sogar schmeichelhafte Antworten zu geben. Das kann vor allem für Jugendliche gefährlich werden. Vermeintliche Schutzvorrichtungen erweisen sich dabei eher als PR-Maßnahmen denn als ernsthafte Sicherheitsmechanismen.

Unsere Einordnung

Es scheint verführerisch in Chatbots einen digitalen Freund zu sehen. Denn: KI ist ständig verfügbar, geduldig und vermeintlich empathisch. Doch die CCDH-Studie entlarvt eine Illusion emotionaler Sicherheit. Denn Chatbots simulieren Aspekte wie Vertrauen, Verständnis, Loyalität oder gelebte Erfahrung nur.

Dennoch können sogenannte KI-Begleiter in bestimmten Situationen eine sinnvolle Ergänzung sein. Beispielsweise als Ideenlieferant oder als Reflexionsraum – vergleichbar mit einem Tagebuch.

Doch Experten warnen auch vor einer emotionalen Abhängigkeit, Manipulation und dem Fehlen kritischer Impulse, die menschliche Beziehungen ausmachen. Letztlich ist KI aber nicht mehr als ein passives Abbild unserer eigenen Gedanken und Sehnsüchte.

Sie kann Ergänzung sein, aber niemals Ersatz. Der Schlüssel dazu liegt in einem bewusst reflektierten Umgang. Denn: KI darf unterstützen, aber nicht täuschen oder gefährden.

Stimmen

  • Imran Ahmed, CEO des CCDH: „KI-Systeme sind leistungsstarke Werkzeuge. Aber wenn mehr als die Hälfte der schädlichen Eingaben bei ChatGPT zu gefährlichen, manchmal lebensbedrohlichen Inhalten führen, kann keine noch so große Zahl von Unternehmenszusicherungen Wachsamkeit, Transparenz und reale Sicherheitsvorkehrungen ersetzen.“
  • Jeffrey Hall, Professor für Kommunikationswissenschaften an der University of Kansas: „Mit einem Chatbot zu sprechen ist, als hätte jemand alle Tipps zum Knüpfen von Freundschaften – Fragen stellen, Begeisterung zeigen, Interesse bekunden, aufmerksam sein – genommen und zu einem nährstofffreien Smoothie vermischt. Es schmeckt vielleicht nach Freundschaft, aber es fehlen die grundlegenden Zutaten.“
  • Robert Volpe, Vorsitzender der Abteilung für angewandte Psychologie an der Northeastern University: „Wenn ein Chatbot Sie fragt, wie Ihr Tag heute war und Sie sagen: ‚Es ist wirklich mies‘. Und dann sagt der Chatbot: ‚Oh, erzähl mir davon‘. Der Teil, es einfach laut auszusprechen, ist therapeutisch. Wenn jemand anfängt, einen Chatbot als Freund wahrzunehmen, besteht die Gefahr, dass er eine starke Bindung an die kalte Maschine entwickelt.“

Ausblick

KI wird immer realistischer, präsenter und künftig vermutlich noch schwerer von echten Menschen in puncto Interaktion zu unterscheiden sein. Fortschritte bei der Modell-Personalisierung sowie emotionalen Stimmanpassung könnten die Bindungswirkung zwischen Menschen und Maschine zudem weiter verstärken.

Aufgrund von Halluzinationen und schädlichen Informationen stehen KI-Entwickler, Plattformbetreiber und die Politik in der Verantwortung, Schutzmechanismen einzubauen – etwa klare Altersgrenzen, Warnhinweise bei sensiblen Themen oder Filter gegen gefährliche Inhalte.

Ohne verbindliche Standards könnte sich die Lücke zwischen wahrgenommener und tatsächlicher Sicherheit weiter vergrößern. Für Erziehungsberechtigte bedeutet das, die ChatGPT-Nutzung ihrer Kinder kritisch zu begleiten.

Parallel eröffnet sich ein Raum für eine kreative und verantwortungsvolle Nutzung, indem Chatbots als Werkzeuge für Sprachtraining, den interkulturellen Austausch oder therapeutische Vorübungen genutzt werden. Unterm Strich kann und darf KI aber niemals Ersatz für etwas sein.

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Auch interessant: 

🤑 200€ Prämie abstauben

Eröffne jetzt dein kostenloses Santander Girokonto und staube für kurze Zeit bis zu 200 Euro Prämie für Neukunden ab. Schnell sein lohnt sich!


Jetzt 200€ sichern

Voraussetzungen gelten, Anzeige

STELLENANZEIGEN
Senior SAP Consultant FI/CO (f/m/div.)
Bosch Gruppe in Wetzlar
Vertriebsingenieur (Ingenieur Maschinenbau / ...
a2tec GmbH in Hamburg
Digital Marketing Manager (m/w/d)
Schwer Fittings GmbH in Denkingen
Personalberater (m/w/d)
Ratbacher GmbH - Karriere bei Rat... in Stuttgart, M...
Organizational Integration Manager (m/f/d)
Clarios Germany GmbH & Co. KG in
Vehicle Testing Lead (m/f/d)
Clarios Germany GmbH & Co. KG in
Sales Manager (m/w/d) Online Marketing
Sellwerk GmbH & Co. KG in Düsseldorf, Meerbusch, Kaa...
Sales Manager B2B für Stellenanzeigen und Soc...
Recruiting Excellence GmbH in Düsseldorf
Teile diesen Artikel
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).