Welche KI-Modelle können sich in Sachen Datenschutz behaupten? Eine neue Analyse macht einen klaren Gewinner aus, der sogar aus Europa kommt. Auch ChatGPT schneidet nicht schlecht ab.
Daten spielen eine zentrale und grundlegende Rolle für das Training von Künstlicher Intelligenz. Denn ohne Daten kann eine KI nicht lernen und auch keine sinnvollen Ergebnisse liefern.
Doch dafür nutzen viele KI-Modelle auch die Daten ihrer Nutzer. Der Datenschutz bleibt dabei oft auf der Strecke. Allerdings gibt es auch KI-Modelle, die in Sachen Datenschutz punkten können, wie eine Analyse von Incogni zeigt.
Welche KI-Modelle legen besonderen Wert auf Datenschutz?
Die Nutzerzahlen vieler KI-Tools nehmen weiter zu. Doch die Nutzung hat nicht nur Vorteile. Denn laut Incogni birgt die Integration in tägliche Arbeitsabläufe „das Potenzial für unbefugte Datenweitergabe, Missbrauch und Offenlegung personenbezogener Daten“. Diese Entwicklung nehme derzeit schneller zu als Datenschutzbeauftragte oder -bewertungen mithalten können.
Obwohl diese Tools die Produktivität steigern können, sind sich die meisten Nutzer der komplexen Datenschutzprobleme hinter den Kulissen nicht bewusst.
Problematisch sei vor allem, dass es für den durchschnittlichen Nutzer „schlichtweg unmöglich geworden“ ist, über die sich entwickelnden Datenschutzrisiken und Datenverarbeitungsmethoden auf dem Laufenden zu bleiben. Deshalb hat Incogni die beliebtesten LLMs unter die Lupe genommen und anhand von elf Kriterien die Datenschutzrisiken ermittelt.
Zu den untersuchten KI-Sprachmodellen gehören: ChatGPT von OpenAI, Meta AI, Gemini von Google, Copilot von Microsoft, Grok von xAI, Claude von Anthropic, Pi AI von Inflection AI, das französische Modell Le Chat von Mistral AI und das chinesische KI-Modell DeepSeek.
In ihrem Ranking machen die Forscher von Incogni einen deutlichen Gewinner aus: Le Chat verletzt demnach am wenigsten die Privatsphäre seiner Nutzern. Das französische KI-Modell ist im Ranking dicht gefolgt von ChatGPT auf Platz zwei.
Beide Plattformen konnten vor allem hinsichtlich der Transparenz über die Verwendung und Erfassung von Daten punkten. Außerdem sei es bei Le Chat und ChatGPT am einfachsten, der Verwendung personenbezogener Daten für das Training zu widersprechen.
Diese Modelle schneiden am schlechtesten ab
Für ihre Analyse haben die Forscher von Incogni unter anderem untersucht, welche Daten von den großen Sprachmodellen für das Training verwendet werden. Aber auch die Weitergabe von personenbezogenen Daten an Dritte ist in die Auswahl eingeflossen.
Am schlechtesten haben dabei die großen Tech-Konzerne abgeschnitten. Demnach belegte Meta AI den letzten Platz, gefolgt von Googles Gemini und Microsofts Copilot.
Problematisch sei bei den Modellen Gemini, DeepSeek, Pi AI und Meta AI vor allem, dass sie es Nutzern offenbar nicht ermöglichen, die Verwendung ihrer Prompts für das Trainieren der Modelle abzulehnen.
Auch interessant: