Die KI-Chatbots von Meta stehen in der Kritik, weil sie möglicherweise Interaktionen mit Minderjährigen zulassen. Der US-Konzern hat nun Änderungen vorgenommen, die Experten zufolge aber noch nicht weit genug reichen.
Erst vor wenigen Wochen hat eine Recherche von Reuters provokantes Verhalten bei den KI-Chatbots aus dem Hause Meta aufgedeckt. Sowohl Meta AI als auch die Chatbots bei Facebook, WhatsApp und Instagram ermöglichen demnach unter anderem „romantische oder sinnliche Gespräche“ mit Kindern oder liefern falsche medizinische Informationen.
Der US-Konzern hat nun reagiert und die Richtlinien für seine Chatbots angepasst, wie das Unternehmen gegenüber TechCrunch mitteilt. Allerdings handle es sich dabei nur um vorläufige Maßnahmen.
Kann Meta seine KI-Chatbots noch kontrollieren?
Meta hat erklärt, die Chatbots so zu trainieren, dass sie sich nicht an Gesprächen mit Minderjährigen über Selbstverletzung, Suizid oder Essstörungen beteiligen. Auch unangemessene romantische Aussagen sollen demnach vermieden werden.
Die Änderungen seien allerdings nur vorläufig, da das Unternehmen derzeit an neuen, dauerhaften Richtlinien arbeitet. „Da unsere Community wächst und sich die Technologie weiterentwickelt, lernen wir ständig, wie junge Menschen mit diesen Tools interagieren, und verstärken unseren Schutz entsprechend“, erklärt Meta-Sprecherin Stephanie Otway.
Im Zuge der Weiterentwicklung unserer Systeme fügen wir als zusätzliche Vorsichtsmaßnahme weitere Schutzmaßnahmen hinzu – beispielsweise schulen wir unsere KIs darin, Jugendliche nicht auf diese Themen anzusprechen, sondern sie zu Expertenressourcen zu führen.
Die Aktualisierungen seien laut Otway bereits in Arbeit. Das Unternehmen arbeite kontinuierlich daran, dass „Jugendliche sichere und altersgerechte Erfahrungen mit KI machen“.
Interne Dokumente belegen zulässiges Fehlverhalten
Mit den Änderungen reagiert Meta auf die Enthüllungen von Reuters. Diese hatten die Erlaubnis für sexualisiertes Fehlverhalten von KI-Chatbots in internen KI-Richtlinien von Meta aufgedeckt.
Demnach sei es möglich gewesen, auf Anfrage Bilder von Promis ohne Oberteil zu generieren. Laut dem Bericht von Reuters sei sogar ein Mann gestorben, nachdem er einem Chatbot zu einer von Meta angegebenen Adresse in New York gefolgt war. Meta-Sprecherin Otway räumte gegenüber TechCrunch nun Fehler ein.
Allerdings hat Meta auch ein KI-Bot-Problem, das Reuters aufgedeckt hat. Viele Bots, die sich als Promis ausgeben, hat Meta nun entfernt. Allerdings existieren auch noch zahlreiche, die unter anderem auch von Meta-Mitarbeitern erstellt wurden.
Problematisch ist dabei vor allem, dass sich diese Bots nicht nur als Promis ausgeben, sondern oft behaupten, real zu sein. Auch bieten sie Treffen in der realen Welt an oder gaukeln „echte Gefühle“ vor.
Auch interessant: