Die Frage, inwieweit Künstliche Intelligenz menschliche Formen annehmen kann, beschäftigt derzeit viele Forscher. Laut einer neuen Studie kann KI inzwischen sogar Verständnis und Sprache von Kindern nachahmen.
Der Markt für Künstliche Intelligenz ist in den vergangenen Monaten förmlich explodiert. Seit der Veröffentlichung von ChatGPT überschlagen sich neue Meldungen zu Forschungserfolgen nahezu täglich.
Mit einer neuen Studie haben Forschende nun eine neue Fähigkeit von KI-Sprachmodellen wie ChatGPT entdeckt. Denn diese können laut den Studienergebnissen die Sprache und kognitiven Fähigkeiten von Kindern imitieren.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
ournalist (m/w/d) als Leiter PR und Social-Media NOMOS Glashütte/SA Roland Schwertner KG in Berlin |
||
Head of Social Media (m/w/d) Deichmann SE in Mülheim an der Ruhr (45478) |
KI kann Sprache von Kindern nachahmen
Die Forscher:innen der Humboldt-Universität zu Berlin haben für ihre Studie die Entwicklungsstadien der menschlichen Entwicklung unter die Lupe genommen. Dabei haben sie sowohl kognitive als auch sprachliche Fähigkeiten beleuchtet.
Dabei wollten sie herausfinden, bis zu welchem Grad KI-Sprachmodelle kognitive Fähigkeiten von Menschen simulieren können.
„Dank der Psycholinguistik haben wir ein relativ umfassendes Verständnis davon, wozu Kinder in verschiedenen Altersstufen fähig sind“, erklärt Studienautorin Anna Marklová. Dabei spiele insbesondere die „Theory of Mind“ eine wichtige Rolle, die die innere Welt des Kindes erforscht.
Wir haben diese Erkenntnis genutzt, um herauszufinden, ob große Sprachmodelle vorgeben können, weniger leistungsfähig zu sein als sie sind. Tatsächlich handelt es sich um eine praktische Anwendung von Konzepten, die in der Psycholinguistik seit Jahrzehnten diskutiert werden.
So ist die Studie abgelaufen
Für ihre Untersuchung haben die Forschenden um Anna Marklová 1.296 unabhängige Versuche mit GPT-3.5-turbo und GPT-4 durchgeführt. Dabei haben sie False-Belief-Aufgaben eingesetzt, um zu testen, ob die KI-Systeme ihre Antworten an verschiedene Altersspannen von Kindern anpassen können.
Für die Bewerbung der Antworten und ihrer sprachlichen Komplexität haben die Forschenden zwei Methoden eingesetzt. Zum einen wurde die Länge der Antwort durch das Zählen der Buchstaben analysiert.
Aber auch die Kolmogorov-Komplexität wurde unter die Lupe genommen. Diese bietet ein Maß für die Strukturiertheit der jeweiligen Antwort und der enthaltenen Informationen.
Dabei konnten die Forschenden ermitteln, dass mit zunehmendem Alter des simulierten Kindes auch die Komplexität der von den KI-Systemen verwendeten Sprache anstieg.
„Große Sprachmodelle sind in der Lage, eine geringere Intelligenz vorzutäuschen, als sie eigentlich besitzen“, erklärt Marklová im Gespräch mit PsyPost.
Dies impliziert, dass wir bei der Entwicklung von künstlicher Superintelligenz (ASI) vorsichtig sein müssen, um nicht zu verlangen, dass sie eine menschliche und damit begrenzte Intelligenz nachahmen.
Problematisch an den Ergebnissen der Studie sei vor allem, dass bei der Entwicklung von einer künstlicher Superintelligenz deren Fähigkeiten über einen längeren Zeitraum unterschätzt werden könnten. Marklová schätzt das als „keine sichere Situation“ ein.
Auch interessant: