Technologie

KI kann Verständnis und Sprache von Kindern imitieren – sagt Studie

KI Sprache, Künstliche Intelligenz, KI Kinder, Kind, Roboter
Adobe Stock / Framestock
geschrieben von Maria Gramsch

Die Frage, inwieweit Künstliche Intelligenz menschliche Formen annehmen kann, beschäftigt derzeit viele Forscher. Laut einer neuen Studie kann KI inzwischen sogar Verständnis und Sprache von Kindern nachahmen.

Der Markt für Künstliche Intelligenz ist in den vergangenen Monaten förmlich explodiert. Seit der Veröffentlichung von ChatGPT überschlagen sich neue Meldungen zu Forschungserfolgen nahezu täglich.

Mit einer neuen Studie haben Forschende nun eine neue Fähigkeit von KI-Sprachmodellen wie ChatGPT entdeckt. Denn diese können laut den Studienergebnissen die Sprache und kognitiven Fähigkeiten von Kindern imitieren.


Neue Stellenangebote

Growth Marketing Manager:in – Social Media
GOhiring GmbH in Homeoffice
Social Media Content Creator (m/w/d)
KLINIK BAVARIA Kreischa / Zscheckwitz in Kreischa
Content Creator / Content Creatorin (m/w/d) – Schwerpunkt Video und Social Media
BGHM Berufsgenossenschaft Holz und Metall in Mainz

Alle Stellenanzeigen


KI kann Sprache von Kindern nachahmen

Die Forscher:innen der Humboldt-Universität zu Berlin haben für ihre Studie die Entwicklungsstadien der menschlichen Entwicklung unter die Lupe genommen. Dabei haben sie sowohl kognitive als auch sprachliche Fähigkeiten beleuchtet.

Dabei wollten sie herausfinden, bis zu welchem Grad KI-Sprachmodelle kognitive Fähigkeiten von Menschen simulieren können.

„Dank der Psycholinguistik haben wir ein relativ umfassendes Verständnis davon, wozu Kinder in verschiedenen Altersstufen fähig sind“, erklärt Studienautorin Anna Marklová. Dabei spiele insbesondere die „Theory of Mind“ eine wichtige Rolle, die die innere Welt des Kindes erforscht.

Wir haben diese Erkenntnis genutzt, um herauszufinden, ob große Sprachmodelle vorgeben können, weniger leistungsfähig zu sein als sie sind. Tatsächlich handelt es sich um eine praktische Anwendung von Konzepten, die in der Psycholinguistik seit Jahrzehnten diskutiert werden.

So ist die Studie abgelaufen

Für ihre Untersuchung haben die Forschenden um Anna Marklová 1.296 unabhängige Versuche mit GPT-3.5-turbo und GPT-4 durchgeführt. Dabei haben sie False-Belief-Aufgaben eingesetzt, um zu testen, ob die KI-Systeme ihre Antworten an verschiedene Altersspannen von Kindern anpassen können.

Für die Bewerbung der Antworten und ihrer sprachlichen Komplexität haben die Forschenden zwei Methoden eingesetzt. Zum einen wurde die Länge der Antwort durch das Zählen der Buchstaben analysiert.

Aber auch die Kolmogorov-Komplexität wurde unter die Lupe genommen. Diese bietet ein Maß für die Strukturiertheit der jeweiligen Antwort und der enthaltenen Informationen.

Dabei konnten die Forschenden ermitteln, dass mit zunehmendem Alter des simulierten Kindes auch die Komplexität der von den KI-Systemen verwendeten Sprache anstieg.

„Große Sprachmodelle sind in der Lage, eine geringere Intelligenz vorzutäuschen, als sie eigentlich besitzen“, erklärt Marklová im Gespräch mit PsyPost.

Dies impliziert, dass wir bei der Entwicklung von künstlicher Superintelligenz (ASI) vorsichtig sein müssen, um nicht zu verlangen, dass sie eine menschliche und damit begrenzte Intelligenz nachahmen.

Problematisch an den Ergebnissen der Studie sei vor allem, dass bei der Entwicklung von einer künstlicher Superintelligenz deren Fähigkeiten über einen längeren Zeitraum unterschätzt werden könnten. Marklová schätzt das als „keine sichere Situation“ ein.

Auch interessant:

Über den Autor

Maria Gramsch

Maria ist freie Journalistin und technische Mitarbeiterin an der Universität Leipzig. Seit 2021 arbeitet sie als freie Autorin für BASIC thinking. Maria lebt und paddelt in Leipzig und arbeitet hier unter anderem für die Leipziger Produktionsfirma schmidtFilm. Sie hat einen Bachelor in BWL von der DHBW Karlsruhe und einen Master in Journalistik von der Universität Leipzig.

Kommentieren