Technologie

Künstliche Intelligenz ist überhaupt nicht intelligent – sagen Forscher

Künstliche Intelligenz nicht intelligent, Deepmind, Google
Adobe Stock/ TripleP Studio
geschrieben von Fabian Peters

Laut einem Forschungspapier ist Künstliche Intelligenz im Prinzip überhaupt nicht intelligent. Denn KI-Modelle seien nicht in der Lage, Ergebnisse außerhalb ihrer Trainingsdaten zu erzielen. Die Hintergründe. 

Forscher von Deepmind, dem KI-Unternehmen von Google-Mutterkonzern Alphabet, haben sich in einem Forschungspapier mit dem Entwicklungsstand von Künstlicher Intelligenz beschäftigt. Das Ergebnis: KI-Modelle seien im Prinzip überhaupt nicht intelligent, da sie kaum in der Lage sind, Ergebnisse außerhalb ihrer Trainingsdaten zu erzielen.

Ist Künstliche Intelligenz überhaupt intelligent?

Das Forschungspapier ist bislang zwar noch nicht durch das sogenannte Peer-Review-Verfahren gelaufen – sprich: Es wurde noch nicht von unabhängigen Wissenschaftlern überprüft. Allerdings gelten die Google-Forscher und Autoren Steve Yadlowsky, Lyric Doshi und Nilesh Tripuraneni als Experten auf ihrem Gebiet.


Neue Stellenangebote

Growth Marketing Manager:in – Social Media
GOhiring GmbH in Homeoffice
Online Marketing Consultant (all genders) Schwerpunkt Social Media
PIA Media GmbH in München
Social Media Manager (m/w/d)
Müller Holding GmbH & Co. KG in Ulm

Alle Stellenanzeigen


Den empirischen Ergebnissen zufolge seien KI-Modelle zwar in der Lage, kontextabhängig Aufgaben zu lösen und zu lernen. Allerdings müssten die zuvor antrainierten Daten dafür aussagekräftig genug sein.

„Wenn sie jedoch mit Aufgaben oder Funktionen konfrontiert werden, die außerhalb der Domäne ihrer Vortrainingsdaten liegen, zeigen wir verschiedene Versagensmodi der Transformatoren und eine Verschlechterung ihrer Generalisierung selbst für einfache Extrapolationsaufgaben“, so die Forscher.

KI kann nur Aufgaben lösen, wenn die Trainingsdaten stimmen

Heißt konkret: KI-Modelle sind nur so gut wie die Daten, die ihnen zugrundeliegen. Die Untersuchungen beziehen sich zwar auf GPT-2 von ChatGPT-Entwickler OpenAI. Allerdings betonen die Forscher, dass ihre Ergebnisse grundsätzlich für sogenannte Transformer-Modelle gelten.

Solch ein Modell ist auch ChatGPT – das „T“ in GPT steht für Transformer. Solche Modelle seien in der Lage, eigenständig aus einem Input einen Output zu berechnen. In der Wissenschaft gelten sie deshalb am ehesten als eine Form von KI, die das Potenzial habe, wirklich intelligent zu sein.

Tranformer-Modellen wohnte deshalb auch das Versprechen inne, dass sie über die ihnen antrainierten Daten hinausgehen können. Doch selbst trotz gigantischer Datensätze hat bisher noch keine Künstliche Intelligenz eine nachweisliche Eigenständigkeit entwickelt. Den Google-Forschern zufolge seien die Trainingsdaten derweil essenziell.

Überraschend ist diese Erkenntnis zwar nicht, da Forscher seit dem Release von ChatGPT die Erwartungen an Künstliche Intelligenz herunterschrauben. Doch einige Experten sind nach wie vor der Ansicht, dass KI in der Lage sei, „Gedanken“ zu entwickeln, die sich von menschlichen unterscheiden. Eine solche Artificial General Intelligence (AGI) ist bislang aber nur ein hypothetisches Modell.

Auch interessant:

Über den Autor

Fabian Peters

Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).