Reasoning-Modelle KI Künstliche Intelligenz LRM

Studie: Sind Reasoning-Modelle weniger leistungsfähig als gedacht?

Maria Gramsch
Bild: Mit ChatGPT generiert (KI).

Anzeige

Reasoning-Modelle sollen in der Lage sein Schlussfolgerungen zu ziehen, Probleme zu analysieren und mehrstufige Denkprozesse durchzuführen. Doch ein neues Paper aus dem Hause Apple zeigt, wirft Zweifel an der tatsächlichen Reasoning-Kompetenz moderner KI-Modelle auf.

Large Reasoning Models (LRMs) unterscheiden sich von anderen KI-Modellen wie beispielsweise Large Language Models (LLMs) vor allem durch ihre Fähigkeit, logisch zu denken. Statt Muster zu erkennen, setzt diese Art von KI-Modell auf Schlussfolgerungen.

Reasoning-Modelle sollen deshalb in der Lage sein, mehrstufige Aufgaben zu lösen. Daran scheitern klassische Modelle meist, wenn beispielsweise Zwischenschritte nötig sind.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Beats-Kopfhörer gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

LRMs sind darauf ausgerichtet, wie Menschen zu denken. Doch dabei weisen die KI-Modelle immer noch gravierende Schwächen auf, wie ein neues Paper von Apple-Forschern untersucht hat.

Zweifel an Denkfähigkeiten von Reasoning-Modellen

Trotz beeindruckender Fortschritte bei Benchmarks zum logischen Denken bleiben zentrale Fragen zu den Fähigkeiten und Grenzen moderner LRMs laut den Apple-Forschern bisher offen. Denn aktuelle Bewertungen von Reasoning-Modellen, unter anderem von OpenAI, Google und Anthropic, stützen sich vor allem auf mathematische und codierte Benchmarks mit Blick auf die Endantwort. Dieses Vorgehen vernachlässigt jedoch die Analyse der Denkprozesse und ist anfällig für Verzerrungen in den Daten.

Um diese Denkprozesse zu untersuchen, haben die Forscher kontrollierte Rätselumgebungen eingesetzt. Dabei haben sie unter anderem die Modelle o3 mini von OpenAI, Deepseek-R1 sowie Claude 3.7 Sonnet unter die Lupe genommen und jeweils den „normalen“ KI-Modus mit dem Reasoning-Modus verglichen.

Dabei konnten sie die Komplexität einer Aufgabe gezielt variieren, aber gleichzeitig die logischen Strukturen aufrechterhalten. So konnten sie nicht nur das Ergebnis bewerten, sondern auch den inneren Denkweg der Modelle analysieren.

Wie haben die jeweiligen Modelle abgeschnitten?

Doch die Ergebnisse fallen ernüchternd aus. Denn ab einer gewissen Komplexität brechen die Modelle in ihrer Leistung vollständig ein. Zusätzlich konnten die Forscher überraschende Skalierungseffekte feststellen. Denn mit steigender Schwierigkeit einer Aufgabe nahm zunächst auch der kognitive Aufwand der Modelle zu. Dieser fällt dann jedoch wieder ab, obwohl genügend Rechenkapazität zur Verfügung stehen würde.

Die Forscher haben ihre Ergebnisse in drei Leistungszonen unterteilt. Demnach schneiden klassische KI-Modelle bei einfachen Aufgaben teilweise besser ab. Bei mittlerer Komplexität zeigen LRMs Vorteile durch zusätzliche Denkschritte. Bei hoher Komplexität hingegen erleben beide Modell-Arten einen „vollständigen Zusammenbruch“.

Die Forscher konnten analysieren, dass LRMs oft keine expliziten Algorithmen anwenden und daher bei logischen Aufgaben oft inkonsistent argumentieren. Auch strukturelle Schwächen im Denkverhalten konnten so aufgedeckt werden.

Selbst wenn die Forscher den Modellen den richtigen Lösungsalgorithmus zur Verfügung gestellt haben, konnte dieser keine Anwendung finden. „Trotz anspruchsvoller Mechanismen zur Selbstreflexion scheitern diese Modelle daran, allgemeine Reasoning-Fertigkeiten über einen bestimmten Schwierigkeitsgrad hinweg zu entwickeln“, heißt es in der Veröffentlichung.

Auch interessant:

🤝 25 Euro geschenkt!

Eröffne jetzt dein kostenloses NIBC Tagesgeld und erhalte bis zu 2,75 Prozent Zinsen auf dein Geld! Und obendrauf gibt's sogar noch 25 Euro geschenkt!


Jetzt Zinsen sichern

Voraussetzungen gelten, Anzeige

STELLENANZEIGEN
Graphic Designer & Content Creator (m/w/d)
FamiCord AG in Leipzig
Senior SAP Consultant FI/CO (f/m/div.)
Bosch Gruppe in Wetzlar
SAP Project Manager (m/w/d)
Bosch Gruppe in Stuttgart
Werkstudent*in Online Marketing (w/m/div)
Sparda-Bank Berlin eG in Berlin
Key Account Manager (m/w/d) im Bereich Online...
AZ fundraising services GmbH & Co. KG in Gütersloh
PreMaster Program | Software Engineer for MEM...
Bosch Gruppe in Reutlingen
Intern/Working Student (m/f/d) in Generative AI
Clarios Germany GmbH & Co. KG in Hannover
Intern (m/f/d) in Digital Marketing
Clarios Germany GmbH & Co. KG in Hannover
Teile diesen Artikel
Folgen:
Maria ist freie Journalistin und technische Mitarbeiterin an der Universität Leipzig. Seit 2021 arbeitet sie als freie Autorin für BASIC thinking. Maria lebt und paddelt in Leipzig und arbeitet hier unter anderem für die Leipziger Produktionsfirma schmidtFilm. Sie hat einen Bachelor in BWL von der DHBW Karlsruhe und einen Master in Journalistik von der Universität Leipzig.