DeepSeek Energie Nachhaltigkeit KI China

DeepSeek: China-KI verbraucht offenbar mehr Energie als angenommen

Felix Baumann
unsplash.com/ Solen Feyissa

Anzeige

Die China-KI DeepSeek sorgt derzeit für Diskussionen. Denn trotz effizientem Training verbraucht das Sprachmodell offenbar mehr Energie als bislang angenommen. 

DeepSeek hat in der KI-Branche für Furore gesorgt. Unternehmensangaben zufolge soll das Sprachmodell nicht nur mit ChatGPT mithalten können, sondern besonders energieeffizient sein. Doch aktuelle Daten, die der MIT Technology Review vorliegen, zeigen ein anderes Bild. DeepSeek könnte beim Generieren von Antworten demnach sogar mehr Energie verbrauchen als vergleichbare KI-Modelle.

Denn die China-KI nutzt eine verbesserte Variante des sogenannten „Mixture of Experts“-Ansatzes, bei dem nur ein Teil der Modellparameter während des Trainings aktiv ist, was Energie sparen soll. Doch der eigentliche Knackpunkt ist die Nutzung des Modells (Inference). Dabei zeigt sich, dass DeepSeek durch seine komplexe „Chain-of-Thought“-Logik deutlich mehr Rechenleistung benötigt, um Antworten zu generieren.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Beats-Kopfhörer gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

DeepSeek verbraucht nach dem Training deutlich mehr Energie

Konkret bedeutet das: Während die Forscher das Training optimierten, benötigt DeepSeek für jede einzelne Anfrage mehr Energie als andere Modelle – teilweise bis zu 87 Prozent mehr als ein vergleichbares Meta-Modell mit 70 Milliarden Parametern. Das liegt unter anderem daran, dass die Antworten von DeepSeek oft deutlich länger ausfallen.

Ein Problem ist die mögliche Verbreitung dieser Technik. Denn wenn andere Unternehmen den Ansatz von DeepSeek kopieren und auf viele KI-Anwendungen übertragen, könnte der Energieverbrauch massiv steigen. Ähnlich wie bei der Entwicklung von generativer KI könnte die Nachfrage nach leistungsstarken Modellen den Effizienzgewinn durch optimiertes Training wieder zunichtemachen – ein klassisches Beispiel für das sogenannte Jevons-Paradoxon.

Langfristige Probleme im Hinblick auf Nachhaltigkeit

Die langfristigen Auswirkungen sind noch unklar. Aber Experten wie Sasha Luccioni von Hugging Face warnen davor, dass der Hype um DeepSeek dazu führen könnte, dass diese rechenintensive Technik unnötig oft eingesetzt wird. Wenn KI-Modelle in Zukunft durchgehend „Chain-of-Thought“-Prozesse nutzen, könnte das die gesamte Energieeffizienz der Branche stark verschlechtern.

DeepSeek ist ein konkurrenzfähiges Modell, das aber auch die Herausforderungen neuer KI-Technologien offenbart. Obwohl es effizienter trainiert wurde, könnte sein höherer Energieverbrauch bei der Nutzung ein ernsthaftes Problem in puncto Nachhaltigkeit darstellen. Die kommenden Monate dürften zeigen, ob sich der Ansatz von DeepSeek wirklich durchsetzen oder ob die Energiefrage einige Unternehmen zum Umdenken bewegen wird.

Auch interessant:

Zins-Knaller bei der NIBC!

Eröffne jetzt dein kostenloses NIBC Tagesgeld und erhalte bis zu 2,75 Prozent Zinsen auf dein Geld – bei täglicher Verfügbarkeit!


Jetzt Zinsen sichern

Voraussetzungen gelten, Anzeige

STELLENANZEIGEN
Senior SAP Consultant FI/CO (f/m/div.)
Bosch Gruppe in Wetzlar
Vertriebsingenieur (Ingenieur Maschinenbau / ...
a2tec GmbH in Hamburg
Digital Marketing Manager (m/w/d)
Schwer Fittings GmbH in Denkingen
Personalberater (m/w/d)
Ratbacher GmbH - Karriere bei Rat... in Stuttgart, M...
Organizational Integration Manager (m/f/d)
Clarios Germany GmbH & Co. KG in
Vehicle Testing Lead (m/f/d)
Clarios Germany GmbH & Co. KG in
Sales Manager (m/w/d) Online Marketing
Sellwerk GmbH & Co. KG in Düsseldorf, Meerbusch, Kaa...
Sales Manager B2B für Stellenanzeigen und Soc...
Recruiting Excellence GmbH in Düsseldorf
Teile diesen Artikel
Felix Baumann ist seit März 2022 Redakteur bei BASIC thinking. Bereits vorher schrieb er 4 Jahre für den Online-Blog Mobilegeeks, der 2022 in BASIC thinking aufging. Nebenher arbeitet Felix in einem IT-Unternehmen und beschäftigt sich daher nicht nur beim Schreiben mit zukunftsfähigen Technologien.