Energieverbrauch KI Klima Prompts Green Prompting

Green Prompting: Wie du den Energieverbrauch von KI in Zaum halten kannst 

Fabian Peters
Constellation Energy, CC BY-SA 4.0 via Wikimedia Commons.

Nach dem Hype um die Fähigkeiten von Sprachmodellen rücken immer mehr die Probleme in den Vordergrund. Darunter: Falschinformationen in Form von Halluzinationen und der enorme Energieverbrauch von KI. Die Nutzereingaben, die sogenannten Prompts, entscheiden dabei darüber, wie viel Energie Künstliche Intelligenz verbraucht. 

Wenn es um den Energieverbrauch von KI geht, steht vor allem der sogenannte Inferenz-Prozess im Fokus, sprich: das Generieren von Antworten auf Nutzeranfragen. Laut einer aktuellen Studie mit dem Titel „Green Prompting“ lässt sich der Energiehunger von Sprachmodellen jedoch durch bewusst formulierte Eingaben in Zaum halten.

Prompts: Was beeinflusst den Energieverbrauch von KI?

Den Ergebnissen zufolge kann der Energieverbrauch von KI bei der Informationsausgabe deutlich variieren. Demnach würden unter anderem die Länge, die Komplexität und die Aufgabenart der Nutzereingaben diesen maßgeblich beeinflussen. Allerdings verursache ein längerer Prompt nicht zwangsläufig einen höheren Energieverbrauch.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 12.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück 50€ Amazon-Guthaben gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Vielmehr sei der semantische Gehalt der Eingaben entscheidend. Ein Prompt wie „Erkläre anhand von drei Beispielen, was Quantenmechanik ist, sodass ein zwölfjähriger es versteht“, verbraucht etwa deutlich mehr Energie als eine simple Ja/Nein-Frage – selbst wenn beide Prompts gleich lang sind.

Den Forschern zufolge treiben vor allem kreative und eher offene Aufgaben den Stromverbrauch in die Höhe, da KI-Modelle bei diesen längere und komplexere Texte generieren müssen. Das gilt unter anderem für das Storytelling, philosophische Erörterungen oder Meinungsbeiträge.

Auch gewisse Wörter oder Phrasen in einem Prompt können den Energieverbrauch von KI in die Höhe treiben. OpenAI-Chef Sam Altman antwortete einer Nutzerin auf X (ehemals Twitter) etwa, dass ChatGPT mehrere Millionen US-Dollar an Stromkosten verursacht, nur weil Nutzer Bitte und Danke sagen. Laut Studie ist dieser Effekt jedoch modellabhängig und aufgabenspezifisch.

Green Prompting: Wie du mit Prompts Energie sparen kannst

Mit sogenannten „grünen Prompts“ können Nutzer nicht nur bessere Ergebnisse erzielen, sondern auch gezielt dazu beitragen, den Energieverbrauch von KI in Zaum zu halten. Den Studienergebnissen zufolge haben selbst kleine Nutzereintscheidungen Einfluss auf die Energieeffizienz von Sprachmodellen – und damit indirekt auch auf den CO2-Fußabdruck von KI. Folgende Tipps können dabei hilfreich sein:

  1. Präzise und gezielte Formulierungen: Statt vage oder sehr offenen Fragen zu stellen („Erzähl mir etwas über Umweltschutz“) ist es weitaus effizienter, Prompts möglichst genau zu formulieren. Ein Beispiel: „Nenne drei kurze Fakten zum CO₂-Ausstoß durch Autos“. Eine klare Aufgabenstellung führt nicht nur zu besseren Antworten, sondern spart auch Rechenleistung. Ausschweifenden und mehrdeutige Eingaben sollten vermieden werden.
  2. Kontext sparsam einsetzen: Lange Hintergrundtexte oder Konversationen können den Energieverbrauch beim Prompting massiv erhöhen. Der Grund: Lange Konversationen sorgen dafür, dass ein KI-Modell alle vorherigen Informationen erneut verarbeiten muss. Wenn möglich, sollte sich der Kontext also auf das Nötigste beschränken.
  3. Wiederholungen vermeiden: Statt mehrere aufeinanderfolgende Nachfragen zu stellen („Was meinst du genau?“ – „Kannst du das nochmal erklären?“), ist es ökologischer, einen Prompt von Anfang an durchdacht zu formulieren. Denn: Viele Korrekturen erhöhen den Energieverbrauch.
  4. Einfache Antwortformate bevorzugen: Strukturierte Antwortformate wie Listen, Tabellen oder Ja/Nein-Fragen können den Stromverbrauch von KI in Zaum halten. Der Grund: Klare Vorstellungen, wie eine Antwort aussehen soll, können von KI-Modellen in der Regel schneller und ressourcenschonender verarbeitet werden. Das gilt auch für Vorgaben zur Länge der Antwort.

Auch interessant: 

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 12.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

STELLENANZEIGEN
Openstack Engineer (m/f/d)
CompuGroup Medical SE & Co. KGaA in Koblenz
E-Commerce Manager / Online Marketing Manager...
ars mundi Edition Max Büchner GmbH in Hannover
Trainee (m/w/d) Video Content Creation & ...
Eura Mobil GmbH in Sprendlingen
Werkstudent Online Marketing (w/m/d)
CAS Software AG in Karlsruhe
Working Student Hardware Evaluation & Des...
ALPS ALPINE EUROPE GmbH in Unterschleißheim bei München
Praktikant Marktforschung – Consumer In...
FERRERO MSC GmbH & Co. KG in Frankfurt am Main
Marketing und Social Media Manager m/w/d
MDH AG - Mamisch Dental Health in Mülheim an der Ruhr
Praktikant – Social Media Management (m...
Allianz Versicherungs-AG in Unterföhring (bei München)
Teile diesen Artikel
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).