Nach dem Hype um die Fähigkeiten von Sprachmodellen rücken immer mehr die Probleme in den Vordergrund. Darunter: Falschinformationen in Form von Halluzinationen und der enorme Energieverbrauch von KI. Die Nutzereingaben, die sogenannten Prompts, entscheiden dabei darüber, wie viel Energie Künstliche Intelligenz verbraucht.
Wenn es um den Energieverbrauch von KI geht, steht vor allem der sogenannte Inferenz-Prozess im Fokus, sprich: das Generieren von Antworten auf Nutzeranfragen. Laut einer aktuellen Studie mit dem Titel „Green Prompting“ lässt sich der Energiehunger von Sprachmodellen jedoch durch bewusst formulierte Eingaben in Zaum halten.
Prompts: Was beeinflusst den Energieverbrauch von KI?
Den Ergebnissen zufolge kann der Energieverbrauch von KI bei der Informationsausgabe deutlich variieren. Demnach würden unter anderem die Länge, die Komplexität und die Aufgabenart der Nutzereingaben diesen maßgeblich beeinflussen. Allerdings verursache ein längerer Prompt nicht zwangsläufig einen höheren Energieverbrauch.
Vielmehr sei der semantische Gehalt der Eingaben entscheidend. Ein Prompt wie „Erkläre anhand von drei Beispielen, was Quantenmechanik ist, sodass ein zwölfjähriger es versteht“, verbraucht etwa deutlich mehr Energie als eine simple Ja/Nein-Frage – selbst wenn beide Prompts gleich lang sind.
Den Forschern zufolge treiben vor allem kreative und eher offene Aufgaben den Stromverbrauch in die Höhe, da KI-Modelle bei diesen längere und komplexere Texte generieren müssen. Das gilt unter anderem für das Storytelling, philosophische Erörterungen oder Meinungsbeiträge.
Auch gewisse Wörter oder Phrasen in einem Prompt können den Energieverbrauch von KI in die Höhe treiben. OpenAI-Chef Sam Altman antwortete einer Nutzerin auf X (ehemals Twitter) etwa, dass ChatGPT mehrere Millionen US-Dollar an Stromkosten verursacht, nur weil Nutzer Bitte und Danke sagen. Laut Studie ist dieser Effekt jedoch modellabhängig und aufgabenspezifisch.
Green Prompting: Wie du mit Prompts Energie sparen kannst
Mit sogenannten „grünen Prompts“ können Nutzer nicht nur bessere Ergebnisse erzielen, sondern auch gezielt dazu beitragen, den Energieverbrauch von KI in Zaum zu halten. Den Studienergebnissen zufolge haben selbst kleine Nutzereintscheidungen Einfluss auf die Energieeffizienz von Sprachmodellen – und damit indirekt auch auf den CO2-Fußabdruck von KI. Folgende Tipps können dabei hilfreich sein:
- Präzise und gezielte Formulierungen: Statt vage oder sehr offenen Fragen zu stellen („Erzähl mir etwas über Umweltschutz“) ist es weitaus effizienter, Prompts möglichst genau zu formulieren. Ein Beispiel: „Nenne drei kurze Fakten zum CO₂-Ausstoß durch Autos“. Eine klare Aufgabenstellung führt nicht nur zu besseren Antworten, sondern spart auch Rechenleistung. Ausschweifenden und mehrdeutige Eingaben sollten vermieden werden.
- Kontext sparsam einsetzen: Lange Hintergrundtexte oder Konversationen können den Energieverbrauch beim Prompting massiv erhöhen. Der Grund: Lange Konversationen sorgen dafür, dass ein KI-Modell alle vorherigen Informationen erneut verarbeiten muss. Wenn möglich, sollte sich der Kontext also auf das Nötigste beschränken.
- Wiederholungen vermeiden: Statt mehrere aufeinanderfolgende Nachfragen zu stellen („Was meinst du genau?“ – „Kannst du das nochmal erklären?“), ist es ökologischer, einen Prompt von Anfang an durchdacht zu formulieren. Denn: Viele Korrekturen erhöhen den Energieverbrauch.
- Einfache Antwortformate bevorzugen: Strukturierte Antwortformate wie Listen, Tabellen oder Ja/Nein-Fragen können den Stromverbrauch von KI in Zaum halten. Der Grund: Klare Vorstellungen, wie eine Antwort aussehen soll, können von KI-Modellen in der Regel schneller und ressourcenschonender verarbeitet werden. Das gilt auch für Vorgaben zur Länge der Antwort.
Auch interessant: