Eine kurze Anfrage hier oder eine Zusammenfassung im Büro dort: Die Anzahl der KI-Chats steigt von Tag zu Tag. Was dabei die wenigsten Nutzer im Hinterkopf haben: Jede Antwort von ChatGPT und Co. ist mit hoher Rechenleistung verbunden – und dafür wiederum wird wahnsinnig viel Energie verbraucht.
Hintergrund: KI ist klimaschädlich
- Der französische KI-Spezialist Mistral AI hat die erste vollständige Lebenszyklusanalyse eines Large-Language-Modells (LLM) durchgeführt. Die Ergebnisse sind aufsehenerregend. Demnach ist vor allem das KI-Training schädlich. 81 Prozent der CO2-Emissionen und sogar 91 Prozent des Wasserverbrauchs entstehen durch das Training. Insgesamt liegt der Verbrauch des Mistral AI Large 2 Model nach eineinhalb Jahren bei 20,4 Kilotonnen CO2-Äquivalente und 281.000 Kubikmeter Wasser.
- Die International Energy Agency (IEA) hat in ihrem Electricity-Report vorhergesagt, dass der Stromverbrauch der weltweiten KI-Industrie im Jahr 2026 schon die zehnfache Menge an Energie verbrauchen wird wie noch im Jahr 2023. Der Stromverbrauch in europäischen Datenzentren soll im gleichen Zeitraum um 30 Prozent steigen, weil der Bedarf an Rechenzentren durch die benötigte Rechenleistung für KI-Projekte kontinuierlich steigt.
- Forscher der Universität Massachusetts haben sich schon 2019 damit befasst, wie hoch der CO2-Fußabdruck von KI-Modellen in der Sprachverarbeitung ist. Der Stromverbrauch von Prozessoren und Grafikkarten in einem 24-stündigen Test wurde mit den Trainingsstunden von KI-Modellen ins Verhältnis gesetzt. Das Ergebnis: Der CO2-Fußabdruck ist bis zu fünf Mal höher als der eines Benziners.
Einordnung: Bewusstsein für KI-Umweltverschmutzung in der Bevölkerung schaffen
Künstliche Intelligenz ist für viele Menschen – ob jung oder alt – in erster Linie einmal eine Spielerei. Und wenn wir ehrlich sind: Wir alle fragen unseren liebsten KI-Assistenten ab und an Dinge, die wir früher bei Google eingegeben hätten. Jetzt nutzen wir dafür ChatGPT und Co., weil die Suche nach dem richtigen Link entfällt – und weil wir alle faul sind.
Daran dass wir Menschen faule Lebewesen sind, können wir nichts ändern. Wenn wir durch neue Technologien mit einem geringeren Aufwand und weniger Anstrengung an unser Ziel kommen, ist es nur effizient, die bessere Technologie – also in diesem Fall die KI – zu nutzen. Es ist auch nicht ohne Grund so, dass Wikipedia die klassischen Lexika ersetzt hat und die E-Mail den Brief weitestgehend abgelöst hat.
Während eine E-Mail im Vergleich zu einem Brief jedoch zahlreiche Ressourcen eingespart hat, ist es im Fall von Künstlicher Intelligenz genau andersherum: Ein KI-Gespräch ist ressourcenintensiver als eine Google-Suche. Das wissen allerdings nur die wenigsten Menschen. Deshalb ist es wichtig, dass der hohe Energieverbrauch und die Belastung unserer Umwelt klar und deutlich kommuniziert wird – am besten direkt in der KI-Anwendung.
Stimmen
- Das Forscherteam der IEA fasst die Studienerkenntnisse mit Blick auf die Auswirkungen von KI auf den Stromverbrauch wie folgt zusammen: „Nach einem geschätzten weltweiten Verbrauch von 460 Terawattstunden (TWh) im Jahr 2022, könnte der gesamte Stromverbrauch von Rechenzentren im Jahr 2026 mehr als 1.000 TWh erreichen. Dieser Bedarf entspricht in etwa dem Stromverbrauch Japans. Aktualisierte Vorschriften und technologische Verbesserungen – insbesondere im Bereich der Effizienz – werden entscheidend sein, um den Anstieg des Energieverbrauchs von Rechenzentren zu begrenzen.“
- Auch die Ingenieure bei Mistral sind davon überzeugt, dass es klare Richtlinien und Vorgaben benötigt, um den Energie-Exodus der KI-Industrie in den Griff zu bekommen. Sie schlussfolgern: „Erstens sollten KI-Unternehmen zur Verbesserung von Transparenz und Vergleichbarkeit die Umweltauswirkungen ihrer Modelle unter Verwendung standardisierter, international anerkannter Rahmenwerke veröffentlichen. Wo erforderlich, könnten spezifische Standards für den KI-Sektor entwickelt werden, um Einheitlichkeit sicherzustellen. Dies könnte die Schaffung eines Bewertungssystems ermöglichen, das Käufern und Nutzern hilft, die am wenigsten kohlenstoff-, wasser- und materialintensiven Modelle zu identifizieren.“
- OpenAI-CEO Sam Altman blickt in einem Beitrag auf seinem eigenen Blog in die Zukunft. Auch für ihn ist es essenziell, dass der Verbrauch von KI sinkt – doch er ist positiv gestimmt: „Da die Produktion von Rechenzentren zunehmend automatisiert wird, sollten sich die Kosten für die Künstliche Intelligenz letztendlich den Stromkosten annähern. Eine ChatGPT-Anfrage verbraucht etwa 0,34 Wattstunden, was ungefähr so viel ist, wie ein Backofen in einer Sekunde verbraucht oder eine hocheffiziente Glühbirne in ein paar Minuten.“
Ausblick: Regulierung und Dokumentation
Kein Industriezweig trägt gerne das Image, besonders klimaschädlich zu sein. Dafür genügen kurze Gespräche mit Managern in der Automobil- oder Stahlindustrie. Nicht ohne Grund versuchen unzählige Unternehmen mit zweifelhaften Greenwashing-Kampagnen ihre schmutzige CO2-Bilanz aufzubessern.
Auch die KI-Industrie wächst still und heimlich zu einem schwarzen Schaf heran. Deshalb ist es gut, dass es mit dem AI Act in der Europäischen Union schon eine rechtliche Grundlage dafür geschaffen worden ist, die Tech-Konzerne dazu verpflichtet, ihre Verbrauchsdaten – früher oder später – zu erfassen und zu dokumentieren.
Damit nicht nur europäische KI-Unternehmen strengen Aufsichtspflichten unterliegen, sondern auch US-amerikanische und chinesische Firmen ihre Energieverschwendung in den Griff bekommen, braucht es international gültige Branchenstandards, die ernsthaft kontrolliert werden.
Auch interessant: