Nils Althaus
Der ökologische Fußabdruck künstlicher Intelligenz sorgt für neue Klimaschuldgefühle. Ein Blick in die Zahlen zeigt, wie groß das Problem tatsächlich ist – und was wirklich hilft beim CO₂-Sparen.
Ob bei der Plastiktüte, den Gewächshaus-Tomaten oder beim Online-Shoppen – das schlechte Klimagewissen lauert überall. Seit neuestem gibt es einen weiteren Grund, sich schuldig zu fühlen: die Nutzung von KI. Eine ganze 500ml-Wasserflasche “trinke” ChatGPT bei jeder Konversation mit 10-50 Antworten, und jede ChatGPT-Anfrage brauche zehnmal so viel Energie wie eine Google-Suche. So war es in den sozialen Medien zu lesen.
Der Anteil der Rechenzentren am globalen Stromverbrauch steigt in der Tat stetig an – gemäss der internationalen Energieagentur um jährlich 12% und damit viermal so schnell wie der gesamte Stromverbrauch. Die größten geplanten Rechenzentren warten mit einem so gigantischen Energiehunger auf, dass große Tech-Firmen wie Amazon oder Meta ihnen eigene Kernkraftwerke zur Seite stellen wollen. Darf man als umweltbewusster Konsument ChatGPT überhaupt noch benutzen?
Das Wichtigste zuerst: Von den beliebtesten Chatbots (ChatGPT, Gemini, Claude) fehlen praktisch durchgängig die Daten. Weder OpenAI, Google noch Anthropic lassen sich beim Energieverbrauch ihrer Produkte gern in die Karten blicken. Deshalb basiert der Großteil der Forschung auf Open-Source-Modellen, die frei kopiert werden können. Die Resultate sind dadurch nur bedingt aussagekräftig. Trotzdem lassen sich einige Faustregeln ableiten.
Die Behauptung mit der Wasserflasche galt für das frühere OpenAI-Modell GPT-3, auf das nicht mehr zugegriffen werden kann. Sie stammt aus einer seriösen Quelle, muss aber in einen größeren Kontext gestellt werden: Im Durchschnitt verbraucht jeder Mensch in Deutschland täglich das Wasser von 256 solcher Flaschen. Der Vergleich mit der Google-Suche ist ebenfalls veraltet. Er basiert auf einem mittlerweile überholten Google-Blogeintrag von 2009, der behauptete, eine Google-Suche verbrauche 0.3 Wattstunden (Wh) Energie. Neuere und belastbare Daten gibt es nicht. Spätestens seitdem Google KI-Inhalte unter die Suchresultate mischt, dürfte dieser Vergleich ohnehin irrelevant geworden sein.
Was den Energiebedarf der KI-Modelle betrifft, bringt eine neue Studie aus München hingegen etwas Licht ins Dunkel. Die Wissenschaftler stellten 14 verschiedenen Open-Source-Sprachmodellen jeweils 1000 Fragen. Gleichzeitig ermittelten sie deren Stromverbrauch und rechneten diesen in CO2-Emissionen um. Das ressourcenintensivste Modell, das chinesische DeepSeek-r1 70 B, verursachte pro Frage 2 g CO2. Das entspricht der Menge, die entsteht, wenn man 15 Sekunden staubsaugt oder den Handy-Akku ungefähr um ein Viertel auflädt. Alle anderen Modelle, darunter einige ältere von Meta, verursachten deutlich geringere Emissionen – ein halbes Gramm CO2 oder weniger.
Der ausschlaggebende Faktor für die entstandene CO2-Menge war gemäß den Autoren die Anzahl generierter Wörter: “Höhere Emissionen sind vor allem auf den erhöhten Token-Output zurückzuführen”, schreibt Maximilian Dauner des Munich Center for Digital Sciences and AI. Das ist mit der Funktionsweise der Modelle zu erklären. Für jedes Wort, das ausgegeben wird, werden praktisch sämtliche der Milliarden von Verbindungen zwischen den künstlichen Neuronen einmal aktiviert. Das benötigt jedesmal Strom. Wird ein weiteres Wort – genauer gesagt ein Token – angehängt, folgt der nächste Durchlauf, usw., bis der ganze Text geschrieben ist.
Kurze Antworten sind also energiesparend. Diese Faustregel trifft weitgehend auf die herkömmlichen Sprachmodelle wie GPT-4o oder Claude 3.7 zu. Bei der neuen Generation wie o3, Gemini 2.5 oder auch DeepSeek-r1 70B hingegen ist sie bereits überholt. “Reasoning-Modelle produzieren bis zu 50 Mal mehr CO2 als herkömmliche Modelle”, so Dauner. Reasoning-Modelle formulieren erst mehrere Zwischenschritte, ehe sie eine Antwort ausgeben. Jeder Zwischenschritt besteht aus Wörtern, die für die nächsten Durchläufe wiederum als Input verwendet werden. Somit schreibt das Modell bisweilen seitenweise Text, der zwar Strom verbraucht aber in der finalen Antwort gar nicht erscheint. Vereinfacht gesagt raucht Reasoning-Modellen immer der Kopf, selbst wenn sie nur “ja” oder “nein” sagen. Es scheint plausibel, dass die hochwertigsten unter ihnen ein Vielfaches des CO2-Ausstoßes von DeepSeek-r1 70B verursachen.
Diese Logik lässt sich auch auf Videogeneratoren wie Veo 3 ausweiten. Sie basieren zwar auf einer etwas anderen Technik, generieren aber ebenfalls erhebliche Datenmengen. Ein kleines Open-Source-Modell namens CogVideoX verursachte umgerechnet 0.5 kg CO2 für ein fünfsekündiges Video. Bei Veo 3 oder Sora, die vermutlich deutlich mehr Parameter enthalten und Videos mit höherer Auflösung generieren, könnte der Fussabdruck um ein Vielfaches höher sein. Unbewegte Bilder zu erstellen hingegen ist vergleichsweise energieeffizient weil diese KI-Modelle in der Regel kleiner sind.
Weniger und kürzere Videos zu erstellen, verringert also den individuellen Fußabdruck merklich. Seltener mit KI-Modellen zu chatten auch, allerdings verblasst dieser Effekt im Vergleich zu anderen Verhaltensänderungen. Zur Erinnerung: Eine Anfrage bei DeepSeek verursachte einen Ausstoß von 0.002 kg CO2. Eine Portion Hähnchenfleisch zum Mittagessen (200g) produziert 1.1 kg CO2 – die gut 500-fache Menge. Eine Portion Rindfleisch schlägt mit 2.72 kg CO2 zu Buche, eine Autofahrt von Berlin nach Potsdam mit 12 kg CO2 und ein Flug von Berlin nach Mallorca mit 288 kg CO2. Um gleich viel CO2 wie bei einem Mallorca-Flug auszustoßen, müsste man 14 Wochen lang ununterbrochen Tag und Nacht DeepSeek-r1 70B jede Minute eine Frage stellen.
Bevor man also auf Chatbot-Diät geht, sollte man die Stellschraube eher beim Fleisch, Autofahren oder Fliegen ansetzen. Damit läßt sich deutlich mehr bewirken. Oder wie es der Physiker Andy Masley schrieb: „Wenn man sich Sorgen um die individuellen Emissionen macht, ist ChatGPT ein hoffnungsloses Mittel, um sie zu senken. Das ist so, als ob man Leuten, die zu viel Geld ausgeben, sagen würde, sie sollten einen Kaugummi weniger kaufen pro Monat.“
Wer aber bereits klimabewusst lebt oder auf Auto oder Flugzeug angewiesen ist, kann seine KI-bedingte CO2-Bilanz mit drei einfachen Regeln optimieren:
- Herkömmliche Modelle nutzen. Für alltägliche Anfragen wie die Umformulierung von Emails oder die Abfrage von kürzeren Informationen bieten Claude 3.7 oder GPT-4o ähnlich gute Resultate wie Reasoning-Modelle und sparen viel Energie.
- Reasoning-Modelle gezielt einsetzen. Bei komplexen Fragen sind sie oft unverzichtbar geworden, aber jede Anfrage hat ihren klimatechnischen Preis, vor allem bei den großen Modellen.
- Video-Generatoren wie Veo3 gar nicht oder ebenfalls sparsam nutzen.
Wer diese Regeln beachtet, darf sich das schlechte Gewissen guten Gewissens sparen.