ChatGPT: CO2-Fußabdruck für Einzel-Nutzer:innen sehr gering

Eine der größten Sorgen rund um den AI-Boom dreht sich um den ökologischen Fußabdruck von ChatGPT und Co. Viele Skeptiker:innen haben die Befürchtung, dass die massiven Mengen an Energie, die große Sprachmodelle (LLMs) in Anspruch nehmen, eine große Belastung für die Umwelt darstellen. Die britische Datenwissenschaftlerin Hannah Ritchie hat nun jedoch eine Analyse durchgeführt, die besagt: Die Verwendung von ChatGPT durch gewöhnliche Verbraucher:innen hat im Vergleich zu vielen alltäglichen Vorgängen einen relativ geringen CO2-Abdruck.
Eine Anfrage an ChatGPT verbraucht drei Wattstunden
In einer früheren Analyse hat sich Hannah Ritchie auf den Klimaabdruck von AI im Allgemeinen, also den von großen Playern und ihren gewaltigen Rechenzentren, konzentriert. Die aktuelle Untersuchung dagegen bezieht sich besonders auf die Bedeutung von AI-Tools für den ökologischen Fußabdruck von einzelnen Personen. „Ich habe den Eindruck, dass viele klimabewusste Menschen ein schlechtes Gewissen haben, wenn sie ChatGPT benutzen. In der Tat geht das noch weiter: Ich glaube, viele verurteilen andere dafür, dass sie ChatGPT benutzen, weil sie die Auswirkungen auf die Umwelt für zu groß halten“, so Ritchie.
Die gängige Faustregel besagt laut der Forscherin, dass ChatGPT 10-mal so viel Energie verbraucht wie eine Google-Suche. Doch nach ihrer Rechnung brauchen sich einzelne Nutzer:innen keine Sorge über ihren individuellen CO2-Abdruck zu machen. Sie bezieht sich bei ihrer Analyse auf die Rechnung von Andy Masley, dem Direktor des US-Thinktanks Effective Altruism DC. Diese hat ergeben, dass jede Anfrage an ChatGPT einen Energieverbrauch von 3 Wattstunden (Wh) auslöst. Ritchie rückt diese Zahl in eine entsprechende Perspektive.
Alltäglicher Stromverbrauch stellt Energie für AI in den Schatten
Ihr zufolge erzeugt beispielsweise Großbritannien etwa 4.500 Kilowattstunden (kWh) – oder 4.500.000 Wh – Strom pro Person und Jahr. Der durchschnittliche Stromverbrauch in Großbritannien beträgt 12.000 Wh pro Tag. Das bedeutet, dass eine ChatGPT-Suche 0,00007 % des jährlichen Pro-Kopf-Stromverbrauchs entspricht. Selbst 100 Suchvorgänge pro Tag würden nur auf etwa 2 % des täglichen Strombedarfs kommen.
Der Stromverbrauch in den USA ist etwa dreimal so hoch wie in Großbritannien, wodurch ChatGPT-Aufforderungen einen noch kleineren Teil ausmachen. Zehn Suchanfragen pro Tag entsprechen 0,09 % der Pro-Kopf-Stromerzeugung, während 100 Suchanfragen 0,9 % ausmachen würden. Ist man also kein „Power-User“ von AI-Tools, macht das angesichts des täglichen Stromverbrauchs im Haushalt kaum einen Unterschied. Eine Google-Suche verbraucht übrigens auch nur eine winzige Menge an Strom.
Eine wichtige Frage ist natürlich, wie nachhaltig der Strom ist, mit denen die Anbieter der Sprachmodelle ihre Rechenzentren betreiben. Laut Hannah Ritchie stößt eine Abfrage etwa 2 bis 3 Gramm CO2 aus. Wenn man demnach ein ganzes Jahr jeden Tag 10 Abfragen durchführen würden, würde sich der CO2-Fußabdruck um 11 Kilogramm CO2 erhöhen. Das wäre wieder ein sehr kleiner Anteil, immerhin beträgt der durchschnittliche CO2-Fußabdruck in Großbritannien – allein durch Energie und Industrie – etwa 7 Tonnen pro Person.
Für Ritchie würde es keinen großen Unterschied machen, auf ChatGPT und Co zu verzichten. Viel mehr Auswirkungen hätten „kleine Dinge“ wie Recycling, die Wiederverwendung von Plastiksackerln und das Auswechseln von Glühbirnen.
Schuldgefühle für reguläre Nutzer:innen unangebracht
In ihrer Analyse weist Hannah Ritchie darüber hinaus darauf hin, dass ihre Schätzung sehr „pessimistisch“ ist. Aktuellere Analysen deuten darauf hin, dass eine ChatGPT-Abfrage nur noch 0,3 Wh verbraucht – zehnmal weniger. Laut einigen Analysen könnte der Wert sogar noch niedriger sein. Der Energieverbrauch wird oft von der Länge und Komplexität der Anfragen beeinflusst, doch die meisten User würden den AI-Modellen nur simple, kurze Fragen stellen. Eine typische Abfrage verbrauche weit weniger Energie als eine normale Glühbirne oder auch nur der Betrieb eines Laptops für 5 Minuten.
Eine standardmäßige textbasierte Suche mit ChatGPT verbrauche nur eine winzige Menge an Energie. Hannah Ritchie zufolge macht es keinen Sinn, Nutzer:innen von ChatGPT Schuldgefühle zu machen. „Für die regelmäßigen oder sogar relativ häufigen Nutzer von textbasierten LLMs gilt: Hören Sie auf, sich über den Energie- und Kohlenstoff-Fußabdruck Gedanken zu machen. Es ist keine große Sache, und wenn Sie sich auf 5 Suchanfragen pro Tag beschränken, wird das keinen Unterschied machen. Es könnte sich sogar negativ auswirken, weil Sie auf einige der Vorteile und Effizienzgewinne verzichten, die diese Modelle mit sich bringen“, so die Datenforscherin.
Das gelte aber nicht unbedingt für Power-User, die viele hochwertige Videos und Audiodateien erstellen. Zwar verursache die Erstellung von Bildern ähnliche Energiekosten wie textbasierte Abfragen, doch bei Video und Audio gehe man von einem größeren Stromverbrauch aus. Ritchie gibt zu bedenken, dass der Energiebedarf von KI insgesamt dennoch durchaus ein Problem darstellt. Doch dieses habe „nur“ eine ähnliche Größenordnung wie andere Sektoren wie Autos, Heizungen oder Teile der Industrie. Doch Einzelpersonen, die Chatbots abfragen, würden nur einen relativ kleinen Teil des Gesamtenergieverbrauchs von KI ausmachen.