Future{hacks}: Rechenstrom ohne Reue: Wie KI wachsen kann, ohne Netz und Kosten zu sprengen

KI ist vom Demo-Spielzeug zum Produktionswerkzeug geworden. Was früher als Proof of Concept lief, verarbeitet heute Kundendaten in CRM und ERP, beantwortet Anfragen und steuert Abläufe. Der Preis dafür ist Energie, viel Energie. Mehrere Berichte, darunter die Internationale Energieagentur (IEA) und Analysen des Öko-Instituts, erwarten bis 2030 einen Rechenzentrumsstrom von rund 945 TWh. Das entspricht in etwa dem heutigen Jahresverbrauch von Japan und wäre ungefähr eine Verdopplung gegenüber heute, getrieben vor allem von KI-Workloads.
Die Einzelnutzung wird effizienter, die Summe explodiert
Neue Referenzwerte von Google zeigen: Ein typischer Text Prompt in Gemini verbraucht rund 0,24 Wh Energie, verursacht etwa 0,03 g CO₂e und benötigt circa 0,26 ml Wasser pro Anfrage. Das ist pro Nutzung beeindruckend und spart in Summe nicht nur Energie, sondern auch Geld. Es ändert aber nichts am Gesamteffekt, wenn Millionen Prompts rund um die Uhr laufen. Wichtig ist zudem die Einordnung. Die Angaben betreffen die Ausführung einzelner Anfragen, also die Inference. Das deutlich aufwendigere Training eines Modells ist darin nicht enthalten. Standortfaktoren wie der lokale Strommix und die Kühlung können die reale Bilanz zusätzlich verändern.
Brandaktuell aus der Praxis: Meta baut, das Netz stolpert
In den USA wird derzeit ein neues KI Rechenzentrum von Meta so groß geplant, dass der Versorger zusätzliche Kraftwerksleistung aufbauen muss. Zwei Gaskraftwerke sollen 2028 ans Netz, ein weiteres 2029, parallel sind große Solarprojekte vorgesehen. Das Beispiel zeigt die reale Spannung zwischen KI Skalierung und Energieinfrastruktur. Der Bedarf wächst schneller als Netze und Erzeugung nachziehen, weshalb Übergangslösungen mit fossilen Brücken entstehen, flankiert von erneuerbaren Zubauten.
Europa unter Druck
Auch in Europa sind die Anschlusszeiten der harte Engpass. In Großbritannien prüfen Entwickler Gas Brücken, weil Stromanschlüsse Jahre dauern. In Irland lag der Anteil der Rechenzentren an der Landesstrommenge zuletzt bei rund 22 Prozent, im Großraum Dublin gilt bis 2028 faktisch ein Anschlussstopp. Kurz gesagt. KI skaliert schneller als Netze wachsen. Standortwahl und Anschlussstrategie werden zur Chefsache, je nach Unternehmenskultur auch zur C-Level Priorität oder Vorstandsagenda.
DACH Fokus: Regeln und Projekte, die halten
Der DACH Raum setzt auf verbindliche Leitplanken und sichtbare Praxis. Deutschland verankert mit dem Energieeffizienzgesetz Effizienz und erneuerbare Beschaffung als Pflichtaufgabe, inklusive Zielwerten für die PUE, also das Verhältnis aus Gesamtstrom zu reinem IT Strom, und Vorgaben zur Abwärmenutzung. Österreich zeigt, wie die Wärmerückgewinnung in der Stadt funktioniert, wenn Rechenzentren wie in Wien Abwärme in nahegelegene Gebäude einspeisen. In der Schweiz forcieren Branchenstandards und konkrete Projekte die Rückspeisung von Serverwärme in Fernwärmenetze. Der gemeinsame Nenner. Beschaffung, Effizienzkennzahlen und Wärmeintegration wandern aus der Fußnote in die Verantwortung des Top Managements.
Wasser als zweites Nadelöhr
Neben Strom entscheidet Wasser über die Standorttauglichkeit. Die WUE, also der Wasserverbrauch pro IT Leistung, hängt stark von Kühltechnik und Klima ab. Aktuelle Signale reichen von strengeren Auflagen in wasserarmen US Regionen bis zu wiederkehrenden Niedrigwasserphasen am Rhein. Wer KI skaliert, sollte Milliliter Wasser pro Request offenlegen, wasserarme Regionen meiden oder auf Kühlkonzepte setzen, die ohne zusätzliche Verdunstung auskommen.
Realitätsschock in Berichten
Microsoft meldet im Environmental Sustainability Report 2025 plus 23,4 Prozent Gesamtemissionen im Vergleich zu 2020, getrieben unter anderem durch den Ausbau von Cloud und KI. Gleichzeitig investiert das Unternehmen in erneuerbare Energien, effizientere Kühlung und Abwärmenutzung. Das unterstreicht, dass die Einzelnutzung effizienter wird, die Gesamtnachfrage aber schneller wächst.
Drei Hebel für Unternehmen, ohne Greenwashing
Architektur und Modelle: Wo Qualität es erlaubt, kleinere oder destillierte Modelle einsetzen, Prompt Caching nutzen, also häufige oder identische Eingaben samt Antworten zwischenspeichern, damit sie nicht jedes Mal neu berechnet werden, und dort auf On Device Inference wechseln, wo Latenz, Datenschutz und Kosten es rechtfertigen. Weniger Rechenaufwand senkt unmittelbar die Stromrechnung und reduziert Cloud gebundene Compute Kosten.
Energie, Standort und Timing: Trainings und Batch Jobs in Stunden und Regionen mit hohem Anteil CO₂ freier Energie planen. Echte 24 7 CFE Verträge nutzen, also Stromlieferverträge, bei denen jede verbrauchte Kilowattstunde in jeder Stunde mit zeitgleich eingespeister CO₂ freier Erzeugung gematcht wird und nicht nur über jährliche Zertifikate rechnerisch ausgeglichen wird. Abwärme von Beginn an vertraglich andocken. Auch hier gilt. Weniger Energieverbrauch und höhere Auslastung der vorhandenen Kapazitäten wirken direkt positiv auf die Betriebskosten.
Messung und Offenlegung: Produkt KPIs pro Anfrage veröffentlichen, also Wattstunden, Gramm CO₂e und Milliliter Wasser pro Request, sowie standortbezogene PUE und WUE. Transparenz schafft Akzeptanz und verhindert, dass KI Roadmaps an Energie oder Wasserkonflikten zerschellen.
Unser Future{hacks} Fazit
Ein einzelner Prompt wirkt harmlos, die Masse nicht. Die Netze in UK und Irland zeigen, was passiert, wenn Last schneller wächst als Infrastruktur. Der Ausweg ist kein Verzicht, sondern Betriebshandwerk. Kleinere Modelle da, wo sie reichen. Rechenintensive Jobs in grüne Zeitfenster und Regionen legen. Standorte mit echtem CO₂ freiem Strom und Abwärme Abnahme wählen und Kennzahlen offenlegen.
Wer Wattstunden, Gramm CO₂e und Milliliter Wasser pro Request sowie PUE und WUE am Standort führt, macht KI skalierbar und senkt gleichzeitig die Kosten. Das ist gelebte Transparenz gegenüber Kundinnen und Kunden und stärkt Vertrauen, weil Auswirkungen und Fortschritt messbar und nachvollziehbar sind. So wächst KI, ohne Netz und Natur zu sprengen.
Markus Kirchmaier ist Prokurist & Partner bei LEAN-CODERS und beschäftigt sich seit Jahren intensiv mit dem IT-Arbeitsmarkt sowie modernen IT-Systemen und technologischen Entwicklungen.