Der Energieverbrauch von KI-Anwendungen wächst rasant und in manchen Regionen könnte laut Reuters der Strom knapp werden. Nach einem Bericht des World Economic Forums soll der Strombedarf entsprechender Systeme jährlich bis 2030 um 50 % steigen.
"Despite its relatively small global electricity demand footprint, AI-related electricity consumption is projected to grow by 50% annually through 2030."
Große Anbieter und neue Marktteilnehmer reagieren darauf mit eigenen Hardwarelösungen und energieeffizienter Architektur, um die Stromkosten langfristig zu senken.
Hoher Stromverbrauch
Bereits heute verbraucht laut Electronic Specifier der moderne Nvidia H100‑Chip rund 3.740 kWh pro Jahr.
"Each H100 GPU, running at 61% annual utilization, consumes roughly 3,740 kilowatt-hours (kWh) of electricity annually."
Das entspricht dem Jahresstromverbrauch eines typischen Haushalts in Deutschland, Frankreich oder den Niederlanden. Der leistungsfähigere Nachfolger Blackwell B200 belastet die Stromrechnung sogar mit bis zu 1.000 W (≈ 8.760 kWh/Jahr bei voller Last), und in der stärksten Konfiguration, dem GB200 Superchip, steigt der Verbrauch dann auf bis zu 2.700 W – also umgerechnet etwa 23.700 kWh pro Jahr
Spezialchips gegen Stromhunger
Positron AI, ein Startup mit Sitz in Reno (Nevada), hat laut Reuters Chips vorgestellt, die im Vergleich zu Nvidias H100-GPUs weniger als ein Drittel der Energie benötigen – bei gleicher Performance. Die Chips werden in Arizona gefertigt und richten sich gezielt an Betreiber von Rechenzentren mit hohem Inferenzbedarf. Damit verspricht Positron eine etwa dreifache Energieeffizienz gegenüber dem H100, der in vielen KI-Clustern als Standardlösung gilt. (Quelle: Reuters)
Auch Groq setzt auf eine eigene Architektur: Das Unternehmen entwickelt sogenannte Language Processing Units (LPU), die auf besonders niedrigen Overhead und hohe Token-Durchsätze ausgelegt sind. In öffentlich zugänglichen Live-Demos auf Hugging Face erzielt Groq mit dieser Architektur eine Inferenzgeschwindigkeit von bis zu 500 Token pro Sekunde – deutlich schneller als bei klassischen GPU-Setups.
Tech-Giganten setzen auf Eigenentwicklungen
Auch die Hyperscaler reagieren auf den steigenden Energiebedarf: Google skaliert laut CloudOptimo mit der TPU-Generation Ironwood bereits auf über 9.000 Einheiten – mit stetigen Effizienzgewinnen pro Iteration. Amazon entwickelt über Annapurna Labs eigene Inferentia-Chips, wie AWS bestätigt. Microsoft plant laut Windows Central schließlich den internen KI-Beschleuniger „Braga“, der jedoch nach einer Mitteilung von The Hans India frühestens 2026 marktreif sein soll.
Der KI-Markt formiert sich neu – unter Stromsparzwang
Im KI-Markt entscheidet längst nicht mehr nur die Rechenpower – Effizienz wird zum Schlüsselkriterium. Wer vorn bleiben will, muss den Stromverbrauch im Griff haben. Der Fokus verlagert sich von maximaler Performance hin zu intelligenter Optimierung – mit tiefgreifenden Folgen für die Halbleiterindustrie.





















