Notebookcheck Logo

KI und Energieverbrauch: Neue Chips sollen das Stromproblem lösen

KI und Energieverbrauch: Neue Chips sollen Strom sparen (Quelle: Pixabay)
KI und Energieverbrauch: Neue Chips sollen Strom sparen (Quelle: Pixabay)
Der rasant steigende Energieverbrauch von KI zwingt Nvidia, Google und Co. zum Umdenken. Mit spezialisierten Chips und eigener Hardware wollen Tech-Konzerne und Startups den Stromhunger intelligenter Systeme in den Griff bekommen.

Der Energieverbrauch von KI-Anwendungen wächst rasant und in manchen Regionen könnte laut Reuters der Strom knapp werden. Nach einem Bericht des World Economic Forums soll der Strombedarf entsprechender Systeme jährlich bis 2030 um 50 % steigen.

"Despite its relatively small global electricity demand footprint, AI-related electricity consumption is projected to grow by 50% annually through 2030."

Große Anbieter und neue Marktteilnehmer reagieren darauf mit eigenen Hardwarelösungen und energieeffizienter Architektur, um die Stromkosten langfristig zu senken.

Hoher Stromverbrauch

Bereits heute verbraucht laut Electronic Specifier der moderne Nvidia H100‑Chip rund 3.740 kWh pro Jahr.

"Each H100 GPU, running at 61% annual utilization, consumes roughly 3,740 kilowatt-hours (kWh) of electricity annually."

Das entspricht dem Jahresstromverbrauch eines typischen Haushalts in Deutschland, Frankreich oder den Niederlanden. Der leistungsfähigere Nachfolger Blackwell B200 belastet die Stromrechnung sogar mit bis zu 1.000 W (≈ 8.760 kWh/Jahr bei voller Last), und in der stärksten Konfiguration, dem GB200 Superchip, steigt der Verbrauch dann auf bis zu 2.700 W – also umgerechnet etwa 23.700 kWh pro Jahr

Spezialchips gegen Stromhunger

Positron AI, ein Startup mit Sitz in Reno (Nevada), hat laut Reuters Chips vorgestellt, die im Vergleich zu Nvidias H100-GPUs weniger als ein Drittel der Energie benötigen – bei gleicher Performance. Die Chips werden in Arizona gefertigt und richten sich gezielt an Betreiber von Rechenzentren mit hohem Inferenzbedarf. Damit verspricht Positron eine etwa dreifache Energieeffizienz gegenüber dem H100, der in vielen KI-Clustern als Standardlösung gilt. (Quelle: Reuters)

Auch Groq setzt auf eine eigene Architektur: Das Unternehmen entwickelt sogenannte Language Processing Units (LPU), die auf besonders niedrigen Overhead und hohe Token-Durchsätze ausgelegt sind. In öffentlich zugänglichen Live-Demos auf Hugging Face erzielt Groq mit dieser Architektur eine Inferenzgeschwindigkeit von bis zu 500 Token pro Sekunde – deutlich schneller als bei klassischen GPU-Setups.

Tech-Giganten setzen auf Eigenentwicklungen

Auch die Hyperscaler reagieren auf den steigenden Energiebedarf: Google skaliert laut CloudOptimo  mit der TPU-Generation Ironwood bereits auf über 9.000 Einheiten – mit stetigen Effizienzgewinnen pro Iteration. Amazon entwickelt über Annapurna Labs eigene Inferentia-Chips, wie AWS bestätigt. Microsoft plant laut Windows Central schließlich den internen KI-Beschleuniger „Braga“, der jedoch nach einer Mitteilung von The Hans India frühestens 2026 marktreif sein soll.

Der KI-Markt formiert sich neu – unter Stromsparzwang

Im KI-Markt entscheidet längst nicht mehr nur die Rechenpower – Effizienz wird zum Schlüsselkriterium. Wer vorn bleiben will, muss den Stromverbrauch im Griff haben. Der Fokus verlagert sich von maximaler Performance hin zu intelligenter Optimierung – mit tiefgreifenden Folgen für die Halbleiterindustrie.

static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
Mail Logo
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2025-07 > KI und Energieverbrauch: Neue Chips sollen das Stromproblem lösen
Autor: Ulrich Mathey, 28.07.2025 (Update:  7.08.2025)