Microsoft-CEO Satya Nadella sagt, der KI-Boom sei an eine neue Art von Grenze gestoßen – und es sind nicht die GPUs. In einem Gespräch im BG2-Podcast mit dem OpenAI-CEO Sam Altman erklärte Nadella, dass Microsoft nicht länger „durch die Chip-Lieferung eingeschränkt“ sei.
Das eigentliche Problem sei es, erklärte Nadella, genügend mit Strom versorgte, fertiggestellte Rechenzentren – also jene „warmen Hüllen“ mit ausreichender Netzanbindung – zu finden, um all die Beschleuniger überhaupt in Betrieb nehmen zu können.
Er sagte wörtlich, man könne „einen Haufen Chips auf Lager haben“, die einfach nicht angeschlossen werden können. Dies ist eine bemerkenswerte Verschiebung des Tons im Vergleich zu den letzten Jahren, in denen die Branche von Engpässen bei Nvidia-GPUs und Problemen in der Lieferkette geprägt war.
Nadella sagt nun, die wirklichen Bremsen seien lokale Netzbegrenzungen, Planungs- und Genehmigungsverzögerungen sowie Engpässe bei der Stromversorgung. Diese können KI-Projekte lange nach der Bestellung der Hardware ins Stocken bringen oder sogar zum Scheitern bringen. Dieser Energiekollaps hat weitreichende Folgen.
KI-Rechenzentren verbrauchen bereits so viel Strom wie kleine Städte. Das zwingt Cloud-Giganten dazu, langfristige Energieverträge abzuschließen, die eigene Stromerzeugung in Betracht zu ziehen und sogar kleine modulare Kernreaktoren als Option zu prüfen, um zukünftige Cluster am Laufen zu halten.
Die Botschaft an Investoren und Regulierungsbehörden ist klar: In der nächsten Phase des KI-Wettlaufs geht es nicht nur darum, wer die meisten GPUs kaufen kann, sondern auch darum, wer die zuverlässigste und skalierbarste Energieversorgung sichern kann, um diese zu betreiben.



















