Notebookcheck Logo

KI und ihr Stromverbrauch: Ein Problem, neben anderen

Viel Aufwand für teils sehr überschaubaren Ertrag: Künstliche Intelligenz. (Bild: pixabay/viarami)
Viel Aufwand für teils sehr überschaubaren Ertrag: Künstliche Intelligenz. (Bild: pixabay/viarami)
Dass ChatGPT und anderen KI-Systeme Stromfresser sind, ist sicher kein Geheimnis. Und wenn Sam Altman, CEO von OpenAI, einräumt, dass das ein Problem werden könnte, lohnt es sich bestimmt, mal nachzurechnen und in die Zukunft zu schauen.

Den Strom von 33.000 Haushalten benötigt ChatGPT aktuell. Weil das aber US-Haushalte sind, könnten hierzulande schon 60.000 Haushalte mit diesem Strom versorgt werden. Kassel oder Potsdam komplett im Dunkel, wenn man so will.

Allerdings gehen die Planung von OpenAI natürlich von einer Zukunft aus, die der Gegenwart von Google ähnelt. Allein dessen Suchanfragen können schon für erheblichen Energieaufwand sorgen.

Glaubt man diversen Quellen, die sich allesamt auf ein schon etwas ältere Zahl berufen, werden 0,3 Wh pro Suchanfrage aufgewendet - 8,5 Milliarden Suchanfragen pro Tag weltweit.

Das wäre dann insgesamt knapp 1 Terawattstunde pro Jahr, nur um die Suchanfragen zu bearbeiten. Rechnet man das wieder auf Haushalte hoch (europäische, keine US-amerikanischen), sind das schon 180.000 bis 200.000. Das ist dann der Stromverbrauch der Haushalte in Duisburg.

Nichtsdestotrotz liegt der Wert für das weiterhin deutlich gigantisches Google nur dreimal so hoch wie bei ChatGPT. Und es geht hier bei beiden Firmen um einen Teilaspekt des gesamten Unternehmens.

Laut Firmenangaben von Google liegt der Gesamtverbrauch sogar bei 6 Terawattstunden, dem 6-fachen im Vergleich zu den Suchanfragen selbst. Allerdings weltweit. Nimmt man beispielsweise den gesamten deutschen Stromverbrauch, entspricht dieser Wert nur etwas mehr als 1 Prozent.

OpenAI nennt allerdings Faktor 4 bis 5 pro Suchanfrage. Hinzu kommt, dass sich auch die Zahl der Suchanfragen alle paar Jahre verdoppelt.

Würde also das aktuelle Suchvolumen per ChatGPT und seine Konkurrenten bewältigt, könnte man den Wert, der für Google angesetzt wird, ohne Bedenken verfünffachen.

Das wären dann 30 Terawattstunden. Mit so Strom kommt ganz Dänemark aus, ein Land, dass damit auch beträchtliche Industriezweige versorgt. Andererseits entsprechen 30 TWh nur einem winzigen Bruchteil der weltweiten Energieerzeugung, stehen aber für die weltweite Nutzung von KI.

Und dennoch: Schreitet die Entwicklung generell vorn, werden Suchfragen zukünftig nur noch per KI beantwortet und steigt deren Zahl im gleichen Tempo weiter, sind es eher 60 oder 100 TWh. Dass hier Potential für Einsparungen besteht, scheint unbestreitbar.

Strom sparen lässt sich mit Technik natürlich auch. Erhalte ich bessere Suchergebnisse, muss ich eventuell nicht vier oder fünf Webseiten anklicken, sondern bin schon bei der ersten am Ziel. Ich kann ein Foto generieren, muss es nicht selbst erstellen und bearbeiten. Ich kann Dokumente mit Kollegen und Freunden bearbeiten, ohne vor Ort zu sein, auch das spart natürlich Energie (wobei hierfür keine KI nötig ist).

Wichtig bleibt dennoch, ein Bewusstsein dafür zu schaffen, dass KI auch effizienter gestaltet werden kann und muss. Nur darauf zu vertrauen, dass genügend billige Energie vorhanden ist, könnte sich als allzu bequemer Trugschluss erweisen.

So gesehen ist Sam Altmans Weckruf ein gutes Signal. Sein Vorhaben, per Kernfusion alles auszugleichen, wirkt dagegen schon recht blauäugig.

static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2024-02 > KI und ihr Stromverbrauch: Ein Problem, neben anderen
Autor: Mario Petzold, 21.02.2024 (Update: 21.02.2024)