Ein kurzer X-Post vom 16. April hatte eine große Wirkung: Ein Nutzer fragte, wie viel Geld OpenAI wohl verliere, weil Menschen ChatGPT mit Höflichkeitsfloskeln wie „Bitte“ und „Danke“ verwenden. Die überraschende Antwort kam direkt von OpenAI-CEO Sam Altman: „Dutzende Millionen Dollar“. Denn jede Anfrage an das Sprachmodell – egal, wie kurz sie ist – verursacht einen beträchtlichen Stromverbrauch.
Laut einer Analyse der Washington Post verbraucht allein das Generieren einer 100-Wörter-KI-Mail etwa 0,14 kWh Strom. Wer das jede Woche tut, verbraucht pro Jahr rund 7,5 kWh, was etwa dem Stromverbrauch eines modernen Kühlschranks über zwei Wochen entspricht. Multipliziert man das mit den Millionen täglichen Anfragen weltweit, wird schnell klar, warum Höflichkeit im digitalen Raum keine reine Formsache mehr ist. Energieanalysten schätzen, dass KI-Systeme inzwischen für etwa 2 % des globalen Stromverbrauchs verantwortlich sind – mehr als viele Industriebranchen.
Stimmung auf Reddit zwischen Witz und Zynismus
Im Subreddit r/nottheonion, bekannt für skurrile Nachrichten, sorgte die Meldung über den „Höflichkeits-Stromverbrauch“ für eine Welle ironischer Reaktionen, wie zum Beispiel „Mama hat immer gesagt, nett sein kostet nicht – aber wie sich zeigt, hatte sie unrecht“. Einige Stimmen äußern sich entschieden kritisch und befürchten eine Ablenkung von größeren Energieproblemen, etwa durch Industrie oder Luxusverhalten. Der Vorwurf: Statt über „Bitte“ und „Danke“ zu diskutieren, sollte man lieber über Rechenzentren, Poolheizungen und den CO₂-Ausstoß reicher Länder reden.















