Notebookcheck Logo

ChatGPT mit Werbung, Gemini mit Limits: Beginn der Enshittification von KI‑Tools

Gemini und ChatGPT Enshittification (Symbolbild Nano Banana Pro)
Gemini und ChatGPT Enshittification (Symbolbild Nano Banana Pro)
Uber ist teuer, Spotify nervt mit Podcasts und Amazon Prime zeigt Werbung. Das Phänomen heißt Enshittification. Nun erreicht die digitale Qualitäts-Erosion auch KIs wie Gemini und ChatGPT. In Zukunft könnten dumme Antworten und Werbung KI-Tools unbrauchbar machen.
Kommentar-Artikel geben ausschließlich die individuelle Meinung des/der angeführten Autors/Autorin wieder.

Ich kann mich noch an eine Zeit erinnern, da war Spotify richtig gut, in Prime Video gab es keine Werbung und auf Lieferando gab es gutes Essen zu fairen Preisen. Was deutsche Kunden kaum betroffen hat, waren auch günstige und gute Fahrten, vermittelt über Uber. Mittlerweile wird Spotify überschwemmt von seltsamen Podcasts, in Prime Video gibt es nun mehr Werbung als im Free-TV und auf Lieferando sprießen seltsame Angebote. Auf Uber gibt es mittlerweile so viele kostenpflichtige Zusatzoptionen, dass eine einfache Taxifahrt vielerorts günstiger ist als ein annehmbares Uber. 

Die Verschlimmbesserung zur Renditesteigerung könnte man das nennen. Oder kurz: Enshittification. Der Begriff wurde 2022 von Cory Doctorow geprägt und beschreibt den kalkulierten Verfall digitaler Plattformen in drei Phasen.

Enshittification - Digitale Qualitäts-Erosion zur Gewinnoptimierung = Rendite-Kannibalismus

Zunächst lockt die Plattform Nutzer mit einem überragenden Angebot an, das oft durch Risikokapital subventioniert wird, um Verluste in Kauf nehmen zu können und Marktanteile aggressiv zu erobern. Sobald die Nutzer durch Netzwerkeffekte oder Datensammlungen an das System gebunden sind (Lock-in-Effekt), verschiebt sich der Fokus darauf, Geschäftskunden und Werbepartner zufrieden zu stellen, oft zulasten der User Experience. In der finalen Phase missbraucht die Plattform ihre Monopolstellung, um den gesamten geschaffenen Wert abzuschöpfen: Die Preise steigen, die Werbung nimmt überhand oder die Servicequalität sinkt massiv, da Nutzer und Anbieter mangels Alternativen keine andere Wahl mehr haben, als zu bleiben. Unternehmen versuchen dann durch Gebühren oder Werbung, so viel aus den Nutzern zu quetschen, wie nur geht, ohne dass ein Großteil abspringt.

Wer den Begriff bisher nicht kannte, aber das Gefühl hat, dass Facebook, Spotify, Google, Uber, Amazon und so weiter, trotz immer mehr Features immer schlechter werden, hat nun einen Namen für den Vorgang. 

Ein Paradebeispiel für Enshittification ist Amazon. Der Konzern hat bereits mehrere Zyklen dieser digitalen Qualitäts-Erosion zu Gewinnoptimierung durchlaufen. Als Beispiel Amazon Prime. Am Anfang eine Versandflatrate zum fairen Preis. Dann wurde der Funktionsumfang kräftig aufgebläht. Gratisfilme, Gratisbücher, Gratisspiele, Gratismusik und so weiter. Alles zum günstigen Jahrespreis, der eigentlich nicht mehr so günstig ist. Um all das zu nutzen, braucht es nur ein günstiges Fire-Tablet, einen günstigen Amazon-Kindle, einen günstigen FireTV-Stick und eine Kreditkarte (am besten mit Amazon-Branding). Mittlerweile ist Amazon Music nur mit Unlimited-Abo wirklich brauchbar, Prime Video hat ohne Zusatzbuchung Werbung und der günstige Versand ist an den freien Versandtagen auch für Nicht-Prime-Kunden inkludiert. Wer nicht aufpasst, hat als Standardoption beim Versand genau diese Gratistage ausgewählt, also keinen Mehrwert beim Versand. Amazon hat Kunden gebunden, ein Monopol geschaffen, das Business-Modell mit Zusatzoptionen optimiert und befindet sich nun in der Abschöpfungsphase mit maximaler Profitgenerierung auf Kosten der Nutzer, die irgendwann frustriert andere Lösungen suchen.

Zwei-Klassen-Intelligenz, Werbung und Shrinkflation - KI und die „Kognitive Mangelwirtschaft“

Die kostenlosen Angebote von KIs wie ChatGPT, Gemini und vielen anderen kleinen Anbietern gibt es noch. Was man sich hier deutlich fragen sollte, ist: Wie werden diese Angebote finanziert? Letztlich bezahlen Nutzer mit ihren Daten. Die KI kostet im Betrieb richtig Geld. 

Google hat unlängst eine Studie veröffentlicht, die einen Blick auf die Stromrechnung von Gemini erlaubt. Pro Prompt, also Anfrage, werden etwa 0,10 Wh bis 0,24 Wh benötigt, wenn die Antwort als Text erfolgt. Das heißt, pro Kilowattstunde können etwa 3.000 bis 10.000 Anfragen an Googles KI-Modelle gestellt werden.

Aber die Phase der Großzügigkeit ist vorbei. KI tritt aktuell in die Phase der Werbung, der Rationierung und des Aufbaus von verschiedenen Bezahlmodellen ein. Den Anfang macht wohl OpenAI mit Werbung in den kostenlosen Angeboten. Das Unternehmen testet aktuell, wie Werbung direkt in den Antworten der KI bei den Nutzern ankommt und spielt im kostenlosen Go-Abo demnächst Werbung ein. Bei Google Gemini mit mittlerweile drei verschiedenen Abos, werden an Tagen mit hoher Auslastung die Leistungen gekürzt. Dabei ist jedes Abomodell betroffen. Sowohl beim günstigen Google AI Plus als auch beim teuren AI Ultra werden im Ernstfall Leistungen gekürzt. Wenn man Pech hat, reicht das Kontingent an Fragen an das Pro-Modell für Google-AI-Plus-Nutzer (wie mich) nur bis zum Mittagessen. Danach geht es im deutlich eingeschränkten Flash weiter. Google verspricht lediglich, sich zu bemühen, dass die bezahlten Leistungen auch abrufbar sind. Grok geht wohl subtiler vor und sorgt mit versteckten Systemprompts für möglichst wenige Token pro Antwort, wenn die Auslastung steigt. Öffentlich kommuniziert wird dies jedoch nirgends. Dass ein sparsamer Umgang mit Tokens richtig Geld spart, sollte klar sein.

Der eigentliche Knackpunkt ist trotzdem nicht der Status quo. Denn bisher ist KI eben einfach optional. Nun haben jedoch mittlerweile mehrere Hersteller angekündigt, KI mehr zu integrieren. Lenovo will mit Qira ein KI-Ökosystem schaffen, das alle Geräte eines Nutzers überspannt. Copilot in Windows nimmt ebenfalls einen immer größeren Stellenwert ein. Apple will auf Gemini setzen und hat dafür eine Partnerschaft mit Google angekündigt. Zudem sind bisherige Kunden von Gemini, ChatGPT und Co. an die Systeme gebunden. Die KIs haben viel gelernt von ihren Nutzern und sind so zu sinnvollen Assistenten im digitalen Alltag geworden.

Wenn das Modell der günstigen KI kippt steht viel auf dem Spiel

Von der KI-Blase sprechen viele. Klar, bei dem Thema geht es um richtig viel Geld. Zwei Billionen US-Dollar sollen laut Marktanalysen dieses Jahr für KI ausgegeben werden. Worüber keiner so gern spricht, sind die Folgen von einem Platzen der KI-Blase. Funktionieren ChatGPT, Gemini und andere KIs von heute auf morgen nicht mehr, dürfte in vielen Firmen das Licht ausgehen. Von 3.568 deutschen Firmengründungen im letzten Jahr gaben rund 27 Prozent an, dass KI eine zentrale Rolle im Unternehmen spiele. Für Verbraucher könnten plötzlich nicht mehr arbeitende KIs ebenso große Folgen haben. Je nachdem, wie tief die Chatbots in die Systeme der Hersteller integriert werden, könnten Geräte oder ganze Haushalte unbrauchbar werden. 

Funktionieren die bekannten LLMs weiter, aber kommt es zu einem starken "Enshittification"-Prozess, stehen hingegen ganz andere Fragen an. Als erste: Ist die Nutzung der KI noch wirtschaftlich? Dann kommen jedoch noch menschliche Fragen hinzu. Gemini soll etwa zum Shopping-Assistenten ausgebaut werden. Aber kann das Modell dann die beste Wahl für mich treffen, oder ist die beste Wahl dann die, die Google die höchste Vermittlungsprovision einbringt? ChatGPT soll Werbung in Chats einfließen lassen. Sind hier die Antworten dann noch vorurteilsfrei, oder können Parteien Wahlwerbung ausspielen, und Unternehmen ihre Produkte schönreden lassen? Letztlich könnten die LLMs in der Cloud durch Werbung unbenutzbar werden. Als Nutzer erwarte ich, dass die Maschinenintelligenz mir möglichst objektiv antwortet. Schnell könnten sich die verschiedenen Chatbots so selbst obsolet machen. Wenn sie keine ergebnisoffenen Antworten mehr geben, ist eigene Recherche wieder die beste Option. Dann bleibt nur noch zu hoffen, dass bis dahin die Google-Suche nicht komplett enshittifiziert ist. Denn auch hier hat dieser Prozess voll eingeschlagen. Ganz davon abgesehen bleibt noch die Frage, welche Services dann den eigenen Anforderungen an die Privatsphäre entsprechen.

Darüber hinaus wird die KI-Blase wohl trotzdem auf den Rücken der Verbraucher ausgetragen, wenn es um die Preise für Hardware und Energie geht. Über das Thema der Preise für Arbeitsspeicher wurde wohl genug berichtet. Aber auch Energiekosten steigen durch KI. Ein geplantes Rechenzentrum in Lübbenau ist mit einer Anschlussleistung von 200 Megawatt geplant. Zum Vergleich: Ganz Berlin benötigte im Jahr 2024 rund 2.200 Megawatt zu Spitzenlastzeiten. Dementsprechend müssen für KI-Rechenzentren Stromnetze und Stromerzeuger ausgebaut werden. Die Kosten dafür tragen letztlich alle Verbraucher. 

Der KI-Markt wird zudem von amerikanischen Unternehmen dominiert. Sollte die derzeit notorisch unberechenbare US-Regierung Sanktionen gegen die EU erlassen, weil man etwa Grönland nicht rausrücken will, müssen Nvidia und Co. den Kill-Switch für KIs europäischer Nutzer umlegen. Wie schnell das bei Software geht, hat Microsoft gezeigt, als man den internationalen Gerichtshof aussperrte. Dass Nvidia GPUs abschalten könnte, gilt als unwahrscheinlich, aber wenn einfach keine Software und Treiber mehr an europäische Nutzer ausgeliefert würden, würde die Hardware schnell zum Briefbeschwerer.

Wege aus der KI-Krise

Zunächst sollte man ganz klar sagen: KI in Form von LLMs, Bild- und Videogeneratoren muss staatlich reguliert werden. Gerade, was Chatbots angeht, darf man hier nicht blauäugig an die Regulierung gehen. Menschen neigen zum Anthropomorphisieren und lassen sich schnell von den KIs, zu denen sie Gefühle aufgebaut haben, beeinflussen. Wird hier Werbung eingespielt, muss es dafür Regeln geben. Genau solche Regeln gibt es schließlich auch bei anderen Plattformen die Werbung ausspielen. 

Weiterhin sollten auch Hard- und Softwareschnittstellen gesetzlich geregelt werden. Es darf nicht sein, dass Geräte ihren Dienst versagen, weil Unternehmen ihre Onlinedienste einstellen.

Vieles lässt sich auf moderner Hardware auch daheim regeln. Moderne Mittelklasse-Laptops oder Mini-PCs haben bereits alles verbaut, was kleinere LLMs benötigen. Dabei sind Gemma 3, Llama 3.2, Qwen 3 und weitere sogar ziemlich hilfreich, wie ich selbst bereits feststellen durfte. Weiterentwicklungen in der KI-Technik und bei den Modellen dürften in Zukunft dafür sorgen, dass lokale Modelle Cloud-KI ersetzen könnten. Dabei wären sie resistent gegen den Enshittification-Prozess ihrer großen Brüder. 

Wer mehr will, kann auch KI-Hardware für größere Projekte kaufen. Nvidias DGX Spark kostet zwar immer noch rund 3.000 bis 5.000 Euro, aber es kann wohl dafür auch die Aufgaben sämtlicher KI-Cloud-Dienste übernehmen. Sollte die Qualitätserosion bei den Clouddiensten also überhandnehmen, könnte eine solche kleine Box eine interessante Alternative sein. Auch wenn die Anschaffungskosten zunächst hoch erscheinen.

Letztlich sehe ich selbst keinen Weg vorbei an einer zunehmenden Kommerzialisierung der KI-Angebote. Eine Exit-Strategie sollte bei Unternehmen und Privatleuten, die KI-Tools aus der Cloud benötigen, vorliegen.

Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
Mail Logo
Alle 2 Beträge lesen / Antworten
static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2026-01 > ChatGPT mit Werbung, Gemini mit Limits: Beginn der Enshittification von KI‑Tools
Autor: Marc Herter, 17.01.2026 (Update: 20.01.2026)