Das neueste Modell von ChatGPT greift laut einem aktuellen Bericht des Guardian zunehmend auf Elon Musks Online-Enzyklopädie Grokipedia zurück, um Nutzeranfragen zu beantworten. Im Rahmen der Untersuchung zitierte die KI die Plattform bei diversen Themenkomplexen. Gefragt wurde nach politischen Strukturen im Iran oder nach biografischen Details über historische Figuren.
Diese Entwicklung sorgt für Bedenken bezüglich der Informationsqualität von ChatGPT. Auf diese Weise könnten Inhalte verbreitet werden, die nicht denselben strengen Verifikationsprozessen unterliegen wie bei redaktionell oder durch eine breite Community gepflegten Quellen.
Grokipedia wurde von Elon Musk explizit als Konkurrenz zur etablierten Wikipedia positioniert. Während Musk der Wikipedia eine linksgerichtete Tendenz vorwirft und angibt, mit seinem Projekt nach „maximaler Wahrheitssuche“ und Neutralität zu streben, sehen Kritiker in Grokipedia oft das gegenteilige Extrem. Bemängelt wird, dass die Plattform Inhalte teilweise aus einer politisch rechtsgerichteten Perspektive darstellt oder kontroverse Themen einseitig beleuchtet. Unabhängig von der politischen Ausrichtung ist für die technische Bewertung primär die Art der Inhaltserstellung relevant.
Im Gegensatz zur Wikipedia, die auf menschlicher Kuratierung basiert, werden die Texte auf Grokipedia nach eigenen Angaben primär vom hauseigenen KI-Modell Grok generiert. Eine offene Bearbeitung durch Nutzer ist nicht vorgesehen, lediglich eine interne Kontrolle durch xAI-Mitarbeiter soll die Qualität sichern. Wenn nun andere Sprachmodelle wie GPT-5.2 diese maschinell erstellten Texte als faktische Quelle heranziehen, entsteht ein technischer Rückkopplungseffekt, bei dem KIs voneinander lernen.
Damit manifestiert sich das Risiko eines klassischen „Garbage In, Garbage Out“-Szenarios. Wenn KIs beginnen, ungefiltertes Material anderer KIs als Basis für ihre Antworten zu nutzen, können sich Fehler oder spezifische Tendenzen ungeprüft verstärken. Die Untersuchung des Guardian zeigte bereits, dass ChatGPT unter Berufung auf Grokipedia Behauptungen übernahm, die über gesicherte Erkenntnisse hinausgingen oder längst widerlegt waren. Dies verdeutlicht die Gefahr, dass Desinformation durch das gegenseitige Zitieren von KI-Modellen an scheinbarer Glaubwürdigkeit gewinnt und für den Endnutzer kaum noch als solche zu erkennen ist.
OpenAI reagierte auf den Bericht und betonte gegenüber The Guardian, dass die Websuche des Modells darauf abziele, ein breites Spektrum öffentlich zugänglicher Quellen und Standpunkte abzubilden. Ein Sprecher erklärte, dass Sicherheitsfilter eingesetzt würden, um das Risiko zu verringern, Links zu Inhalten mit hohem Schadenspotenzial anzuzeigen. Zudem mache ChatGPT durch Zitate transparent, welche Quellen eine Antwort beeinflusst hätten. Das Unternehmen verwies ergänzend auf laufende Programme, die darauf abzielen, Informationen mit geringer Glaubwürdigkeit sowie Einflusskampagnen auszufiltern.











