Notebookcheck Logo

KI bevorzugt eigene Texte: Studie warnt vor „Anti-Human-Bias“

KI bevorzugt eigene Texte: Studie warnt vor „Anti-Human-Bias“ (Bildquelle: GPT-image-1)
KI bevorzugt eigene Texte: Studie warnt vor „Anti-Human-Bias“ (Bildquelle: GPT-image-1)
Eine aktuelle Untersuchung der Karlsuniversität Prag zeigt, dass Large Language Models wie GPT-3.5 und GPT-4 systematisch KI-generierte Inhalte gegenüber von Menschen erstellten Texten bevorzugen. Die Ergebnisse werfen Fragen für den Einsatz von KI in Bewerbungsprozessen, Produktempfehlungen und agentischen Systemen auf.

Künstliche Intelligenz gilt zunehmend als Entscheidungshilfe in Wirtschaft, Forschung und Alltagsanwendungen. Eine neue Studie der Karlsuniversität Prag, erschienen auf arXiv, legt nahe, dass diese Systeme jedoch eigene Inhalte bevorzugen und dabei menschliche Texte benachteiligen. Wissenschaftler untersuchten bekannte LLMs wie GPT-3.5, GPT-4 sowie Open-Weight-Modelle von Meta, Mistral und Alibaba in verschiedenen Szenarien, darunter Produktbeschreibungen, wissenschaftliche Texte und Filmzusammenfassungen.

KI bevorzugt KI-generierte Texte

Die Untersuchung ergab, dass die KI-Modelle in allen Kategorien häufiger die von KI erstellten Texte auswählten als jene. die Menschen angefertigt hatten. Besonders deutlich zeigte sich dies bei Produktbeschreibungen: GPT-4 entschied sich in 89 Prozent der Fälle für KI-generierte Inhalte, während menschliche Probanden nur zu 36 Prozent diese Texte bevorzugten. Die Wissenschaftler schließen daraus, dass die LLMs spezifische Bewertungskriterien verwenden, die nicht auf objektiver Qualität basieren.

„Anti-Human-Bias“ auch bei niedrigerer Textqualität

KI-Modelle bevorzugen anscheinend bestimmte stilistische Merkmale, die typischerweise bei KI-generierten Texten vorkommen. Dadurch entsteht der in der Studie beschriebene „Anti-Human-Bias“: KI-Systeme tendieren dazu, eigene Inhalte als „besser“ einzustufen, selbst wenn diese qualitativ unterlegen sind. Ferner wurde beobachtet, dass Feedback oder gezieltes Training menschliche Fehlwahrnehmungen korrigieren kann, die internen Bewertungsmechanismen der KI bleiben jedoch unverändert.

Digitale Ungleichheit 

Die Konsequenzen könnten erheblich sein: KI-generierte Inhalte könnten in Bewerbungsprozessen, Produktempfehlungen oder agentischen Systemen bevorzugt werden, was die digitale Ungleichheit verstärken würde. Wer sich KI-Unterstützung nicht leisten kann, wäre dadurch benachteiligt. Die Studienautoren raten, diese Verzerrung bei KI-basierten Entscheidungssystemen zu berücksichtigen.

Quelle(n)

static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
Mail Logo
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2025-08 > KI bevorzugt eigene Texte: Studie warnt vor „Anti-Human-Bias“
Autor: Ulrich Mathey, 19.08.2025 (Update: 27.08.2025)