Künstliche Intelligenz gilt zunehmend als Entscheidungshilfe in Wirtschaft, Forschung und Alltagsanwendungen. Eine neue Studie der Karlsuniversität Prag, erschienen auf arXiv, legt nahe, dass diese Systeme jedoch eigene Inhalte bevorzugen und dabei menschliche Texte benachteiligen. Wissenschaftler untersuchten bekannte LLMs wie GPT-3.5, GPT-4 sowie Open-Weight-Modelle von Meta, Mistral und Alibaba in verschiedenen Szenarien, darunter Produktbeschreibungen, wissenschaftliche Texte und Filmzusammenfassungen.
KI bevorzugt KI-generierte Texte
Die Untersuchung ergab, dass die KI-Modelle in allen Kategorien häufiger die von KI erstellten Texte auswählten als jene. die Menschen angefertigt hatten. Besonders deutlich zeigte sich dies bei Produktbeschreibungen: GPT-4 entschied sich in 89 Prozent der Fälle für KI-generierte Inhalte, während menschliche Probanden nur zu 36 Prozent diese Texte bevorzugten. Die Wissenschaftler schließen daraus, dass die LLMs spezifische Bewertungskriterien verwenden, die nicht auf objektiver Qualität basieren.
„Anti-Human-Bias“ auch bei niedrigerer Textqualität
KI-Modelle bevorzugen anscheinend bestimmte stilistische Merkmale, die typischerweise bei KI-generierten Texten vorkommen. Dadurch entsteht der in der Studie beschriebene „Anti-Human-Bias“: KI-Systeme tendieren dazu, eigene Inhalte als „besser“ einzustufen, selbst wenn diese qualitativ unterlegen sind. Ferner wurde beobachtet, dass Feedback oder gezieltes Training menschliche Fehlwahrnehmungen korrigieren kann, die internen Bewertungsmechanismen der KI bleiben jedoch unverändert.
Digitale Ungleichheit
Die Konsequenzen könnten erheblich sein: KI-generierte Inhalte könnten in Bewerbungsprozessen, Produktempfehlungen oder agentischen Systemen bevorzugt werden, was die digitale Ungleichheit verstärken würde. Wer sich KI-Unterstützung nicht leisten kann, wäre dadurch benachteiligt. Die Studienautoren raten, diese Verzerrung bei KI-basierten Entscheidungssystemen zu berücksichtigen.





















