Notebookcheck Logo

KI-Bias bei Gehaltsratschlägen: Wie Sprachmodelle Frauen systematisch benachteiligen

KI-Bias bei Gehaltsratschlägen: Wie Sprachmodelle Frauen systematisch benachteiligen (Bildquelle: GPT-image-1)
KI-Bias bei Gehaltsratschlägen: Wie Sprachmodelle Frauen systematisch benachteiligen (Bildquelle: GPT-image-1)
Eine aktuelle Studie zum „KI-Bias bei Gehaltsempfehlungen“ offenbart, dass KI-Chatbots wie GPT und Claude Frauen bei identischen Qualifikationen deutlich niedrigere Gehaltsempfehlungen geben als Männern. Diese Verzerrung spiegelt gesellschaftliche Ungleichheiten wider und wirft Fragen zur ethischen Entwicklung von KI-Systemen auf.

Moderne KI-Sprachmodelle werden zunehmend für berufliche Beratung genutzt, darunter auch Gehaltsverhandlungen. Eine Untersuchung von Ivan Yamshchikov und seinem Team, veröffentlicht auf arXiv unter dem Titel „Surface Fairness, Deep Bias: A Comparative Study of Bias in Language Models“, analysiert die Verzerrungen (Bias) in solchen Systemen bei der Gehaltsberatung. Die Studie zeigt, dass KI-Chatbots systematisch niedrigere Gehaltsempfehlungen für Frauen aussprechen als für Männer mit identischer Qualifikation.

Bias bei Gehaltsvorschlägen: Realität spiegelt sich in KI wider

Für die Analyse wurden verschiedene fiktive Persönlichkeiten erzeugt, die sich lediglich in soziodemografischen Merkmalen wie Geschlecht, ethnischer Herkunft oder Migrationsstatus unterschieden. Dabei wurde festgestellt, dass die Modelle die reale Gender Pay Gap nicht nur widerspiegeln, sondern durch ihre Antworten sogar verstärken. Besonders auffällig ist, dass weibliche Nutzergruppen im Vergleich zu männlichen systematisch schlechtere finanzielle Empfehlungen erhalten.

Personalisierung verstärkt diskriminierende Muster

Die Personalisierung der KI verschärft das Problem, da Modelle auf Basis früherer Nutzerdaten diskriminierende Muster aus den Trainingsdaten übernehmen. Yamshchikov warnt, dass Nutzer fälschlich von neutralen Empfehlungen ausgehen, obwohl die KI Vorurteile verstärkt. Dadurch wird die Verhandlungsposition benachteiligter Gruppen deutlich geschwächt.

Ethnische und soziale Vorurteile in KI-Modellen

Neben dem Geschlechterbias wurden auch ethnische und soziale Unterschiede erkannt. So erhielten beispielsweise männliche asiatische Expatriates die höchsten Gehaltsempfehlungen, während weibliche hispanische Flüchtlinge die niedrigsten empfingen. Diese Befunde unterstreichen, dass KI-Modelle gesellschaftliche Vorurteile umfassend reproduzieren.

Appell für mehr Ethik und kritische Nutzung

Die Autoren fordern eine stärkere Integration ethischer Leitlinien, unabhängiger Prüfverfahren und Transparenz in der KI-Entwicklung. Den Nutzern wird empfohlen, KI-gestützte Gehaltsratschläge kritisch zu hinterfragen und sich nicht allein darauf zu verlassen. Die Studie weist - ironisch - darauf hin, dass sich Anwender als männliche Fachkräfte ausgeben könnten, um bessere Empfehlungen zu erhalten.

Fazit: Gesellschaftliche Ungleichheiten verstärken sich durch KI

Insgesamt verdeutlicht die Forschung, dass KI-Systeme aktuelle gesellschaftliche Ungleichheiten nicht neutral abbilden, sondern vielfach verstärken, was bei wichtigen Entscheidungen wie Gehaltsverhandlungen erhebliche Folgen haben kann. Die Ergebnisse sind besonders relevant, da der Einsatz von KI in Beratungssituationen weiter zunimmt und die Gefahr der unbeabsichtigten Diskriminierung wächst.

Quelle(n)

Alle 1 Beträge lesen / Antworten
static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
Mail Logo
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2025-08 > KI-Bias bei Gehaltsratschlägen: Wie Sprachmodelle Frauen systematisch benachteiligen
Autor: Ulrich Mathey, 12.08.2025 (Update: 25.08.2025)