Moderne KI-Sprachmodelle werden zunehmend für berufliche Beratung genutzt, darunter auch Gehaltsverhandlungen. Eine Untersuchung von Ivan Yamshchikov und seinem Team, veröffentlicht auf arXiv unter dem Titel „Surface Fairness, Deep Bias: A Comparative Study of Bias in Language Models“, analysiert die Verzerrungen (Bias) in solchen Systemen bei der Gehaltsberatung. Die Studie zeigt, dass KI-Chatbots systematisch niedrigere Gehaltsempfehlungen für Frauen aussprechen als für Männer mit identischer Qualifikation.
Bias bei Gehaltsvorschlägen: Realität spiegelt sich in KI wider
Für die Analyse wurden verschiedene fiktive Persönlichkeiten erzeugt, die sich lediglich in soziodemografischen Merkmalen wie Geschlecht, ethnischer Herkunft oder Migrationsstatus unterschieden. Dabei wurde festgestellt, dass die Modelle die reale Gender Pay Gap nicht nur widerspiegeln, sondern durch ihre Antworten sogar verstärken. Besonders auffällig ist, dass weibliche Nutzergruppen im Vergleich zu männlichen systematisch schlechtere finanzielle Empfehlungen erhalten.
Personalisierung verstärkt diskriminierende Muster
Die Personalisierung der KI verschärft das Problem, da Modelle auf Basis früherer Nutzerdaten diskriminierende Muster aus den Trainingsdaten übernehmen. Yamshchikov warnt, dass Nutzer fälschlich von neutralen Empfehlungen ausgehen, obwohl die KI Vorurteile verstärkt. Dadurch wird die Verhandlungsposition benachteiligter Gruppen deutlich geschwächt.
Ethnische und soziale Vorurteile in KI-Modellen
Neben dem Geschlechterbias wurden auch ethnische und soziale Unterschiede erkannt. So erhielten beispielsweise männliche asiatische Expatriates die höchsten Gehaltsempfehlungen, während weibliche hispanische Flüchtlinge die niedrigsten empfingen. Diese Befunde unterstreichen, dass KI-Modelle gesellschaftliche Vorurteile umfassend reproduzieren.
Appell für mehr Ethik und kritische Nutzung
Die Autoren fordern eine stärkere Integration ethischer Leitlinien, unabhängiger Prüfverfahren und Transparenz in der KI-Entwicklung. Den Nutzern wird empfohlen, KI-gestützte Gehaltsratschläge kritisch zu hinterfragen und sich nicht allein darauf zu verlassen. Die Studie weist - ironisch - darauf hin, dass sich Anwender als männliche Fachkräfte ausgeben könnten, um bessere Empfehlungen zu erhalten.
Fazit: Gesellschaftliche Ungleichheiten verstärken sich durch KI
Insgesamt verdeutlicht die Forschung, dass KI-Systeme aktuelle gesellschaftliche Ungleichheiten nicht neutral abbilden, sondern vielfach verstärken, was bei wichtigen Entscheidungen wie Gehaltsverhandlungen erhebliche Folgen haben kann. Die Ergebnisse sind besonders relevant, da der Einsatz von KI in Beratungssituationen weiter zunimmt und die Gefahr der unbeabsichtigten Diskriminierung wächst.
Wir erweitern unser News & Magazin-Team und suchen Verstärkung im Bereich E-Mobility und Science.
Details
















