Notebookcheck Logo

KI-basierte Personalrekrutierung: Experiment deckt Diskriminierung durch OpenAI's GPT auf

Diskriminierung durch OpenAI's GPT-3 und GPT-4 bei Bewertung und Auswahl für offene Stellen (Symbolbild: DALL-E / AI, bearbeitet)
Diskriminierung durch OpenAI's GPT-3 und GPT-4 bei Bewertung und Auswahl für offene Stellen (Symbolbild: DALL-E / AI, bearbeitet)
Eine aktuelle Studie zeigt, dass bei der automatisierten Bewerberauswahl durch OpenAIs GPT-3 und GPT-4 bestimmte Personengruppen stark benachteiligt werden. Das umfassende Experiment von Bloomberg hat ergeben, dass KI-basierte Recruiting-Programme Bewerber selbst nach bestimmten Namen und Ethnie diskriminieren.

Automatisierte Rekrutierungsprogramme, die auf OpenAi's GPT basieren, werden von Unternehmen eingesetzt, um eine Auswahl für ausgeschriebene Stellen zu treffen. Personalvermittler nutzen das Tool, um Zeit zu sparen, doch wie ein studienbasiertes Experiment von Bloomberg gezeigt hat, ist die künstliche Intelligenz bei der Bewertung und Auswahl von Bewerbern voreingenommen.

Das Problem ist, dass das zugrunde liegende KI-Modell seine Informationen aus riesigen Datenmengen wie Artikeln, Online-Kommentaren und Social-Media-Posts bezieht, die auch rassistische, frauenfeindliche und viele andere diskriminierende Inhalte enthalten können. Für die umfassende Untersuchung wurden beispielsweise fiktive Namen (und Lebensläufe) verwendet, die mit einer bestimmten ethnischen Herkunft in Verbindung gebracht werden, um sich auf eine reale Stelle zu bewerben.

So wurden Namen ausgewählt, die mit Schwarzen oder Weißen sowie mit spanischen oder asiatischen Frauen und Männernin Verbindung gebracht werden. Das Experiment wurde 1.000 Mal für eine echte Stelle als Finanzanalyst mit Hunderten von verschiedenen Namen und Namenskombinationen wiederholt und dann nochmals für vier weitere Stellen für Softwareingenieure und andere Berufsgruppen.

Namen bestimmter demographischer Gruppen wurden von GPT-3 eindeutig bevorzugt. Beispielsweise wurden weibliche Namen aus dem asiatischen Raum für die Stelle in einer Position als Finanzanalyst am besten bewertet, während Namen, die eindeutig auf Schwarze Männer hindeuteten, am schlechtesten bewertet wurden, aber auch Namen, die auf Schwarze Frauen hinwiesen, wurden nur in etwa 11 % der Fälle als Top-Kandidatin für eine Stelle als Softwareingenieurin eingestuft - etwa 36 % seltener als die Gruppe mit den besten Ergebnissen.

Als Top-Kandidat für eine Stelle im Personalwesen - ein Berufsfeld, in dem historisch häufiger Frauen arbeiteten - wählte GPT deutlich häufiger Namen, die mit spanischen Frauen assoziiert werden, und als Top-Kandidat für eine Stelle bei HR Business Partner wurden fast doppelt so häufig Namen gewählt, die mit Männern assoziiert werden. Die erwähnten Beispiele sind nur Auszüge aus dem sehr umfangreichen Experiment.

Obwohl oft angenommen wird, dass KI neutraler sei und bessere Urteile fällen könne, zeigt dieses Experiment das Gegenteil. Die Voreingenommenheit konnte nicht nur für GPT-3, sondern auch für GPT-4 festgestellt werden.

Quelle(n)

Alle 1 Beträge lesen / Antworten
static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2024-03 > KI-basierte Personalrekrutierung: Experiment deckt Diskriminierung durch OpenAI's GPT auf
Autor: Nicole Dominikowski, 10.03.2024 (Update: 10.03.2024)