Notebookcheck

Amazon verwirft KI-Tool zum Rating von Bewerbern, die KI benachteiligte weibliche Bewerber

Amazon verwirft KI-Tool zum Rating von Bewerbern, die KI benachteiligte weibliche Bewerber
Amazon verwirft KI-Tool zum Rating von Bewerbern, die KI benachteiligte weibliche Bewerber
Seit 2014 beschäftigt sich ein Programmierteam bei Amazon mit einem Tool zur Vorauswahl von Bewerbern. Dabei kommt auch Künstliche Intellligenz zum Einsatz. Das Problem: Die KI benachteiligte Frauen, da sie lernte, dass Amazon über Jahre eher Männer angestellt hatte.

Wie bei jedem erfolgreichen Unternehmen trudeln auch bei Amazon ungeheure Mengen an Bewerbungen ein. Daher gibt es schon seit langem das Bestreben zumindest den Prozess der Vorauswahl zu automatisieren und so die Personalabteilung zu entlasten.

Ein Programmierteam bei Amazon hat daher seit 2014 ein KI-Tool im Programm, welches sich durch Maschinenlernen die Kriterien für „gute“ Bewerber selbst aneignet und die künftigen Kandidaten nach Eignung ratet. Die Kriterien ergeben sich u.a. aus den positiv verlaufenden Einstellungen der Vergangenheit. Das Problem dabei: Da Amazon in den letzten 10 Jahren deutlich mehr männliche als weibliche Bewerber einstellte, schließlich ist gerade die IT-Branche noch immer stark männlich dominiert, hat die Künstliche Intelligenz „gelernt“, dass die Eigenschaft „weiblich“ eher negativ für eine Einstellung sei.

Und so hat sich das Tool selbst beigebracht, dass männliche Kandidaten zu bevorzugen seien. Ein weiteres Problem ist, dass derartige Lernprozesse einer KI nicht immer offensichtlich sind. Das unerwünschte Folgen des Lernprozesses auf Grund von bestimmtem „Lernmaterial“ auftreten, wird teils erst spät erkannt. Natürlich haben die Programmierer versucht das Tool anzupassen und abzuändern. Dennoch konnte man sich nicht sicher sein, dass die KI nicht weitere, bisher unentdeckte Vorurteile „gelernt“ hatte. Letzten Endes zeigte sich das Unternehmen enttäuscht über das Ergebnis und stampfte das Projekt vorerst ein, das Team wurde aufgelöst.

Quelle(n)

Alle 2 Beträge lesen / Antworten
static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
Teilen Sie diesen Artikel um uns zu unterstützen. Jeder Link hilft!
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2018-10 > Amazon verwirft KI-Tool zum Rating von Bewerbern, die KI benachteiligte weibliche Bewerber
Autor: Christian Hintze, 10.10.2018 (Update: 10.10.2018)
Christian Hintze
Christian Hintze - Editor
Aus Interesse an Computer-Spielen habe ich ein Informatikstudium begonnen, bin dann doch Diplom-Psychologe geworden, aber den Spielen und der Hardware treu geblieben. Z.B. beim Auslandsjahr in London als Spieletester bei Sega. In meiner Freizeit finde ich neben PC-Spielen Ausgleich beim Sport (mittlerweile vorwiegend Hallenfußball und meinem Kleinkind hinterher laufen), Gitarre spielen und Bambusräder bauen (na gut, bisher nur ein einziges unter Anleitung).