Notebookcheck
, , , , , ,
zu verknüpfen.
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
 

Amazon verwirft KI-Tool zum Rating von Bewerbern, die KI benachteiligte weibliche Bewerber

Amazon verwirft KI-Tool zum Rating von Bewerbern, die KI benachteiligte weibliche Bewerber
Amazon verwirft KI-Tool zum Rating von Bewerbern, die KI benachteiligte weibliche Bewerber
Seit 2014 beschäftigt sich ein Programmierteam bei Amazon mit einem Tool zur Vorauswahl von Bewerbern. Dabei kommt auch Künstliche Intellligenz zum Einsatz. Das Problem: Die KI benachteiligte Frauen, da sie lernte, dass Amazon über Jahre eher Männer angestellt hatte.
Christian Hintze,
Jobs
Wir erweitern unser Test-Team und suchen Notebook-Enthusiasten für unsere Redaktion. Details

Wie bei jedem erfolgreichen Unternehmen trudeln auch bei Amazon ungeheure Mengen an Bewerbungen ein. Daher gibt es schon seit langem das Bestreben zumindest den Prozess der Vorauswahl zu automatisieren und so die Personalabteilung zu entlasten.

Ein Programmierteam bei Amazon hat daher seit 2014 ein KI-Tool im Programm, welches sich durch Maschinenlernen die Kriterien für „gute“ Bewerber selbst aneignet und die künftigen Kandidaten nach Eignung ratet. Die Kriterien ergeben sich u.a. aus den positiv verlaufenden Einstellungen der Vergangenheit. Das Problem dabei: Da Amazon in den letzten 10 Jahren deutlich mehr männliche als weibliche Bewerber einstellte, schließlich ist gerade die IT-Branche noch immer stark männlich dominiert, hat die Künstliche Intelligenz „gelernt“, dass die Eigenschaft „weiblich“ eher negativ für eine Einstellung sei.

Und so hat sich das Tool selbst beigebracht, dass männliche Kandidaten zu bevorzugen seien. Ein weiteres Problem ist, dass derartige Lernprozesse einer KI nicht immer offensichtlich sind. Das unerwünschte Folgen des Lernprozesses auf Grund von bestimmtem „Lernmaterial“ auftreten, wird teils erst spät erkannt. Natürlich haben die Programmierer versucht das Tool anzupassen und abzuändern. Dennoch konnte man sich nicht sicher sein, dass die KI nicht weitere, bisher unentdeckte Vorurteile „gelernt“ hatte. Letzten Endes zeigte sich das Unternehmen enttäuscht über das Ergebnis und stampfte das Projekt vorerst ein, das Team wurde aufgelöst.

, , , , , ,
zu verknüpfen.
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
 

Quelle(n)

Alle 2 Beträge lesen / Antworten
static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
, , , , , ,
zu verknüpfen.
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
 
Christian Hintze
Christian Hintze - Managing Editor - 1633 Artikel auf Notebookcheck veröffentlicht seit 2016
Ein C64 markierte meinen Einstieg in die Welt der PCs. Mein Schülerpraktikum verbrachte ich in der Reparaturabteilung eines Computerladens, zum Abschluss durfte ich mir aus “Werkstattresten” einen 486er PC selbst zusammenbauen. Folglich begann ich später ein Informatikstudium an der Humboldt-Uni in Berlin, Psychologie kam hinzu. Nach meiner ersten Arbeit als wissenschaftlicher Mitarbeiter an der Uni ging ich für ein Jahr nach London und arbeitete für Sega an der Qualitätssicherung von Computerspielübersetzungen, u.a. an Spielen wie Sonic & All-Stars Racing Transformed oder Company of Heroes. Seit 2017 schreibe ich für Notebookcheck.
Teilen Sie diesen Artikel um uns zu unterstützen. Jeder Link hilft!
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2018-10 > Amazon verwirft KI-Tool zum Rating von Bewerbern, die KI benachteiligte weibliche Bewerber
Autor: Christian Hintze, 10.10.2018 (Update: 10.10.2018)