Beeldvorming van mensen met een Afrikaanse haarstijl

Janice Odijk

“Als je haar maar goed zit!” is een gevleugelde uitspraak. Maar wat is goed en wie bepaalt dat? Janice Odijk deed onderzoek naar natural hair-dilemma: de invloed van een natuurlijke Afrikaanse haarstijl bij sollicitaties. Afros, dreadlocks of vlechtjes zijn de meest gangbare haarstijlen voor mensen met natuurlijk kroeshaar, maar hebben in Europese cultuur een negatieve associatie. “Je wilt je authentieke zelf kunnen zijn en tegelijkertijd een professionele indruk achterlaten, maar het één lijkt het ander uit te sluiten”, aldus Janice. Met het onderzoek wil zij de bewustwording rond dit thema vergroten en laten zien dat onbewuste bias een rol speelt bij concepten als geschiktheid en professionaliteit.

Scriptieprijzen voor maatschappelijk relevante onderzoeken

3 winnaars David van Lennep Scriptieprijs 2021

Marjolein Jonker (Universiteit van Amsterdam) won de David van Lennep Scriptieprijs met haar onderzoek naar workplace telepressure, emotionele uitputting en werk-familieschuld. De 2e en 3e prijs waren voor de Erasmus Universiteit Rotterdam: respectievelijk Janice Odijk (voor haar masterthese over Natural Hair Bias bij werving en selectie) en Sarina Verwijmeren (voor haar onderzoek naar Playful Work Design). De David van Lennep Scriptieprijs werd eind mei 2021 uitgereikt via de virtuele wereld van GoMeet.

Pas op de plaats voor grote beloften van AI in recruitment

AI HR recruitment

Op welke kenmerken verschilt de lijst van geschikte kandidaten, wanneer machine learning modellen worden gebruikt in plaats van meer traditionele technieken? Komen er meer inclusieve, diverse keuzes of juist meer exclusieve keuzes in geschikte kandidaten in praktijk tot stand? Of maakt het geen verschil? Jacqueline van Breemen (NOA) deed onderzoek naar de consequenties van selectie met behulp van AI op de diversiteit van de geselecteerden. Ze won hiermee tevens de Eindprijs van de NSvP AI x Recruitment Challenge.

Hoe groot is de bias van werving & selectie via AI?

NOA

Jacqueline van Breemen en collega’s van NOA (psychologisch advies- en onderzoeksbureau dat nauw samenwerkt met de sectie sociale en organisatiepsychologie van de Vrije Universiteit Amsterdam) laten zich uitdagen door de vraag hoe we de eerlijkheid moeten wegen van selectiebeslissingen door drie verschillende selectiemethodes. Hoe anders is de lijst van geschikte kandidaten, wanneer er machine learning modellen worden gebruikt in plaats van meer traditionele technieken? Verschilt deze lijst van kandidaten erg van elkaar? Zo ja, op welke (persoons)kenmerken precies?

Dag van de Inclusieve Arbeidsmarkt: 4 november

Dag van de Inclusieve Arbeidsmarkt Muntgebouw Utrecht

De NSvP, Goldschmeding Foundation en Instituut Gak organiseren op maandag 4 november 2019 de Dag van de Inclusieve Arbeidsmarkt. Tijdens dit symposium maken we de stand van zaken op rond de inclusieve arbeidsmarkt. Daarbij zoeken we met maatschappelijke organisaties, werkgevers, beleidsmakers en onderzoekers een concreet antwoord op de vraag welke praktische stappen er moeten worden ondernomen om de Nederlandse arbeidsmarkt inclusiever te maken.

Werken aan scenario's voor AI en de arbeidsmarkt

Selection Automat (c) Michiel Bunjes

Algoritmes die sollicitatiebrieven beoordelen. Voice-assistants die het sollicitatiegesprek overnemen. Het voorspellen van de perfecte kandidaat voor een vacature. De mogelijkheden van AI voor werving en selectie van werknemers lijken eindeloos. Hoe ziet de toekomst van deze ontwikkeling eruit? En hoe faciliteert – of frustreert – AI de diversiteit op de arbeidsmarkt?

Waarom AI niet neutraal is: bias #5 masking

ai recruitment selection

Waar we in eerdere artikelen spraken over hoe het gebruik van data mining en algoritmes onbedoeld kan leiden tot discriminatie bij de werving en selectie van personeel, draait dit laatste mechanisme de rollen een beetje om. Algoritmes bieden namelijk handvatten om juist bewust te discrimineren. We bespreken het laatste mechanisme genoemd door onderzoekers Barocas en Selbst: masking

Het algoritme is kapot

Bas van de Haterd OmkeerEvent Metaal Kathedraal 2019

Een algoritme is een eindige reeks instructies die vanuit een gegeven begintoestand naar een beoogd doel leiden.

Onze hersenen zijn in de basis ook algoritmes. Vanuit een reeks instructies, die we vaak onbewust geven, komen we tot een conclusie, bijvoorbeeld wie we uitnodigen voor een sollicitatiegesprek of wie na zo'n gesprek de baan krijgt.

Waarom AI niet neutraal is: bias #4 proxies

werving selectie algoritme bias proxy

Proxies zijn cijfers die correlaties aanduiden tussen bepaalde concepten, waardoor ze voor een algoritme dienen als een soort voorspellers. Blond haar is bijvoorbeeld een proxy voor een blank huidtype. Aan de hand van zulke correlaties worden mensen ingedeeld in groepen. Er ontstaan patronen waaruit blijkt dat bepaalde groepen gemiddeld slechtere prestaties, vaardigheden of capaciteiten vertonen, met als gevolg een systematische uitsluiting van die groepen. Wat kunnen we eraan doen?

Waarom AI niet neutraal is: bias #3

HR algoritme werving selectie bias

Als je algoritmes wil gebruiken om iets automatisch te voorspellen, moet je de wereld vereenvoudigen om het in programmeertaal te kunnen vastleggen. Bijvoorbeeld: wil je een slimme kandidaat - neem iemand met een universitair diploma. Organisaties maken dus keuzes over welke indicatoren ze opnemen in hun algoritmische analyses. Dit keuzeproces wordt ‘feature selection’ genoemd. Omdat algoritmes een vereenvoudigde wereld vereisen, kunnen biases ontstaan. Deel 3 uit een serie van vijf.

Over NSvP

De NSvP maakt zich hard voor een menswaardige toekomst van werk. We stellen de vraag hoe de arbeidsmarkt van morgen eruit ziet en onderzoeken hoe werk zodanig kan worden ingericht dat het bijdraagt aan de menselijke waarden en behoeften. We zijn een onafhankelijke stichting. We financieren als vermogensfonds innovatieve projecten op het snijvlak van mens, werk en organisatie.

Rijnkade 88
6811 HD Arnhem
info@nsvp.nl
026 - 44 57 800

 

Vind ons op Facebook
Volg ons