Waarom AI niet neutraal is: bias #3

HR algoritme werving selectie bias

Hoe 'feature selection' kan resulteren in discriminatie

In de werving en selectie van personeel levert de combinatie van algoritmes en data mining, vijf mechanismen1 op die disproportioneel bepaalde groepen in de samenleving kunnen benadelen. Het gebruik van data mining en algoritmes kan dus (onbedoeld) leiden tot discriminatie bij de werving en selectie van personeel. In meerdere artikelen worden deze vijf mechanismen apart behandeld, geïllustreerd met voorbeelden uit de praktijk. Vandaag de derde in deze serie, waarbij wederom de menselijke rol aan bod komt: feature selection. Oftewel de kenmerken die een organisatie selecteert om het algoritme te laten uitzoeken.

Als je algoritmes wil gebruiken om iets automatisch te voorspellen, moet je de wereld vereenvoudigen om het in programmeertaal te kunnen vastleggen. Want data moeten een patroonmatig beeld kunnen tonen, wat erg lastig is bij het gebruik van complexe data. Vereenvoudiging van de data is bijvoorbeeld: wil je een slimme kandidaat - neem iemand met een universitair diploma. Je kunt een algoritme tenslotte niet ieders IQ laten achterhalen. Organisaties maken dus keuzes over welke indicatoren ze opnemen in hun algoritmische analyses. Dit keuzeproces wordt ‘feature selection’ genoemd. Denk hierbij ook aan het eerdere artikel uit deze reeks waar het het vinden van een ‘goede werknemer’ werd besproken. Nadat is bepaald wat de eigenschappen van zo’n ‘goede werknemer’ zijn, moet worden gekozen hoe deze eigenschappen gevonden kunnen worden in een dataset.

Uitgebreide analyse te duur

Bij ‘feature selection´ kiezen bedrijven vaak voor kenmerken die redelijk voor het grijpen liggen. Informatie die veel gedetailleerder is – en daarmee kwalitatief beter – is moeilijker te verkrijgen én meestal erg duur. Zelfs pogingen tot minimale verbeteringen in de nauwkeurigheid van het zoekproces kunnen aanzienlijke kosten met zich meebrengen. Stel dat een organisatie wil laten voorspellen welke sollicitanten goede werknemers zullen zijn. Het is niet realistisch, en bovendien heel erg kostbaar, voor een AI-systeem om elke kandidaat afzonderlijk volledig te analyseren ten opzichte van elke mogelijke indicator en op die manier bijvoorbeeld een IQ te ontrafelen. Een organisatie zal daarom focussen op slechts enkele specifieke kenmerken bij elke kandidaat. En dat brengt risico’s met zich mee.

...een organisatie zal zich daarom focussen op slechts enkele specifieke kenmerken van alle kandidaten...

Een praktijkvoorbeeld

Hoe werkt dit in de praktijk? Door slechts een paar indicatoren te selecteren kan een bias ontstaan en kunnen bepaalde groepen onbedoeld buitengesloten worden. Neem het volgende voorbeeld: werkgevers zien opleidingsniveau vaak als een belangrijke eigenschap voor een ‘goede werknemer’. Veel Amerikaanse werkgevers nemen dan ook academische kwalificaties mee in hun overwegingen tijdens het aannemen van personeel. Zij willen uitstekend opgeleide mensen en hechten daarom veel waarde aan de reputatie van de universiteit waar de kandidaat aan heeft gestudeerd -- ook al vertellen zulke reputaties weinig over de kandidaat zelf en zijn/haar werk-gerelateerde vaardigheden en competenties. Toegelaten worden tot zulke universiteiten vereist vaak een flinke portemonnee. Het is daardoor voor sommige etnische groepen relatief zeldzaam om te studeren aan die dure universiteiten. Wanneer werkgevers enkel studenten overwegen van zulke hoog aangeschreven universiteiten, discrimineren zij dus indirect.
Bedrijven hebben dus gegronde redenen om naar meer eigenschappen te kijken dan alleen academische kwalificaties, maar omdat deze informatie gratis beschikbaar is, nemen zij daar toch genoegen mee. Dat hiermee alle overige kandidaten, en hele groepen mensen, buitengesloten worden is een rationele keus: er wordt geld bespaard, en ze weten dat de overwogen kandidaten uitstekende capaciteiten en kennis hebben ontwikkeld. Overige vaardigheden zullen vervolgens mooi meegenomen zijn.

Rationele discriminatie

Deze zogenoemde rationele discriminatie is slechts een onderdeel van een groter fenomeen: een waarin vooral etniciteit expliciet in overwegingen mee wordt genomen. Zonder een negatief vooroordeel te hebben over bepaalde groepen, nemen keuzemakers groepslidmaatschap (zoals etniciteit) soms bewust mee in hun overwegingen. Dit doen ze omdat dat relevante informatie lijkt te geven die anders moeilijk of onmogelijk is te verkrijgen.
Op deze manier kan discriminatie enkel het resultaat zijn van een tekort aan informatie, en is geen sprake van discriminatie op basis van daadwerkelijke vooroordelen. Professor Lior Strahilevitz2 geeft aan dat wanneer werkgevers bijvoorbeeld beperkt toegang hebben tot criminele registers, ze etniciteit kunnen overwegen bij het beoordelen van de kans dat een kandidaat een strafblad heeft. Dat doen ze omdat er statistische verschillen zijn tussen etnische groepen in het aantal criminele veroordelingen. Met andere woorden, werkgevers vallen terug op direct verkrijgbare en onnauwkeurige data wanneer zij geen toegang hebben tot meer specifieke, of verifieerbare informatie.

Kortom, organisaties kunnen discriminerende situaties creëren door het selecteren van de indicatoren die een algoritme gebruikt om te voorspellen wie de beste kandidaat is. Omdat algoritmes een vereenvoudigde wereld vereisen, kunnen biases ontstaan. Die ontstaan door gebrek aan betere alternatieven; het vinden en toepassen van meer gedetailleerde data is extreem duur, of er is sprake van een gebrek aan verifieerbare informatie. Hierdoor ontstaat een situatie waarin het een bewuste keuze wordt om sommige groepen uit te sluiten, zonder dat de werkgever vooroordelen heeft over die groepen. Werkgevers gaan, bij gebrek aan beter, enkel en alleen af op de statistieken.


Lees ook in deze serie:

Waarom AI niet neutraal is:

Of:

Wat als AI de recruitmentrollen omdraait? (Luc Dorenbosch)

Wat vinden sollicitanten van recruitment op basis van AI? (Homeyra Abrishamkar)

Algoritmisering en de black box - noodzaak en keerzijde van explainable AI (Homeyra Abrishamkar)

Algoritmes leiden niet automatisch tot eerlijke selectie (Annemarie Hiemstra, Isabelle Nevels)

Kunnen AI en personeelspsychologie van elkaar leren? Psychotechniek revisited (Sonia Sjollema) 



1 Barocas en Selbst (2011) - Big data’s disparate impact

2 Lior Jacob Strahilevitz (2011) - Information and Exclusion

Thema's

Onderwerpen

Sprekers en experts

Laura Lamers

Inclusief Platformwerk: drie initiatieven, een veelvoud aan inzichten

Hoe maken we beter gebruik van de potentiële meerwaarde van online arbeidsplatforms voor een meer inclusieve arbeidsmarkt? Die vraag stond centraal in de ‘challenge Inclusief Platformwerk’ van NSvP en SBCM, van waaruit drie initiatieven (KlusCV, CurrentWerkt! en LaNSCO United) kansen en obstakels hebben verkend. 
De presentatie van Laura biedt een kijkje in de lessen die zijn opgedaan in het monitoren van de drie challenge initiatieven. Specifiek wordt ingegaan op de kansen van platformwerk voor mensen met een kwetsbare positie op de arbeidsmarkt, en de rol die platformtechnologie kan spelen om kansen voor inclusie te vergroten. Hiermee biedt de presentatie een eerste indruk van de inzichten die worden gedeeld in het boek ‘Inclusief Platformwerk’. 

Laura Lamers is PhD onderzoeker aan de Universiteit Twente, faculteit Faculteit Behavioural, Management and Social Sciences. Haar focus ligt op het snijvlak van technologie en samenleving, meer specifiek menselijke waardigheid. 

Niels Arntz

In een vraaggesprek met Luc Dorenbosch (NSvP) zet Niels uiteen hoe hij als platformondernemer in Nederland aankijkt tegen de ontwikkelingen binnen platformwerk. Hoe luister je als platform naar de mensen die via je platform werken? Wat kunnen samenwerkingen tussen platforms en overheid opleveren? Wat denkt Niels over de kans van slagen van platformwerk, ook als mensen niet geheel zelfstandig kunnen werken? Kan het breder of anders dan nu het geval is? Hoe hij zou willen dat het debat over platformwerk gevoerd zou worden voor meer innovatie op de arbeidsmarkt? 

Niels Arntz is medeoprichter van horecaplatform Temper.

Muriel Serrurier Schepper

Ontdek de kracht van data labeling: kansen voor een diverse en inclusieve arbeidsmarkt

(duopresentatie met Marjolein Grootjen)

In deze sessie ontdekken we hoe mensen met een afstand tot de arbeidsmarkt de kans krijgen om zichzelf opnieuw te positioneren op de arbeidsmarkt door middel van data labeling in een kantooromgeving. Onder de begeleiding van een deskundige jobcoach werken ze in het AI Annotatie Lab aan hun vaardigheden en persoonlijke ontwikkeling om zo de weg naar de arbeidsmarkt te vinden. Tijdens de sessie wordt uitgelegd hoe dit project tot stand is gekomen en wat de werkzaamheden precies inhouden. 
Deze sessie biedt een inspirerend verhaal over hoe een nieuw soort werk kan bijdragen aan een inclusieve en rechtvaardige samenleving. Kom langs en laat je inspireren!

Muriël Serrurier Schepper is zelfstandig ondernemer, expert in data en artificial intelligence met een achtergrond in arbeids- en organisatiepsychologie. Zij is auteur van het boek Artificial Intelligence In Actie en leidt het AI Annotatie Lab.  

Marjolein Grootjen

Ontdek de kracht van data labeling: kansen voor een diverse en inclusieve arbeidsmarkt

(duopresentatie met Muriel Serrurier Schepper)

Als jobcoach bij het AI Annotatie Lab vanuit Regio Gooi en Vechtstreek begeleidt Marjolein de kandidaten die zichzelf hebben aangemeld of aangemeld zijn vanuit de verschillende gemeenten. In een traject van 6 maanden vanuit een veilige werkomgeving gaat zij samen met de kandidaat de werknemers- en sociale vaardigheden trainen. Zo komt de kandidaat erachter wat zijn intrinsieke motivatie is om te gaan werken. Tijdens deze sessie deelt ze haar persoonlijke ervaringen en laat ze zien hoe ze deelnemers stap voor stap helpt om verder te komen. Ook wordt besproken waarom dit werk bij uitstek geschikt is voor bepaalde doelgroepen.

Marjolein Grootjen is jobcoach bij WerkgeversServicepunt Regio Gooi en Vechtstreek.

Muriel en Marjolein doen samen 1 sessie

Jessica de Ruijter - Lansco

Platformwerk opzetten vanuit de coöperatieve gedachte

(duopresentatie met Leo Beekmans)

Hoe kan werken vinden via een platform nieuwe kansen bieden voor participatie en inclusie? 
In deze inspiratiesessie komen twee voorbeelden voorbij hoe de platformtechnologie vanuit de coöperatieve gedachte wordt ingezet om mensen met een uitkering te helpen met het verkrijgen van nieuwe opdrachten en werkzaamheden. Leo Beekmans van BridgeWorks en Jessica de Ruijter van LaNSCO United vertellen waarom zij deze platformen hebben opgezet, wie zij daarmee bereiken en welke nieuwe kansen deze platformen bieden voor een inclusieve arbeidsmarkt. Ook gaan ze in op hoe zo’n platform werkt in samenwerking met een sociale coöperatie, en wat hun ervaringen en geleerde lessen zijn.

Jessica de Ruijter is directeur van LaNSCO en medeoprichter van sociale coöperatie de Blauwe Paraplu.

Leo Beekmans

(duopresentatie met Jessica de Ruijter)

Leo Beekmans is arbeidsdeskundige, re-integratieconsulent, coach bij WerkmansMobiliteit en bij BridgeWorks

Robbert Boonk

Het beste wat je iemand kunt geven is een kans!

(duopresentatie met Laurens Waling)

Een matching platform voor mensen met een afstand tot de arbeidsmarkt - zonder de oneerlijke concurrentie van mensen zonder beperking. Een matching platform waar werkgevers hun vacature en hun organisatie moeten toetsen op beperkende factoren. Alleen zo ontstaan er matches zonder beperkingen. Robbert Boonk ontwikkelde dit initiatief samen met vijf internationale partners, en inmiddels is het systeem bijna operationeel. In hun zoektocht kwamen ze het hightech platform van 8Vance tegen, waar matches worden gemaakt met behulp van Artificial Intelligence (AI). Kandidaten maken een zogenaamd ‘Ability Profile’ aan en dat doet de werkgever ook voor zijn vacature. 

Het systeem Work 4 Everyone is bijna klaar. In deze sessie laat Robbert Boonk aan de hand van de proefversie alvast zien hoe het werkt. Robbert en Laurens vertellen wat het is, hoe het werkt en wat de impact hiervan kan zijn. 

Robbert Boonk is directeur van de PHH Academie (opleider van gecertificeerde jobcoaches) en mede-initiator van matching platform Work 4 Everyone.

Laurens Waling

(duopresentatie met Robbert Boonk)

Laurens Waling is organisatievernieuwer en Chief Evangelist bij 8vance Matching Technologies.

Over NSvP

De NSvP maakt zich hard voor een menswaardige toekomst van werk. We stellen de vraag hoe de arbeidsmarkt van morgen eruit ziet en onderzoeken hoe werk zodanig kan worden ingericht dat het bijdraagt aan de menselijke waarden en behoeften. We zijn een onafhankelijke stichting. We financieren als vermogensfonds innovatieve projecten op het snijvlak van mens, werk en organisatie.

Rijnkade 88
6811 HD Arnhem
info@nsvp.nl
026 - 44 57 800

 

Vind ons op Facebook
Volg ons