De inzet van algoritmes bij werving & selectie heeft een zeer snelle vlucht genomen: CV screening, chatbots, gezichtsherkenning, videointerviewing... de mogelijkheden zijn legio. Maar hoe beïnvloedt het gebruik van AI de kansen op werk voor verschillende partijen? HR technologie is niet neutraal. Hoe verbinden we de bestaande kennis uit de personeelspsychologie met de wereld van recruitment-algoritmes? Hoe kan AI een goede en eerlijke arbeidsmarkt faciliteren - of frustreren? Hoe maken we de werking van AI eerlijk en transparant? Hoe kunnen we ervoor zorgen dat computersystemen op een verantwoorde manier worden ingezet? 

Psychotechniek revisited

David van Lennep algoritmes psychotechniek

Psychotechniek revisited

Kunnen AI en personeelspsychologie van elkaar leren?

In het werving- en selectieproces is de afgelopen eeuw veel kennis ontwikkeld over het meten van geschiktheid, het toetsen van instrumenten op validiteit en betrouwbaarheid, en het terugdringen van bias. Inmiddels wordt artificiële intelligentie (AI) ingezet bij recruitement en selectie. Dat zou sneller en effectiever zijn en zonder bias. Is dat zo? Wat is nodig om de claims over de werking van algoritmes op zijn merites te kunnen toetsen? En hoe verbinden we bij de ontwikkeling van algoritmes de kennis van ICT met de bestaande kennis over personeelsselectie?

Algoritmisering en de black box - tijd voor verklaarbare AI?

machine learning school robot

Algoritmisering en de black box - tijd voor verklaarbare AI?

Black boxes bij AI treden op wanneer machine learning systemen beslissingen maken die door de gebruiker niet duidelijk of vanzelfsprekend zijn. Dit kan onbedoeld leiden tot discriminatie of een gebrek aan vertrouwen. Transparantie, verklaarbaarheid, verantwoordelijkheid zijn belangrijke kenmerken voor een begrijpelijk en uitlegbaar AI-systeem. Waarom gebruikt niet iedereen Explainable AI? En wat vinden we er eigenlijk van als een machine een onverklaarbare beslissing neemt?

Eerlijkheid binnen AI: het sollicitant-perspectief

Fairness in AI recruitment

Eerlijkheid binnen AI: het sollicitant-perspectief

HR-medewerkers die CV's en motivatiebrieven beoordelen hebben plaatsgemaakt voor e-recruitment of ATS (Applicant Tracking System). Met algoritmes worden CV’s en brieven gescand op bepaalde kenmerken, op basis waarvan de sollicitant wordt afgewezen of op gesprek mag. Wordt deze manier van afwijzen als eerlijk ervaren? De ervaring van de sollicitanten is bepalend voor maatschappelijke acceptatie van de inzet van AI bij recruitment.

Het algoritme is kapot

Bas van de Haterd OmkeerEvent Metaal Kathedraal 2019

Het algoritme is kapot

"Onze hersenen zijn in de basis ook algoritmes. Vanuit een reeks instructies, die we vaak onbewust geven, komen we tot een conclusie, bijvoorbeeld wie we uitnodigen voor een sollicitatiegesprek of wie na zo'n gesprek de baan krijgt." Bas van de Haterd legt in zijn column uit waarom algoritmes juist kunnen zorgen voor een eerlijke kans op de arbeidsmarkt voor iedereen.

AI en recruitment als kat-en-muisspel

AI en recruitment als kat-en-muisspel

Wat als AI de recruitmentrollen omdraait? Steeds vaker gebruiken organisaties HR-technologie en analytics ten behoeve van beter matchende en presterende medewerkers. Maar wat als individuele werkenden op hun beurt dit ook gaat inzetten om werkgevers en hun HR-beleid beter te kunnen inschatten?

Waarom AI niet neutraal is: bias #1

Bias in AI - werving & selectie recruitment algoritmes

Waarom AI niet neutraal is: bias #1

Stel, een organisatie wil uit een grote groep mensen een selectie maken van 'goede' werknemers. Hoe definieer je ‘goed’ in meetbare eigenschappen? Is een goede werknemer iemand die de meeste producten verkoopt? Iemand die nooit te laat komt? Het lijken redelijke overwegingen in het voorspellen van ‘goede’ werknemers, maar uitsluiting van groepen mensen is hierbij reëel. Deel 1 uit een serie: Hoe een doelvariabele kan leiden tot (onbedoelde) discriminatie.

Waarom AI niet neutraal is: bias #2

Bias AI - werving & selectie recruitment algoritmes

Waarom AI niet neutraal is: bias #2

Wat een algoritme leert, hangt af van de ‘trainingsdata’ waaraan het is blootgesteld. Deze gegevens trainen het algoritme om zich op een bepaalde manier te gedragen. De kwaliteit en waarde (en neutraliteit) van de ingevoerde data is hierbij dus essentieel. Dit valt onder te verdelen in twee categorieën: ‘labelling examples’ en ‘data collection’. Deel 2 in de (5-delige) serie Waarom AI niet neutraal is.

Waarom AI niet neutraal is: bias #3

HR algoritme werving selectie bias

Waarom AI niet neutraal is: bias #3

Als je algoritmes wil gebruiken om iets automatisch te voorspellen, moet je de wereld vereenvoudigen om het in programmeertaal te kunnen vastleggen. Bijvoorbeeld: wil je een slimme kandidaat - neem iemand met een universitair diploma. Organisaties maken dus keuzes over welke indicatoren ze opnemen in hun algoritmische analyses. Dit keuzeproces - ‘feature selection’ - werkt biases in de hand. Deel 3 uit een serie van vijf.

Waarom AI niet neutraal is: bias #4 proxies

werving selectie algoritme bias proxy

Waarom AI niet neutraal is: bias #4 proxies

Proxies zijn cijfers die correlaties aanduiden tussen bepaalde concepten, waardoor ze voor een algoritme dienen als een soort voorspellers. Blond haar is bijvoorbeeld een proxy voor een blank huidtype. Aan de hand van zulke correlaties worden mensen ingedeeld in groepen. Er ontstaan patronen waaruit blijkt dat bepaalde groepen gemiddeld slechtere prestaties, vaardigheden of capaciteiten vertonen, met als gevolg een systematische uitsluiting van die groepen. Wat kunnen we eraan doen?

Algoritmes leiden niet automatisch tot eerlijkere selectie

Algoritmes leiden niet automatisch tot eerlijkere selectie

Voorstanders van het gebruik van artificiële intelligentie voor personeelsvraagstukken stellen dat het kan leiden tot meer inclusieve werkomgevingen. Tegelijkertijd is er een groeiend besef dat algoritmes zijn gebaseerd op menselijke input. Hoe kunnen we ervoor zorgen dat AI op een verantwoorde manier wordt ingezet?

18 juni ’19: OmkeerEvent over AI in Recruitment

OmkeerEvent 2019 AI in recruitement

18 juni ’19: OmkeerEvent over AI in Recruitment

Hoe kan AI een goede en eerlijke arbeidsmarkt faciliteren of juist frustreren? Met het OmkeerEvent – AI in Recruitment – op 18 juni 2019 willen we partijen laten kennismaken met HR-technologie aangedreven door AI. Samen willen we scherper krijgen wat de tech-beloften de arbeidsmarkt van morgen écht te bieden hebben. Hoe beïnvloedt het de kansen op werk voor verschillende partijen – positief, maar mogelijk ook negatief? Welke vragen moeten we ons blijven stellen?

Over NSvP

De NSvP is een onafhankelijk vermogensfonds, dat zich inzet voor een menswaardige toekomst van werk. Wij stellen de vraag hoe de arbeidsmarkt van morgen er uit ziet en wat dat vraagt van de talent-ontwikkeling van jongeren en werkenden.

Rijnkade 88
6811 HD Arnhem
info@nsvp.nl
026 - 44 57 800

logo footer

Vind ons op Facebook
Volg ons