Algoritmisering en de black box - tijd voor verklaarbare AI?

machine learning school robot

Black boxes bij AI treden op wanneer machine learning systemen beslissingen maken die door de gebruiker niet duidelijk of vanzelfsprekend zijn. Het gebruik van de zelflerende algoritmes kan onbedoeld leiden tot discriminatie of een gebrek aan vertrouwen. Transparantie, verklaarbaarheid, verantwoordelijkheid zijn belangrijke kenmerken voor een begrijpelijk en uitlegbaar AI-systeem. Waarom gebruikt niet iedereen Explainable AI?

Waarom AI niet neutraal is: bias #4 proxies

werving selectie algoritme bias proxy

Proxies zijn cijfers die correlaties aanduiden tussen bepaalde concepten, waardoor ze voor een algoritme dienen als een soort voorspellers. Blond haar is bijvoorbeeld een proxy voor een blank huidtype. Aan de hand van zulke correlaties worden mensen ingedeeld in groepen. Er ontstaan patronen waaruit blijkt dat bepaalde groepen gemiddeld slechtere prestaties, vaardigheden of capaciteiten vertonen, met als gevolg een systematische uitsluiting van die groepen. Wat kunnen we eraan doen?

Waarom AI niet neutraal is: bias #3

HR algoritme werving selectie bias

Als je algoritmes wil gebruiken om iets automatisch te voorspellen, moet je de wereld vereenvoudigen om het in programmeertaal te kunnen vastleggen. Bijvoorbeeld: wil je een slimme kandidaat - neem iemand met een universitair diploma. Organisaties maken dus keuzes over welke indicatoren ze opnemen in hun algoritmische analyses. Dit keuzeproces wordt ‘feature selection’ genoemd. Omdat algoritmes een vereenvoudigde wereld vereisen, kunnen biases ontstaan. Deel 3 uit een serie van vijf.

AI en recruitment als kat-en-muisspel

Steeds vaker gebruiken organisaties HR-technologie en analytics ten behoeve van beter matchende en presterende medewerkers. Maar wat als individuele werkenden op hun beurt dit ook gaat inzetten om werkgevers en hun HR-beleid beter te kunnen inschatten?

18 juni ’19: OmkeerEvent over AI in Recruitment

OmkeerEvent 2019 AI in recruitement

Hoe kan AI een goede en eerlijke arbeidsmarkt faciliteren of juist frustreren? Met het OmkeerEvent – AI in Recruitment – op 18 juni 2019 willen we partijen laten kennismaken met HR-technologie aangedreven door Artificiële Intelligentie (AI). Samen willen we scherper krijgen wat de tech-beloften de arbeidsmarkt van morgen écht te bieden hebben. Hoe beïnvloedt het de kansen op werk voor verschillende partijen – positief, maar mogelijk ook negatief? De AI-technologie is boeiend en interessant en kan zeer nuttig zijn. Maar welke vragen moeten we ons blijven stellen in zowel de wetenschap als praktijk? Denk en debatteer mee!

Waarom AI niet neutraal is: bias #2

Bias AI - werving & selectie recruitment algoritmes

Wat een algoritme leert, hangt af van de ‘trainingsdata’ waaraan het is blootgesteld. Deze gegevens trainen het algoritme om zich op een bepaalde manier te gedragen. De kwaliteit en waarde (en neutraliteit) van de ingevoerde data is hierbij dus essentieel. Dit valt onder te verdelen in twee categorieën: ‘labelling examples’ en ‘data collection’. Deel 2 in de (5-delige) serie Waarom AI niet neutraal is.

Waarom AI niet neutraal is: bias #1

Bias in AI - werving & selectie recruitment algoritmes

Organisaties gebruiken data als input voor algoritmes, die hen vervolgens kunnen ondersteunen in het maken van keuzes. Stel, een organisatie wil uit een grote groep potentiële medewerkers een selectie maken van 'goede' werknemers. Hoe definieer je ‘goed’ in meetbare eigenschappen? Is een goede werknemer iemand die de meeste producten verkoopt? Iemand die nooit te laat komt? In eerste instantie lijken dit redelijke overwegingen in het voorspellen van ‘goede’ werknemers, maar uitsluiting van groepen mensen is hierbij reëel. Deel 1 uit een serie: Waarom een doelvariabele kan leiden tot (onbedoelde) discriminatie.

Eerlijkheid binnen AI: het sollicitant-perspectief

Fairness in AI recruitment

De traditionele werving en selectie, waarbij HR-medewerkers zelf een CV en motivatiebrief lezen en beoordelen, heeft plaatsgemaakt voor het zogenoemde e-recruitment of ATS (Applicant Tracking System). Door middel van algoritmes worden CV’s en motivatiebrieven gescand op bepaalde vaardigheden of kenmerken. De kandidaat wordt op basis van deze analyse afgewezen of uitgenodigd voor een sollicitatiegesprek. Maar wordt deze manier van afwijzen als eerlijk ervaren? Een uiterst relevante vraag, want de sollicitanten zijn een belangrijke groep die met AI te maken krijgt en hun ervaring is bepalend voor maatschappelijke acceptatie van de inzet van AI bij recruitment.

Psychotechniek revisited

David van Lennep algoritmes psychotechniek

In het werving en selectieproces is in de afgelopen eeuw veel kennis ontwikkeld over het beoordelen en meten van geschiktheid, het kritisch toetsen van instrumenten op validiteit en betrouwbaarheid, en het terugdringen van bias. Er doet zich nu een nieuw fenomeen voor: de inzet van AI in recruitment en selectieprocedures. Claims zijn dat dat sneller, effectiever en met minder bias plaatsvindt dan met de tussenkomst van mensen. Opvallend is dat de ICT bij de ontwikkeling van algoritmes een belangrijke rol speelt, maar dat de link naar bestaande kennis vanuit de personeelsselectie weinig wordt gelegd. Wat is er nodig om de uitspraken over geschiktheid op zijn merites te kunnen toetsen en hoe kan door samenwerking tussen personeelspsychologie en ICT de kwaliteit verbeterd worden?

Algoritmes leiden niet automatisch tot eerlijkere selectie

Steeds meer werkgevers zetten algoritmes in voor werving en selectie. Bij Nike en Unilever is het niet meer ongewoon om pas in de derde ronde van de sollicitatieprocedure in gesprek te komen met een menselijke medewerker. Vooroordelen en ongelijkheid kunnen zo meer ruimte krijgen, volgens Annemarie Hiemstra en Isabelle Nevels.

Over NSvP

De NSvP is een onafhankelijk vermogensfonds, dat zich inzet voor een menswaardige toekomst van werk. Wij stellen de vraag hoe de arbeidsmarkt van morgen er uit ziet en wat dat vraagt van de talent-ontwikkeling van jongeren en werkenden.

Rijnkade 88
6811 HD Arnhem
info@nsvp.nl
026 - 44 57 800

logo footer

Vind ons op Facebook
Volg ons