Dag van de Inclusieve Arbeidsmarkt: 4 november

Dag van de Inclusieve Arbeidsmarkt Muntgebouw Utrecht

De NSvP, Goldschmeding Foundation en Instituut Gak organiseren op maandag 4 november 2019 de Dag van de Inclusieve Arbeidsmarkt. Tijdens dit symposium maken we de stand van zaken op rond de inclusieve arbeidsmarkt. Daarbij zoeken we met maatschappelijke organisaties, werkgevers, beleidsmakers en onderzoekers een concreet antwoord op de vraag welke praktische stappen er moeten worden ondernomen om de Nederlandse arbeidsmarkt inclusiever te maken.

Methodiekbeschrijving: Een goed gesprek over diversiteit

Uitgangspunt van deze methodiek is dat een zinvolle omgang met diversiteit alleen mogelijk is wanneer er een gedeelde opvatting over diversiteit in het team bestaat. Deze opvatting moet bovendien gekoppeld zijn aan het eigen professioneel handelen. Met de methodiek maak je diversiteit in het team bespreekbaar, signaleer je samen problemen, dilemma's en kansen rond diversiteit en mogelijke praktische acties en verbeteringen rond diversiteit in het werk.

Handbook MOOD: Vluchtelingen en werk

In het handboek Handboek Meedoen Ontwikkelen Oriënteren Doorstromen (MOOD) wordt een nieuwe methode beschreven ter vergroting van de economische en maatschappelijke participatie van vluchtelingen. Deze methode is ontwikkeld in en door Wereldwerk aan de Zaan. 

Boek: Diversiteit: Hoofd, hart en buik

'Diversiteit: Hoofd, hart en buik - de inclusieve aanpak' beschrijft vijf interventies gericht op de implementatie van diversiteitbeleid en het creëren van een inclusieve cultuur. Hoe stimuleer je op teamniveau het vermogen om met verschillen in identiteit, cultuur of achtergrond om te gaan? Hoe zorg je dat verschillen herkend, benut en gewaardeerd worden ten behoeve van de kwaliteit van de dienstverlening?

Werken aan scenario's voor AI en de arbeidsmarkt

Selection Automat (c) Michiel Bunjes

Algoritmes die sollicitatiebrieven beoordelen. Voice-assistants die het sollicitatiegesprek overnemen. Het voorspellen van de perfecte kandidaat voor een vacature. De mogelijkheden van AI voor werving en selectie van werknemers lijken eindeloos. Hoe ziet de toekomst van deze ontwikkeling eruit? En hoe faciliteert – of frustreert – AI de diversiteit op de arbeidsmarkt?

Waarom AI niet neutraal is: bias #5 masking

ai recruitment selection

Waar we in eerdere artikelen spraken over hoe het gebruik van data mining en algoritmes onbedoeld kan leiden tot discriminatie bij de werving en selectie van personeel, draait dit laatste mechanisme de rollen een beetje om. Algoritmes bieden namelijk handvatten om juist bewust te discrimineren. We bespreken het laatste mechanisme genoemd door onderzoekers Barocas en Selbst: masking

Het algoritme is kapot

Bas van de Haterd OmkeerEvent Metaal Kathedraal 2019

Een algoritme is een eindige reeks instructies die vanuit een gegeven begintoestand naar een beoogd doel leiden.

Onze hersenen zijn in de basis ook algoritmes. Vanuit een reeks instructies, die we vaak onbewust geven, komen we tot een conclusie, bijvoorbeeld wie we uitnodigen voor een sollicitatiegesprek of wie na zo'n gesprek de baan krijgt.

Waarom AI niet neutraal is: bias #4 proxies

werving selectie algoritme bias proxy

Proxies zijn cijfers die correlaties aanduiden tussen bepaalde concepten, waardoor ze voor een algoritme dienen als een soort voorspellers. Blond haar is bijvoorbeeld een proxy voor een blank huidtype. Aan de hand van zulke correlaties worden mensen ingedeeld in groepen. Er ontstaan patronen waaruit blijkt dat bepaalde groepen gemiddeld slechtere prestaties, vaardigheden of capaciteiten vertonen, met als gevolg een systematische uitsluiting van die groepen. Wat kunnen we eraan doen?

Waarom AI niet neutraal is: bias #3

HR algoritme werving selectie bias

Als je algoritmes wil gebruiken om iets automatisch te voorspellen, moet je de wereld vereenvoudigen om het in programmeertaal te kunnen vastleggen. Bijvoorbeeld: wil je een slimme kandidaat - neem iemand met een universitair diploma. Organisaties maken dus keuzes over welke indicatoren ze opnemen in hun algoritmische analyses. Dit keuzeproces wordt ‘feature selection’ genoemd. Omdat algoritmes een vereenvoudigde wereld vereisen, kunnen biases ontstaan. Deel 3 uit een serie van vijf.

Waarom AI niet neutraal is: bias #2

Bias AI - werving & selectie recruitment algoritmes

Wat een algoritme leert, hangt af van de ‘trainingsdata’ waaraan het is blootgesteld. Deze gegevens trainen het algoritme om zich op een bepaalde manier te gedragen. De kwaliteit en waarde (en neutraliteit) van de ingevoerde data is hierbij dus essentieel. Dit valt onder te verdelen in twee categorieën: ‘labelling examples’ en ‘data collection’. Deel 2 in de (5-delige) serie Waarom AI niet neutraal is.

Over NSvP

De NSvP is een onafhankelijk vermogensfonds, dat zich inzet voor een menswaardige toekomst van werk. Wij stellen de vraag hoe de arbeidsmarkt van morgen er uit ziet en wat dat vraagt van de talent-ontwikkeling van jongeren en werkenden.

Rijnkade 88
6811 HD Arnhem
info@nsvp.nl
026 - 44 57 800

logo footer

Vind ons op Facebook
Volg ons