Dit rapport, geschreven voor de Raad van Europa, gaat over discriminatie veroorzaakt door besluitvorming op basis van algoritmen en andere vormen van kunstmatige intelligentie (AI). AI helpt om worden doelen als efficiëntie, gezondheid en economische groei te behalen, maar kan ook discriminerende effecten hebben; bijvoorbeeld wanneer AI-systemen leren van vooringenomen ('biased') menselijke beslissingen.
In zowel de publieke en private sector kunnen organisaties beslissingen nemen gebaseerd op AI - met verstrekkende gevolgen voor mensen. Overheidsinstanties kunnen AI bijvoorbeeld gebruiken voor het nemen van beslissingen over pensioenuitkeringen, huursubsidie of werkloosheidsuitkeringen. En in de particuliere sector kan AI bijvoorbeeld worden gebruikt om werkzoekenden te selecteren. Bovendien kunnen veel kleine beslissingen, samen genomen, grote gevolgen hebben. Ter illustratie: prijsdiscriminatie op basis van algoritmes kan ertoe leiden dat bepaalde groepen in de samenleving steeds meer betalen.

De meest relevante wettelijke instrumenten om de risico's van AI-gedreven discriminatie te beperken, zijn de wetgeving inzake non-discriminatie en gegevensbescherming. Als deze juridische instrumenten effectief worden gehandhaafd, kunnen ze beide helpen om illegale discriminatie te bestrijden. Maar AI opent ook de weg voor nieuwe vormen van oneerlijke differentiatie (je zou kunnen zeggen: discriminatie) die buiten de huidige wetgeving vallen. De meeste non-discriminatiewetten zijn alleen van toepassing op discriminatie op basis van specifiek beschreven kenmerken, zoals huidskleur. Die wetten zijn niet van toepassing als een AI-systeem mensen gaat onderscheiden op basis van nieuwe groepen / classificaties. 

Waarschijnlijk hebben we aanvullende regelgeving nodig om de eerlijkheid en de mensenrechten op het gebied van AI te beschermen. Maar het reguleren van AI in het algemeen is niet de juiste aanpak, omdat het gebruik van AI-systemen te verschillend is. In verschillende sectoren staan verschillende waarden op het spel en ontstaan er verschillende problemen. Daarom moeten sectorspecifieke regels worden overwogen. Er is meer onderzoek en debat nodig.

 

Discrimination, artificial intelligence, and algorithmic decision-making
Study by Prof. Frederik Zuiderveen Borgesius - Professor of Law, Institute for Computing and Information Sciences (iCIS), Radboud University Nijmegen, and Researcher at the Institute for Information Law, University of Amsterdam (the Netherlands)

Published by the Directorate General of Democracy
© Council of Europe - 2018

 

Auteur(s)

Prof. Frederik Zuiderveen Borgesius

Uitgever

Raad van Europa

Bijlage

Over NSvP

De NSvP is een onafhankelijk vermogensfonds, dat zich inzet voor een menswaardige toekomst van werk. Wij stellen de vraag hoe de arbeidsmarkt van morgen er uit ziet en wat dat vraagt van de talent-ontwikkeling van jongeren en werkenden.

Rijnkade 88
6811 HD Arnhem
info@nsvp.nl
026 - 44 57 800

logo footer

Vind ons op Facebook
Volg ons