Dit rapport, geschreven voor de Raad van Europa, gaat over discriminatie veroorzaakt door besluitvorming op basis van algoritmen en andere vormen van kunstmatige intelligentie (AI). AI helpt om worden doelen als efficiëntie, gezondheid en economische groei te behalen, maar kan ook discriminerende effecten hebben; bijvoorbeeld wanneer AI-systemen leren van vooringenomen ('biased') menselijke beslissingen.
In zowel de publieke en private sector kunnen organisaties beslissingen nemen gebaseerd op AI - met verstrekkende gevolgen voor mensen. Overheidsinstanties kunnen AI bijvoorbeeld gebruiken voor het nemen van beslissingen over pensioenuitkeringen, huursubsidie of werkloosheidsuitkeringen. En in de particuliere sector kan AI bijvoorbeeld worden gebruikt om werkzoekenden te selecteren. Bovendien kunnen veel kleine beslissingen, samen genomen, grote gevolgen hebben. Ter illustratie: prijsdiscriminatie op basis van algoritmes kan ertoe leiden dat bepaalde groepen in de samenleving steeds meer betalen.

De meest relevante wettelijke instrumenten om de risico's van AI-gedreven discriminatie te beperken, zijn de wetgeving inzake non-discriminatie en gegevensbescherming. Als deze juridische instrumenten effectief worden gehandhaafd, kunnen ze beide helpen om illegale discriminatie te bestrijden. Maar AI opent ook de weg voor nieuwe vormen van oneerlijke differentiatie (je zou kunnen zeggen: discriminatie) die buiten de huidige wetgeving vallen. De meeste non-discriminatiewetten zijn alleen van toepassing op discriminatie op basis van specifiek beschreven kenmerken, zoals huidskleur. Die wetten zijn niet van toepassing als een AI-systeem mensen gaat onderscheiden op basis van nieuwe groepen / classificaties. 

Waarschijnlijk hebben we aanvullende regelgeving nodig om de eerlijkheid en de mensenrechten op het gebied van AI te beschermen. Maar het reguleren van AI in het algemeen is niet de juiste aanpak, omdat het gebruik van AI-systemen te verschillend is. In verschillende sectoren staan verschillende waarden op het spel en ontstaan er verschillende problemen. Daarom moeten sectorspecifieke regels worden overwogen. Er is meer onderzoek en debat nodig.

 

Discrimination, artificial intelligence, and algorithmic decision-making
Study by Prof. Frederik Zuiderveen Borgesius - Professor of Law, Institute for Computing and Information Sciences (iCIS), Radboud University Nijmegen, and Researcher at the Institute for Information Law, University of Amsterdam (the Netherlands)

Published by the Directorate General of Democracy
© Council of Europe - 2018

 

Auteur(s)

Prof. Frederik Zuiderveen Borgesius

Uitgever

Raad van Europa

Bijlage

Over NSvP

De NSvP maakt zich hard voor een menswaardige toekomst van werk. We stellen de vraag hoe de arbeidsmarkt van morgen eruit ziet en onderzoeken hoe werk zodanig kan worden ingericht dat het bijdraagt aan de menselijke waarden en behoeften. We zijn een onafhankelijke stichting. We financieren als vermogensfonds innovatieve projecten op het snijvlak van mens, werk en organisatie.

Rijnkade 88
6811 HD Arnhem
info@nsvp.nl
026 - 44 57 800

 

Vind ons op Facebook
Volg ons