De noodzaak en keerzijde van Explainable AI

machine learning school robot

Wie de laatste ontwikkelingen bijhoudt rondom Kunstmatige Intelligentie valt één ding op: de ontwikkelingen blijven voortzetten, terwijl de ontwikkelaars en de gebruikers eigenlijk niet eenduidig weten te vertellen hoe de systemen precies werken. Black boxes bij Kunstmatige Intelligentie treden op wanneer machine learning systemen beslissingen maken die door de gebruiker niet duidelijk of vanzelfsprekend zijn. Het gebruik van de zelflerende algoritmes kan onbedoeld leiden tot discriminatie of een gebrek aan vertrouwen.1 
 

Kunstmatige intelligentie, machine learning, deep learning en algoritmes

Maar wat is nu precies Kunstmatige Intelligentie? En wat bedoelen we met de termen deep learning en machine learning en algoritme?
Volgens het internet zijn er verschillende betekenissen voor Kunstmatige Intelligentie of Artificiële Intelligentie (AI) te geven: “AI is de wetenschap die zich bezighoudt met het creëren van een artefact dat een vorm van intelligentie vertoont” en “De bestudering van het vermogen van machines om menselijk gedrag zoals redeneren, leren of het begrijpen van spraak, na te bootsen”. 2,3 Kort door de bocht kunnen we zeggen dat AI de wetenschap is die zich bezighoudt met hoe machines menselijk gedrag nabootsen, wat inhoudt dat AI zichzelf dingen kan aanleren en zich kan aanpassen. 
Onderdeel van kunstmatige intelligentie zijn machine learning en deep learning.
Machine learning is de wetenschap waarmee een computer door middel van algoritmes of statistische modellen zichzelf patronen aanleert.4,5 Op deze wijze zijn er geen instructies nodig, maar kan een machine, op basis van oude data en statistische modellen, zichzelf bepaalde referenties aanleren.
Deep learning, onderdeel van machine learning, is een methode die iets dieper gaat dan machine learning.5 Hierbij zijn er parallelle acties mogelijk die zijn gebaseerd op meerdere neurale netwerken. Neurale netwerken kan je vergelijken met de verschillende connecties in onze hersenen; via deze connecties kunnen wij bijvoorbeeld een hond herkennen en classificeren als een hond. Ditzelfde proces werkt in AI door middel van deep learning. Foto’s worden opgedeeld in bepaalde pixels en elke pixel krijgt een betekenis toegewezen. Al deze statistische uitslagen worden samengenomen tot een geheel beeld van bijvoorbeeld een kat.

Figuur 1: Neuraal netwerk herkent afbeelding van een kat
https://becominghuman.ai/building-an-image-classifier-using-deep-learning-in-python-totally-from-a-beginners-perspective-be8dbaf22dd8
 

Zowel machine learning als deep learning werken aan de hand van algoritmes. Algoritmes zijn reeksen met instructies, die soms statistisch van aard zijn. Een voorbeeld van het gebruik van algoritmes kunnen we zien in “als...dan” reeksen. Ook veel zoekmachines of voorspellende applicaties werken met algoritmes. Bijvoorbeeld Spotify, die op basis van geluisterde muziek voorspellingen doet over muziek die hierop lijkt of hieraan gerelateerd is. 
Aangezien al deze systemen geautomatiseerd hun werk doen, is het niet ondenkbaar dat niet altijd duidelijk is hoe de systemen tot hun conclusies of aanbevelingen komen. En dit is waar het vaak fout gaat. Maar zijn er manieren om de black box te verhelpen of de output te verklaren?

Video 1: Uitleg deep learning en neurale netwerken

 

Wat definieert een goed model?

Black boxes kunnen zoals gezegd leiden tot discriminatie en een gebrek aan vertrouwen. Dit is alleen het geval wanneer we niet weten waar de beslissing van de machine op gebaseerd is. Maar wat als we dit nu wèl weten? Enkele kenmerken van goede modellen zijn interpreteerbaarheid, uitlegbaarheid en begrijpbaarheid.6 Het interpreteren van informatie staat toe dat er een betekenis wordt gegeven die begrijpelijk en makkelijk uit te leggen is. Vaak worden interpreteerbaarheid, uitlegbaarheid en begrijpbaarheid als synoniemen gebruikt. 
Naast deze belangrijke kenmerken zijn er ook enkele overwegingen die systemen moeten maken om zo moreel en ethisch mogelijk te blijven6:

  • Verklaarbaarheid: de behoefte om beslissingen uit te kunnen leggen aan zowel gebruikers als ontwikkelaars.
  • Verantwoordelijkheid: dit draait om de rol van de mensen zelf en de mate waarin het systeem zelf fouten kan opsporen en identificeren.
  • Transparantie: de behoefte om de mechanismen van AI systemen te omschrijven en te reproduceren.

In de recruitment kunnen we dit vertalen naar de volgende vragen: “Kan er worden uitgelegd waarom iemand is gekozen door het algoritme?”, “Zou het algoritme dezelfde conclusies trekken als de omstandigheden anders waren?” en “Als het systeem biases bevat, ligt dit dat aan de dataset of ligt dit aan het algoritme?”.

Explainable AI om duidelijkheid te scheppen

Juist om dit soort vragen te kunnen beantwoorden zijn er toepassingen gevonden die proberen hier antwoord op te geven en AI ‘uitlegbaar’ te maken. De zogenoemde Explainable AI (XAI) is er om meer duidelijkheid te scheppen in de AI-wereld vol vraagtekens. XAI tracht algoritmen zo uitlegbaar mogelijk te maken om beslissingen te kunnen rechtvaardigen, te controleren en om de algoritmen te verbeteren en te ontdekken.6 Dit systeem kan op zoek gaan naar manieren om de output te verklaren; zo kijkt het naar hoe de input tot output leidt en welke criteria er nodig zijn om tot een bepaalde beslissing te komen.7 Op basis van deze informatie trekt het systeem conclusies over het model en kan het eventueel verbeteringen aanbrengen.

Keerzijde van XAI

Waarom gebruiken we dan niet allemaal Explainable AI? Allereerst is XAI een zeer complex systeem, waarbij de uitlegbaarheid van de algoritmen een uitdagende technische kwestie is. Daarnaast zijn sommige modellen veel minder makkelijk uitlegbaar dan anderen omdat ze met een lastiger algoritme te werk gaan: hoe complexer het model, hoe moeilijker het uitlegbaar te maken is. Het gebruik van XAI kan soms juist leiden tot minder effectieve systemen die minder bekwaam zijn en verscheidene uitkomsten hebben.

Ten slotte is Explainable AI een erg dure toepassing. Concluderend kunnen we stellen dat bedrijven goed moeten afwegen in hoeverre de behoefte voor uitlegbaarheid nodig is. Dit laatste is afhankelijk van de mate van ondoorzichtigheid van AI-systemen en de mate van weerbaarheid van AI-systemen tegen onverwachte fouten.6

Tot slot

Het is belangrijk als gebruiker van geautomatiseerde systemen te weten dat er nu eenmaal fouten in algoritmen kunnen zitten en dat de uitkomsten niet altijd verklaard kunnen worden. In de praktijk worden dit soort onverklaarbare beslissingen goed gepraat door ze te vergelijken met intuïtie bij mensen. Maar er zijn ook gevallen waarbij we juist erg streng zijn naar machines toe, zoals bij een autonome auto van Uber die per ongeluk een passagier heeft doodgereden.7 Maar is dit nu eerlijk? Kunnen we de black box inderdaad vergelijken met de menselijk intuïtie? Kunnen we een autonome auto de schuld geven van een dodelijk ongeval? En moeten er dan dus toch maatregelen getroffen worden, bijvoorbeeld aan de hand van Explainable AI?

Een ding is duidelijk: Het is belangrijk om goed in beeld te hebben wat de consequenties zijn van de beslissingen die worden genomen door algoritmen. Bij menselijke kwesties is het verstandig om als vooruitstrevend bedrijf te investeren in XAI, om op die manier zo veel mogelijk duidelijkheid te creëren in genomen beslissingen. Door de kwaliteit te waarborgen binnen de algoritmisering, kunnen wij in de tussentijd vaker dutjes doen in onze zelfrijdende auto’s. 

 

1 Guidotti, R., Monreale, A., Ruggieri, S., Turini, F., Giannotti, F., & Pedreschi, D. (2018). A survey of methods for explaining black box models. ACM computing surveys (CSUR), 51(5), 93.

http://nl.wikipedia.org/wiki/Kunstmatige_intelligentie

http://www.encyclo.nl/lokaal/10491

4 Koza, John R.; Bennett, Forrest H.; Andre, David; Keane, Martin A. (1996). Automated Design of Both the Topology and Sizing of Analog Electrical Circuits Using Genetic Programming. Artificial Intelligence in Design '96. Springer, Dordrecht. pp. 151–170.

5 https://www.globalorange.nl/artificial-intelligence-machine-learning-en-deep-learning

6 Adadi, A., & Berrada, M. (2018). Peeking inside the black-box: A survey on Explainable Artificial Intelligence (XAI). IEEE Access, 6, 52138-52160.

https://fd.nl/advertorial/pwc/1257099/het-duurt-niet-lang-voordat-een-algoritme-wordt-aangeklaagd
 

Thema's

Onderwerpen

Over NSvP

De NSvP is een onafhankelijk vermogensfonds, dat zich inzet voor een menswaardige toekomst van werk. Wij stellen de vraag hoe de arbeidsmarkt van morgen er uit ziet en wat dat vraagt van de talent-ontwikkeling van jongeren en werkenden.

Rijnkade 88
6811 HD Arnhem
info@nsvp.nl
026 - 44 57 800

logo footer

Vind ons op Facebook
Volg ons