Selecteren met algoritmen: recruiters moeten kritisch blijven op het resultaat

Hoe selecteer je objectief de juiste kandidaat voor een vacature? Selectie-algoritmes kunnen een krachtig hulpmiddel zijn voor recruiters, maar dan moeten ze wel ze correct en ethisch worden toegepast. Dat kan door duidelijke instructies te geven, de juiste opdrachten te geven aan het algoritme én door kritisch te blijven op het resultaat. Zo kunnen recruiters de kracht van algoritmes benutten, en tegelijkertijd zorgen voor een rechtvaardig en inclusief recruitmentproces.

Want ondanks de uitdagingen, kunnen selectie-algoritmes een waardevol instrument zijn in het recruitmentproces. Mensen zijn tenslotte ook niet vrij van (voor-)oordelen. Selectie-algoritmen bieden juist een kans om objectiever te oordelen over de geschiktheid van een kandidaat.

In een steeds meer gedigitaliseerde wereld is het niet verrassend dat algoritmen steeds vaker worden gebruikt in het recruitmentproces. In een recente column door Brinn Hekkelman, wetenschappelijk medewerker bij het Centraal Planbureau (CPB), onderzoekt hij de voordelen en valkuilen van selectie-algoritmes. Hij geeft eenvoudige voorbeelden over de werking van algoritmes en beschrijft hoe je valkuilen kunt ontlopen.

Greep houden op selectie-algoritmes
Eén van de grootste uitdagingen van het gebruik van selectie-algoritmen is het bepalen van wat 'het beste' is. Een algoritme selecteert op basis van een aantal ingevoerde criteria, maar is daarmee niet in staat om alle aspecten van een sollicitatie te beoordelen. Het kan bijvoorbeeld gebeuren dat het algoritme voornamelijk sollicitaties van mannen selecteert, ook al was een aanzienlijk deel van de sollicitaties afkomstig van vrouwen. Dit brengt de vraag naar voren wat het algoritme precies verstaat onder 'de beste'.

Daarom is het noodzakelijk om duidelijke, uitgebreide instructies te geven aan het algoritme en die vooraf goed te testen. Want als je wilt dat vrouwen worden meegenomen in de uiteindelijke selectie, moet dit expliciet moet worden opgenomen in de instructies voor het algoritme.

Het gevaar van vooringenomenheid in algoritmes
Algoritmes denken niet zelf na en hebben geen contextueel besef. Ze doen eenvoudigweg wat ze is opgedragen. Maar omdat ze daarmee andere zaken niet meenemen die voor mensen vanzelfsprekend zijn, kan dit leiden tot gevallen waarin algoritmes onbedoeld vooringenomen selecties maken.

Dan kan het gebeuren dat bij fraudecontrole voornamelijk mensen worden uitgekozen met een dubbele nationaliteit of migratieachtergrond. Dit was niet de intentie van de makers van het algoritme, maar een onbedoeld gevolg van de data die het algoritme ter beschikking stond. Er zijn helaas veel voorbeelden van: het gebeurde bij de controle van de kinderopvangtoeslag en onlangs nog bij DUO, de instantie die studiebeurzen uitkeert.

Blijf de baas over het selectie-algoritme
Het beheer van een selectie-algoritme omvat meer dan alleen het geven van instructies. Recruiters moeten ook aandacht besteden aan de uitkomsten die het algoritme probeert te maximaliseren. Die 'uitkomst' bepaalt de horizon van het algoritme. Als de uitkomst niet in lijn is met wat je wilt, kan het resultaat teleurstellend zijn.

Verder moeten recruiters zich bewust zijn van de data die ze aan hun algoritme geven. Meer data betekent vaak meer nauwkeurigheid, maar er kan ook vooringenomenheid (bias) in de data zitten. Het verwijderen van data kan deze problemen niet altijd oplossen. Het kan nuttiger zijn om aan andere 'knoppen' te draaien, zoals de representativiteit, die iets zegt over de samenstelling van de uiteindelijke selectie. Als je niets instrueert voor de representativiteit, geeft het algoritme puur de selectie die het hoogst scoort op de gekozen uitkomst. Maar als je graag een bepaalde samenstelling wilt, kan het algoritme de selectie aanpassen.


MIS NIKS: Abonneer je op de gratis Personeelsnet-nieuwsbrief

Doorsturen:

Neem een abonnement en download meer dan 300 actuele HR-instrumenten

Wilt u als HR-professional ook niks meer missen op uw vakgebied?