Logo
  • Nieuws
  • 9 december 2021
  • Bron: College voor de Rechten van de Mens

Werkgever zelf verantwoordelijk voor discriminerende algoritmes bij sollicitatie: 4 aandachtspunten

De algoritmes die werkgevers inzetten om mensen te werven en te selecteren kunnen discriminatie veroorzaken. Als dit het geval is, overtreden werkgevers de wet. Ze kunnen de verantwoordelijkheid hiervoor niet afschuiven op het algoritme of de softwareleverancier. Dit blijkt uit een nieuwe publicatie van het College voor de Rechten van de Mens over het gebruik van algoritmes bij werving en selectie in relatie tot de gelijkebehandelingswetgeving.

Beeld Werkgever zelf verantwoordelijk voor discriminerende algoritmes bij sollicitatie: 4 aandachtspunten

Na het onderzoek ‘Als computers je CV beoordelen, wie beoordeelt dan de computers?’ kregen het college vaak de vraag waar werkgevers of arbeidsbemiddelaars, zoals uitzendbureaus, zich aan moeten houden als ze algoritmes inzetten bij de werving en selectie. In de vervolgpublicatie ‘Recruiter of computer?’ staan om die reden vier aandachtspunten voor werkgevers die algoritmes gebruiken:

  1. Het gebruik van algoritmes kan leiden tot verboden onderscheid
  2. Uitleg kunnen geven over de werking van algoritmes is noodzakelijk om indirect onderscheid te legitimeren
  3. Wervings- en selectieprocedures met algoritmes moeten inzichtelijk, controleerbaar en systematisch zijn
  4. Werkgevers zijn zelf juridisch verantwoordelijk voor algoritmes.

Jacobine Geel, voorzitter van het College, licht toe: “Algoritmes kunnen zowel direct als indirect verboden onderscheid maken. Als ze selecteren op grond van leeftijd, geslacht of ras is dat een direct verboden onderscheid. Maar algoritmes kunnen ook indirect discrimineren. Een voorbeeld: een uitzendbureau dat alleen maar studenten werft, maakt geen direct onderscheid op leeftijd, maar indirect wel, aangezien de meeste studenten jong zijn.”

Werkgevers zijn verantwoordelijk…

In het gelijkebehandelingsrecht telt het discriminerende effect. “Dat wil zeggen dat het niet uitmaakt of de werkgever opzettelijk discrimineert of niet. Als het algoritme discrimineert, dan is de werkgever verantwoordelijk.” legt Geel uit. “Dat is zelfs het geval als een zelflerend algoritme aanvankelijk niet discrimineerde, maar in de loop van de tijd wel verboden onderscheid is gaan maken, zonder dat werkgever of algoritmebouwer zich hiervan bewust zijn. Het gaat om het effect in de praktijk. Of een sollicitant nu door een mens of computer wordt gediscrimineerd, de uitkomst is hetzelfde. Juist omdat het bij een algoritme vaak lastig is om te achterhalen of er sprake was van discriminatie is het van belang dat werkgevers zich bewust zijn van hun verantwoordelijkheid.

Tips

  • Stel vooraf vast op welke criteria kandidaten worden beoordeeld. Beoordeel kandidaten alleen op objectieve criteria die voor de functie relevant zijn. Dit geldt bijvoorbeeld ook voor criteria waarop scores van online assessments en serious gaming worden gebaseerd.
  • Ga na welke van deze criteria direct of indirect betrekking (zouden kunnen) hebben op kenmerken die beschermd worden door de wet. Bijvoorbeeld: aantal jaren werkervaring correleert met leeftijd, een gat in het CV komt vaker voor bij vrouwen.
  • Controleer bij de softwareleverancier van de in te zetten HR-recruitment-technologieën hoe deze kenmerken in data en toegepaste algoritmes verwerkt zijn. Zorg dat deze criteria niet bepalend zijn bij de (automatische) selecties en beoordelingen van kandidaten.
  • Wees ervan bewust dat ook algoritmes van kandidaten- en vacature-platforms ook een (onbedoeld) uitsluitende of zelfs discriminerende werking kunnen hebben. Bijvoorbeeld bij een targeting-optie van bepaalde doelgroepen. Zet vacatures via verschillende kanalen uit.

Producttips

Volg HR Praktijk

Word gratis lid en ontvang op dinsdag en donderdag het laatste HR-nieuws in uw mailbox! Én als lid krijgt u ook toegang tot exclusieve online artikelen.