Kunstmatige intelligentie is volgens wetenschappers van de Universiteit van Cambridge geen goede manier om sollicitaties eerlijker te maken en diversiteit te vergroten.
Sommige bedrijven gebruiken kunstmatige intelligentie (AI) bij het sollicitatieproces. Het gaat om software die video's van sollicitaties of ingestuurde video's van kandidaten bekijkt en beoordeelt. Doelen zijn het verlagen van de werkdruk van recruiters en HR-personeel het wegnemen van vooroordelen door alleen te kijken naar de kwaliteiten van de kandidaten.
Het tegendeel blijkt waar, stelt een onderzoek van twee wetenschappers van de Universiteit van Cambridge. Ze noemen de AI-software 'geautomatiseerde pseudo-wetenschap'.
"Deze software kan niet worden getraind om alleen te kijken naar werkgerelateerde eigenschappen terwijl gender en ras buiten beschouwing worden gelaten, want de zaken die belangrijk worden gevonden in goede werknemers zijn inherent verbonden aan gender en ras", zegt onderzoeker Dr. Kerry Mackereth tegen de BBC.
Een deel van de problemen komt voort uit de manier waarop kunstmatige intelligentie werkt. AI wordt 'getraind' met bestaand materiaal, waarin vaak ook al onbewust vooringenomenheid schuilt. Die vooroordelen kunnen dan onbedoeld juist versterkt worden. Om die reden stopte Amazon in 2018 met een dergelijk systeem: het bleek vrouwen te discrimineren.
Veel van de software analyseert ook de stem en bewegingen van kandidaten, om te kijken hoe dicht die overeenkomen met de ideale kandidaat. Dat baart te onderzoekers zorgen, omdat voor dergelijke analyse "geen wetenschappelijke basis" is. Onderzoeker dr. Eleanor Drage doet de praktijk af als "moderne frenologie": de pseudowetenschappelijke geestesleer en een broertje van het schedelmeten.
"Ze zeggen dat ze je persoonlijkheid aan je gezicht kunnen aflezen. Het idee is dat, net als bij een leugendetector, AI je gezicht kan 'doorzien' en de echte jou toont", aldus Drage. Dat blijkt niet alleen wetenschappelijk wankel, de kunstmatige intelligentie is ook nog eens heel makkelijk van de wijs te brengen.
De onderzoekers bouwden een eigen sollicitatie-AI en ontdekten dat de uitkomst van de 'werknemerscan' snel wordt beïnvloed door bijzaken. "Als je onze software gebruikt, zie je jouw persoonlijkheidsscore veranderen als je het contrast, de helderheid of de verzadiging van de foto's aanpast", aldus Drage.
De Duitse ARD kwam eerder al met een soortgelijk onderzoek, dat uitwees dat brillen en hoofddoeken ook van invloed zijn op de persoonlijkheidsscore van sollicitatie-kandidaten. "AI kan zeker helpen om de diversiteit bij bedrijven te vergroten door te filteren uit een grotere groep kandidaten", zegt Drage. "Maar je kan ook veel goede kandidaten missen als de regels en trainingsdata incompleet of onjuist zijn."
"Hoewel bedrijven misschien niet met slechte bedoelingen handelen, is er weinig verantwoording voor hoe deze producten gemaakt of getest zijn", zegt Drage over AI-sollicitatiesoftware. "Daarom kan deze technologie en de manier waarop die verkocht wordt een gevaarlijke bron voor desinformatie worden over hoe sollicitaties eerlijker gemaakt kunnen worden."
Volgens Drage zijn de vooroordelen van kunstmatige intelligentie momenteel "latenter en bedrieglijker" dan duidelijkere vormen van algoritmische vooroordelen. Maar daar schuilt volgens de wetenschapper een toekomstig gevaar in, als zulke systemen langere tijd zonder ogenschijnlijke problemen gebruikt zouden worden.
Het is niet duidelijk hoeveel bedrijven dit soort software precies gebruiken. Een enquête van de Britse HR-brancheorganisatie CIPD wijst erop dat slechts 8 procent van de Britse bedrijven dit soort software gebruikt.
In het eigen onderzoek wijzen de wetenschappers naar een onderzoek van Gartner dat 334 HR-afdelingen sprak, waarvan 86 procent stelt 'virtuele oplossingen' te gebruiken bij het sollicitatieproces.