Solliciteren bij een algoritme: De perceptie van waargenomen eerlijkheid, betrouwbaarheid en emotionele beleving van sollicitanten op algoritmische beslissingen binnen een wervingsprocedure.

Lisa Willems
Persbericht

Solliciteren voor een job? “Computer says no.”

Stel je voor, je bent op zoek naar een job. Na ettelijke uren gespendeerd te hebben aan je cv, komen de afwijzingen binnen. “Te weinig ervaring of niet het profiel waar we naar op zoek zijn.” Je vraagt je af waarom je niet geschikt bent voor de job en klikt verder. Nu blijkt dat een computer dit beslist heeft. Er is dus nooit een mens aan te pas gekomen!

Solliciteren is nooit echt leuk, maar hoe voelen we ons als we worden afgewezen door een computer? In dit tijdperk van constante veranderingen en het tekort aan digitale vaardigheden is de zoektocht naar het juiste talent uitdagender dan ooit. Door artificiële intelligentie te gebruiken kunnen bedrijven topkandidaten gemakkelijker identificeren.

AI, da’s niets voor mij!
Ik hoor je denken: ‘Dat is een ver-van-mijn-bed-show!’. Computers die zelfstandig taken kunnen uitvoeren, die een vorm van menselijke intelligentie vereisen. Dat is toch science fiction? In de realiteit maken we echter regelmatig gebruik van deze artificiële intelligentie (AI). Denk hierbij aan je persoonlijke afspeellijsten op Spotify, sociale netwerken die inspelen op jouw voorkeuren en Siri van Apple die bijna op elke vraag een antwoord kan formuleren.

Ook binnen de bedrijfswereld kent artificiële intelligentie een opmars, vooral bij de selectie van nieuw talent. Een mens kan een beperkt aantal cv’s per dag doornemen tot de aandachtspanne op is. Een computer daarentegen, kan een oneindige hoeveelheid informatie scannen en verwerken. Zo kan er ongelofelijk efficiënt een geknipte kandidaat geselecteerd worden. Kortom de technologische mogelijkheden zijn voor handen, maar voelen sollicitanten zich rechtvaardig behandeld bij zo’n selectieprocedure?

Sollicitant zegt “whatever”
Door onderzoek kon er een blik geworpen worden op het rechtvaardigheidsgevoel. De deelnemers kregen allemaal te lezen dat ze niet geschikt waren bevonden voor de job. De voorgelegde situaties verschilden in wie of wat de cv had bekeken (mens of computer) en wie of wat de eindbeslissing had gemaakt (opnieuw mens of computer). Daarna volgde een vragenlijst om het rechtvaardigheidsgevoel per situatie in kaart te kunnen brengen.  

Bij aanvang van het onderzoek leek het aanneembaar dat menselijke beslissingen rechtvaardiger werden ervaren dan een besluit van een computer. Verrassend genoeg was het niet het besluit dat het verschil maakte, maar wel wie of wat de informatie had verzameld. Zolang een mens de cv’s had doorgenomen, maakte het niet uit wie of wat de eindbeslissing nam. Met andere woorden, de informatieverzameling weegt tijdens het wervingsproces sterker door op het rechtvaardigheidsgevoel van de deelnemers dan het besluit.

Efficiëntie vs. rechtvaardigheid
Momenteel zijn het vooral personeelsmedewerkers die cv’s natrekken om kandidaten te zoeken. Vooroordelen en tijdnood zijn hierbij gekende beperkingen. Het gebruik van artificiële intelligentie bij een selectieprocedure bevindt zich nog in de kinderschoenen. Toch zal deze toepassing steeds vaker ingezet worden om cv’s te screenen. De efficiënte selectie van kandidaten door AI, is niet te evenaren door een mens.

Dit onderzoek biedt kansen om opnieuw stil te staan bij het gebruik van artificiële intelligentie bij selectieprocedures. Ondanks de grote voordelen voor bedrijven, kan het nadelige uitkomsten hebben voor de sollicitant. We staan op het punt menselijke taken door te geven aan een computer en de menselijkheid van dit proces te vergeten, namelijk het rechtvaardigheidsgevoel van de sollicitant. Op lange termijn kan dit zorgen voor een negatief imago voor het bedrijf.

Met een kritische blik naar de toekomst
Hoewel we gretig gebruik zullen maken van deze nieuwe technologieën, is voorzichtigheid aan te raden. AI heeft de mogelijkheid om op een efficiëntere manier de juiste kandidaat te selecteren. Toch toonde onderzoek aan dat het rechtvaardigheidsgevoel van de sollicitanten hoger ligt wanneer een mens dit doet. Een kritische blik is nodig om artificiële intelligentie op een correcte manier in te zetten bij werving en selectie. Er dient daarom rekening gehouden te worden met de afweging tussen efficiëntie en rechtvaardigheid.

‘By far, the greatest danger of Artificial Intelligence is that people conclude too early that they understand it.’ – Eliezer Yudkowsky

Bibliografie

Brynjolfsson, E., Mitchell, T., & Rock, D. (2018, May). What can machines learn, and what does it mean for occupations and the economy? In AEA Papers and Proceedings (Vol. 108, pp. 43-47). 

Buchanan, L., & O Connell, A. (2006). A brief history of decision making. Harvard business review, 84(1), 32. 

Cappelli, P., Tambe, P., & Yakubovich, V. (2019). Artificial intelligence in human resources management: challenges and a path forward. Available at SSRN 3263878

Cascante, L. P., Plaisent, M., Maguiraga, L., & Bernard, P. (2002). The impact of expert decision support systems on the performance of new employees. Information Resources Management Journal (IRMJ), 15(4), 64-78. 

Clark, H. H. (1996). Using language. Cambridge university press. 

Cowgill, B. (2018). Bias and productivity in humans and algorithms: Theory and evidence from resume screening. Columbia Business School, Columbia University, 29

Dietvorst, B. J., Simmons, J. P., & Massey, C. (2018). Overcoming algorithm aversion: People will use imperfect algorithms if they can (even slightly) modify them. Management Science, 64(3), 1155-1170. 

Dzindolet, M. T., Pierce, L. G., Beck, H. P., Dawe, L. A., & Anderson, B. W. (2001). Predicting misuse and disuse of combat identification systems. Military Psychology, 13(3), 147-164.  

Huang, M. H., & Rust, R. T. (2018). Artificial intelligence in service. Journal of Service Research, 21(2), 155-172. 

Jarrahi, M. H. (2018). Artificial intelligence and the future of work: Human-AI symbiosis in organizational decision making. Business Horizons, 61(4), 577-586. 

Jia, Q., Guo, Y., Li, R., Li, Y., & Chen, Y. (2018, December). A conceptual artificial intelligence application framework in human resource management. In Proceedings of the International Conference on Electronic Business (pp. 106-114). 

Jian, J. Y., Bisantz, A. M., & Drury, C. G. (2000). Foundations for an empirically determined scale of trust in automated systems. International journal of cognitive ergonomics4(1), 53-71.

Kaplan, A., & Haenlein, M. (2019). Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence. Business Horizons, 62(1), 15-25. 

Kizilcec, R. F. (2016, May). How much information? Effects of transparency on trust in an algorithmic interface. In Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems (pp. 2390-2395). 

Kosinski, M., Stillwell, D., & Graepel, T. (2013). Private traits and attributes are predictable from digital records of human behavior. Proceedings of the national academy of sciences, 110(15), 5802-5805. 

Larsson, G. (2011). The Emotional Stress Reaction Questionnaire (ESRQ): Measurement of stress reaction level in field conditions in 60 seconds. SWEDISH NATIONAL DEFENCE COLLEGE STOCKHOLM (SWEDEN).

Lee, M. K. (2018). Understanding perception of algorithmic decisions: Fairness, trust, and emotion in response to algorithmic management. Big Data & Society, 5(1), 2053951718756684. 

Madhavan, P., & Wiegmann, D. A. (2007). Effects of information source, pedigree, and reliability on operator interaction with decision support systems. Human Factors, 49(5), 773-785. 

McRobert, C. J., Hill, J. C., Smale, T., Hay, E. M., & van der Windt, D. A. (2018). A multi-modal recruitment strategy using social media and internet-mediated methods to recruit a multidisciplinary, international sample of clinicians to an online research study. PloS one, 13(7). 

Morabito, F. C., Campolo, M., Mammone, N., Versaci, M., Franceschetti, S., Tagliavini, F., ... & Mumoli, L. (2017). Deep learning representation from electroencephalography of early-stage Creutzfeldt-Jakob disease and features for differentiation from rapidly progressive dementia. International journal of neural systems, 27(02), 1650039. 

O’Donovan, D. (2019). HRM in the organization: An overview. In Management Science (pp. 75-110). Springer, Cham. 

Petrinovich, L., O'Neill, P., & Jorgensen, M. (1993). An empirical study of moral intuitions: Toward an evolutionary ethics. Journal of personality and social psychology64(3), 467. 

Prendergast, C., & Topel, R. (1993). Discretion and bias in performance evaluation. European Economic Review, 37(2-3), 355-365. 

Vanhoomissen, T. & Valkeneers, G. (2014). Inductieve statistiek voor de gedragswetenschappen. Leuven: acco. 

Rossi, F. (2018). Building trust in artificial intelligence. Journal of international affairs72(1), 127-134.

Sheila L.M., Steven G., Chad M. & Mayank G. (2018). The new age: artificial intelligence for human resource opportunities and functions. Ernst & Young LLP.1-8. 

Siau, K., & Wang, W. (2018). Building trust in artificial intelligence, machine learning, and robotics. Cutter Business Technology Journal, 31(2), 47-53. 

Skarlicki, D. P., & Folger, R. (1997). Retaliation in the workplace: The roles of distributive, procedural, and interactional justice. Journal of applied Psychology, 82(3), 434. 

Skitka, L. J., Winquist, J., & Hutchinson, S. (2003). Are outcome fairness and outcome favorability distinguishable psychological constructs? A meta-analytic review. Social Justice Research, 16(4), 309-341. 

Sundar, S. S., & Nass, C. (2001). Conceptualizing sources in online news. Journal of communication, 51(1), 52-72. 

Vedapradha, R., Hariharan, R., & Shivakami, R. (2019). Artificial Intelligence: A Technological Prototype in Recruitment. Journal of Service Science and Management, 12(3), 382-390. 

Wang, R., Harper, F. M., & Zhu, H. (2020). Factors Influencing Perceived Fairness in Algorithmic Decision-Making: Algorithm Outcomes, Development Procedures, and Individual Differences. arXiv preprint arXiv:2001.09604

Woods, S., Walters, M., Koay, K. L., & Dautenhahn, K. (2006, March). Comparing human robot interaction scenarios using live and videobased methods: towards a novel methodological approach. In 9th IEEE International Workshop on Advanced Motion Control, 2006. (pp. 750-755). IEEE. 

Universiteit of Hogeschool
Toegepaste Psychologie (optie arbeids- en organisatiepsychologie)
Publicatiejaar
2020
Promotor(en)
Natalie Govaerts
Kernwoorden
Share this on: