Artificiële Intelligentie: Technologie van dromen of nachtmerries?

Marybeth
Defrance

Artificiële Intelligentie (AI) komt steeds vaker voor in de maatschappij vaak zonder dat mensen hiervan op de hoogte zijn. Hoewel deze technologie vaak met de beste bedoelingen op de markt wordt gebracht, kan het onopgemerkt ongelijkheden in de maatschappij verder versterken. Het is echter mogelijk om dit te voorkomen en zelfs kan leiden tot het verminderen van ongelijkheden. Dit kan door het doordacht ontwikkelen van deze technologieën met behulp van mensen uit verschillende vakgebieden.

Kort even zoeken levert meerdere voorbeelden op waarbij artificiële intelligentie leidde tot het discrimineren van bepaalde bevolkingsgroepen. Het simpelste voorbeeld hiervan was een recruteringstool van Amazon. Deze tool werd gebruikt om de curricula vitae van mogelijke werknemers te screenen en de beste kandidaten eruit te halen. Kort nadat de technologie in gebruik werd genomen kwam er een opvallende trend naar boven. Het was namelijk zo dat het systeem zeer duidelijk mannen verkoos boven vrouwen voor de functies zoals ingenieurs. Een ander voorbeeld is het Amerikaanse COMPAS-systeem. Dit systeem werd gebruikt om risico-scores te berekenen voor mensen in voorhechtenis opdat zij opnieuw criminele feiten zouden plegen. De makers van het systeem verdedigen dat het systeem eerlijk is, hoewel het systeem zwarte en blanke mensen lijkt verschillend te behandelen.

Vooral het laatste voorbeeld zorgde voor veel oproer zowel in de legale wereld als in de technologie wereld. Uit onderzoek blijkt dat het niet mogelijk is om een applicatie te maken dat aan elke bedenkbare vorm van gelijke behandeling kan voldoen. Het is dus aan de ontwikkelaars van de technologie om een beslissing te maken over welk gedrag gezien wordt als discriminatie en welk niet.

Nu zou u kunnen denken dat het gewoonweg beter is om artificiële intelligentie links te laten liggen want de kans bestaat dat het discrimineert. Maar het alternatief voor een AI-systeem zijn vaak menselijke actoren. Hoewel een mens in veel gevallen nog steeds wenselijker is dan een computer kan men ook toegeven dat mensen niet onfeilbaar zijn. Sterker nog veel van het oneerlijk gedrag dat we zien in artificiële intelligentie komen uit het discriminerende gedrag van mensen waarop het systeem getraind is.

Daarom kan het wenselijk zijn om een AI-systeem te gebruiken in plaats van een mens als men zeker kan zijn dat dit AI-systeem niet discrimineert. Meerdere technieken zijn reeds ontwikkeld om een AI-systeem eerlijker te maken, maar de juiste technieken kiezen vergt een nauwe samenwerking tussen de ontwikkelaars van de applicatie en mensen met een sterke kennis van het gebied waarin de applicatie gebruikt zal worden.

Ook de Europese Unie is beseft zich het gevaar en ook voordeel dat artificiële intelligentie kan brengen. Dit wordt aangetoond door het wetsvoorstel gecreëerd door de EU. Dit wetsvoorstel bevat een kader waarin applicaties die mogelijks leiden tot het schenden van mensenrechten nauw gecontroleerd worden. Deze technologieën zullen geregistreerd worden en moeten grondig geanalyseerd zijn voordat ze op de markt geplaatst kunnen worden.

Hoewel artificiële intelligentie kan leiden tot het versterken van de vooroordelen in de maatschappij, zijn er steeds meer actoren die hun schouders zetten onder het voorkomen van dat fenomeen. Sterker nog het inzetten van een goed werkend en uitgedacht AI-systeem kan net bepaalde vooroordelen uit onze maatschappij verder terugdringen terwijl het helpt met het creëren van economische groei.

Bibliografie

[1] J. Larson and J. Angwin, “Machine bias: There’s software used across the country to predict future criminals. and it’s biased against blacks.,” May 2016. [2] DataRobot, “Trusted ai,” Aug 2021. https://www.datarobot.com/platform/trusted-ai/. [3] Vlaamse adviesraad voor Innoveren en Ondernemen, Vlaamse beleidsagenda artifici¨ele intelligentie, vol. 5. 2018. [4] Council of European Union, “Proposal for a regulation of the european parliament and of the council laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts,” 2021. https://eur-lex.europa.eu/legal-content/EN/ALL/?uri=CELEX:52021PC0206. [5] B. Ruf and M. Detyniecki, “Towards the right kind of fairness in AI,” CoRR, vol. abs/2102.08453, 2021. [6] N. Mehrabi, F. Morstatter, N. Saxena, K. Lerman, and A. Galstyan, “A survey on bias and fairness in machine learning,” CoRR, vol. abs/1908.09635, 2019. [7] T. L. Quy, A. Roy, V. Iosifidis, and E. Ntoutsi, “A survey on datasets for fairness-aware machine learning,” CoRR, vol. abs/2110.00530, 2021. [8] A. Castelnovo, R. Crupi, G. Greco, D. Regoli, I. G. Penco, and A. C. Cosentini, “A clarification of the nuances in the fairness metrics landscape,” Scientific Reports, vol. 12, no. 1, 2022. [9] A. D. Selbst, D. Boyd, S. A. Friedler, S. Venkatasubramanian, and J. Vertesi, “Fairness and abstraction in sociotechnical systems,” in Proceedings of the Conference on Fairness, Accountability, and Transparency, FAT* ’19, (New York, NY, USA), p. 59–68, Association for Computing Machinery, 2019. [10] M. Szczepa´nski, “Economic impacts of artificial intelligence - european parliament,” Jul 2019. [11] M. Fierens, E. Van Gool, and J. De Bruyne, “De regulering van artifici¨ele intelligentie (deel 1) - een algemene stand van zaken en een analyse van enkele vraagstukken inzake consumentenbescherming,” Rechtskundig Weekblad, vol. 2020-2021, p. 962–980, Feb 2021. [12] European Union, “Charter of fundamental rights of the european union,” 2012. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:12012P/TXT. [13] K. L. Wong and A. S. Dobson, “We’re just data: Exploring china’s social credit system in relation to digital platform ratings cultures in westernised democracies,” Global Media and China, vol. 4, p. 220–232, Jun 2019. [14] I. M. Enholm, E. Papagiannidis, P. Mikalef, and J. Krogstie, “Artificial intelligence and business value: A literature review,” Information Systems Frontiers, 2021. [15] R. V. Loon, “How corporate c-levels can be the guardians of ethical ai,” Jun 2020. [16] World Economic Forum Global Future Council on Human Rights 2016-18, “How to prevent discriminatory outcomes in machine learning,” tech. rep., World Economic Forum, March 2018. [17] M. Sch¨afer, D. B. Haun, and M. Tomasello, “Fair is not fair everywhere,” Psychological Science, vol. 26, no. 8, p. 1252–1260, 2015. [18] B. Paaßen, “European ai alliance - a review of the machine learning literature on fairness,” Aug 2018. [19] S. Verma and J. Rubin, “Fairness definitions explained,” Proceedings of the International Workshop on Software Fairness, 2018. [20] H. Hofmann, “Statlog (German Credit Data).” UCI Machine Learning Repository, 1994. [21] D. Pedreshi, S. Ruggieri, and F. Turini, “Discrimination-aware data mining,” in Proceedings of the 14th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, KDD ’08, (New York, NY, USA), p. 560–568, Association for Computing Machinery, 2008. [22] C. Dwork, M. Hardt, T. Pitassi, O. Reingold, and R. S. Zemel, “Fairness through awareness,” CoRR, vol. abs/1104.3913, 2011. [23] A. Chouldechova and A. Roth, “A snapshot of the frontiers of fairness in machine learning,” Communications of the ACM, vol. 63, no. 5, p. 82–89, 2020. [24] S. Baert, M. Lamberts, and P.-P. Verhaeghe, “Het terugdringen van arbeidsmarktdiscriminatie in de vlaamse sectoren: academische visie en instrumenten,” p. 9–15, Oct 2020. [25] T. Miconi, “The impossibility of ”fairness”: a generalized impossibility result for decisions,” arXiv: Applications, 2017. [26] S. Beijne and S. Sibie, “Studeren met een functiebeperking - beleidsdocument 2020-2022,” Mar 2020. [27] Fonteyne, Lot, Constructing SIMON : a tool for evaluating personal interests and capacities to choose a post-secondary major that maximally suits the potential. PhD thesis, Ghent University, 2017. [28] A. Olteanu, C. Castillo, F. Diaz, and E. Kıcıman, “Social data: Biases, methodological pitfalls, and ethical boundaries,” Frontiers in Big Data, vol. 2, 2019. [29] Y. Liu, C. Kliman-Silver, and A. Mislove, “The tweets they are a-changin’: Evolution of twitter users and behavior,” 2014. [30] C. B. Barshied, “The progress of medical labor: Gender shifts, generational differences, and the coverage continuum in obstetrics and gynecology,” 2016. [31] L. J. Sanna and N. Schwarz, “Integrating temporal biases: The interplay of focal thoughts and accessibility experiences,” Psychological Science, vol. 15, no. 7, pp. 474–481, 2004. PMID: 15200632. [32] H. Suresh and J. Guttag, “A framework for understanding sources of harm throughout the machine learning life cycle,” in Equity and Access in Algorithms, Mechanisms, and Optimization, EAAMO ’21, (New York, NY, USA), Association for Computing Machinery, 2021. [33] H. Miller, J. Thebault-Spieker, S. Chang, I. Johnson, L. Terveen, and B. Hecht, ““blissfully happy” or “ready tofight”: Varying interpretations of emoji,” 2016. [34] S. C. Bates and J. M. Cox, “The impact of computer versus paper–pencil survey, and individual versus group administration, on self-reports of sensitive behaviors,” Computers in Human Behavior, vol. 24, no. 3, pp. 903–916, 2008. Instructional Support for Enhancing Students’ Information Problem Solving Ability. [35] C. Ziems, J. Chen, C. Harris, J. Anderson, and D. Yang, “VALUE: Understanding dialect disparity in NLU,” in Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), (Dublin, Ireland), pp. 3701–3720, Association for Computational Linguistics, May 2022. [23] A. Chouldechova and A. Roth, “A snapshot of the frontiers of fairness in machine learning,” Communications of the ACM, vol. 63, no. 5, p. 82–89, 2020. [24] S. Baert, M. Lamberts, and P.-P. Verhaeghe, “Het terugdringen van arbeidsmarktdiscriminatie in de vlaamse sectoren: academische visie en instrumenten,” p. 9–15, Oct 2020. [25] T. Miconi, “The impossibility of ”fairness”: a generalized impossibility result for decisions,” arXiv: Applications, 2017. [26] S. Beijne and S. Sibie, “Studeren met een functiebeperking - beleidsdocument 2020-2022,” Mar 2020. [27] Fonteyne, Lot, Constructing SIMON : a tool for evaluating personal interests and capacities to choose a post-secondary major that maximally suits the potential. PhD thesis, Ghent University, 2017. [28] A. Olteanu, C. Castillo, F. Diaz, and E. Kıcıman, “Social data: Biases, methodological pitfalls, and ethical boundaries,” Frontiers in Big Data, vol. 2, 2019. [29] Y. Liu, C. Kliman-Silver, and A. Mislove, “The tweets they are a-changin’: Evolution of twitter users and behavior,” 2014. [30] C. B. Barshied, “The progress of medical labor: Gender shifts, generational differences, and the coverage continuum in obstetrics and gynecology,” 2016. [31] L. J. Sanna and N. Schwarz, “Integrating temporal biases: The interplay of focal thoughts and accessibility experiences,” Psychological Science, vol. 15, no. 7, pp. 474–481, 2004. PMID: 15200632. [32] H. Suresh and J. Guttag, “A framework for understanding sources of harm throughout the machine learning life cycle,” in Equity and Access in Algorithms, Mechanisms, and Optimization, EAAMO ’21, (New York, NY, USA), Association for Computing Machinery, 2021. [33] H. Miller, J. Thebault-Spieker, S. Chang, I. Johnson, L. Terveen, and B. Hecht, ““blissfully happy” or “ready tofight”: Varying interpretations of emoji,” 2016. [34] S. C. Bates and J. M. Cox, “The impact of computer versus paper–pencil survey, and individual versus group administration, on self-reports of sensitive behaviors,” Computers in Human Behavior, vol. 24, no. 3, pp. 903–916, 2008. Instructional Support for Enhancing Students’ Information Problem Solving Ability. [35] C. Ziems, J. Chen, C. Harris, J. Anderson, and D. Yang, “VALUE: Understanding dialect disparity in NLU,” in Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), (Dublin, Ireland), pp. 3701–3720, Association for Computational Linguistics, May 2022. [48] L. R. Olsen, “Multiple-k: Picking the number of folds for cross-validation,” Nov howpublished=https://cran.r-project.org/web/packages/cvms/vignettes/picking_the_numb… of_folds_for_cross-validation.html 2021. [49] S. Bird, M. Dud´ık, R. Edgar, B. Horn, R. Lutz, V. Milan, M. Sameki, H. Wallach, and K. Walker, “Fairlearn: A toolkit for assessing and improving fairness in AI,” Tech. Rep. MSR-TR-2020-32, Microsoft, May 2020. [50] A. D’Amour, H. Srinivasan, J. Atwood, P. Baljekar, D. Sculley, and Y. Halpern, “Fairness is not static: Deeper understanding of long term fairness via simulation studies,” in Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency, FAccT ’20, (New York, NY, USA), p. 525–534, Association for Computing Machinery, 2020.

Download scriptie (1.97 MB)
Universiteit of Hogeschool
Universiteit Gent
Thesis jaar
2022
Promotor(en)
Tijl De Bie