The Algorithm Paradox: knowledge of versus attitudes towards curation algorithms

Thibault Fouquaert
Persbericht

De Algoritme Paradox, de keerzijde van online personalisatie

 

filter-bubbleWe staan er misschien niet bij stil, maar soms weten we het minst van de zaken waarmee we net het meest bezig zijn. Gelukkig gaat het dan niet over je job, studies of hobby's. Het gaat over sociale media en hun achterliggende algoritmes die ervoor zorgen dat jouw net geposte Instagram-proof-vakantiefoto toch niet als eerste in de news feed van je volgers zal verschijnen. De neveneffecten van deze algoritmes zijn invloedrijk doch subtiel en vaak verborgen voor de doorsnee gebruiker zoals u en mij. Het is ons onduidelijk wat een algoritme is en überhaupt doet, wat het ons in de eerste plaats moeilijk maakt de situatie op een correcte manier te beoordelen. Deze correcte beoordeling wordt in het digitale tijdperk echter steeds noodzakelijker.

 

 Online verzuiling, ongekend en goed verscholen

Sociale media zijn populair, heel populair. In 2018 maakte volgens de jaarlijkse Digimeter 99 procent van de Vlaamse jongeren gebruik van een handvol veelgebruikte platformen. Ondanks de sterke inburgering van deze platformen, bleek enkele jaren geleden slechts 30 à 40 procent van de Vlaamse jongeren weet van de algoritmes dat hun tijdlijn filtert, reorganiseert en personaliseert. Ondanks we hier een positieve evolutie in zien, blijft er in Vlaanderen een relatief grote onwetendheid over deze, toch wel alomtegenwoordige, algoritmes.

Een tweede probleem is de manier waarop deze algoritmes ontworpen zijn. Ze werken goed, misschien zelfs verontrustend goed. News feed algoritmes personaliseren met als doel langer onze aandacht en tijd te houden, aangezien we zo ook simpelweg meer inkomsten genereren. Om die aandacht te houden worden ons eerst de zaken getoond die ons het meest zullen interesseren. In academische termen spreekt men dan over een filter bubble, als een echokamer waarbinnen je interesses en gefavoriseerd wereldbeeld steeds terugkeren. Even voor de duidelijkheid, Facebook en co. hebben geen politieke agenda. Wel hebben ze algoritmes die extremere (politieke) inhoud aan een gebruiker kunnen voorschotelen, omdat dit zijn of haar interesse en aandacht zou wekken volgens de berekeningen. Dit leidt voor sommigen mogelijks tot polarisatie of een tekort aan online (nieuws)diversiteit, anderen profiteren net van een diverser wereldbeeld dankzij sociale media.

Onder een nieuw voorgesteld concept ‘The Algorithm Paradox’ wordt binnen deze thesis de problematiek hierover aangekaart. In onze algoritme paradox veronderstellen we dat mensen hun – beweerde – kritische ingesteldheid paradoxaal is aan hoe ze effectief sociale media gebruiken en consumeren. Het idee is ontleend uit een gelijkaardig wetenschappelijk concept, de privacy paradox. Hierin beweren mensen zich te bekommeren omtrent hun online privacy, maar gerichte acties om deze zorgen in te lossen blijven uit. Velen blijven namelijk hun privé leven delen op allerlei platformen en de technologie erachter. Wat de oorzaken en mogelijke oplossingen zijn van deze contradictorische situatie voor algoritmes, wordt via het concept van de algoritme paradox verder onderzocht.

Met de neus op de feitenInstawareness

Willen we een oplossing aanreiken voor onze algoritme paradox, dan moeten we een groter bewustzijn creëren door concreet te laten zien wat algoritmes kunnen en ook effectief doen. In beleidsteksten wordt dit vaak omschreven als ‘mediawijsheid verhogen’. Met Instawareness heeft deze thesis hiervoor een vrij unieke en vergaande aanpak. Instawareness (instawareness.ugent.be) is een zelf ontworpen webapplicatie die je toelaat in te loggen met je Instagram account, om zo te tonen welke impact het onzichtbare Instagram-algoritme heeft op jouw news feed en posts. De website onthult je welke posts in je news feed hoger of lager gerankt worden of op welke manier je een vertekend beeld kan krijgen door bepaalde accounts vaker te zien. Met behulp van onze tool hebben we een zestigtal studenten laten deelnemen aan een verborgen experiment, waarbij we verschillen voor en na het gebruik van onze bewustmaking-tool konden testen.

Het ultieme doel van Instawareness te gebruiken was een blijvende indruk na te laten door een persoonlijkere aanpak te gebruiken. Daarnaast liet de tool ook toe om de complexiteit van een algoritme uit te leggen aan de hand van enkele simpele en concrete voorbeelden. Het bleek dan ook een succesvolle aanpak, hoewel de keerzijde van de medaille de grenzen aftast met de privacyvoorwaarden en het gebruiksreglement van Instagram.

Toekomstige uitdagingen

Ons verborgen experiment schetst de stand van zaken voor enerzijds de gebruiksgewoontes en mate van kennis op verschillende niveaus wat betreft sociale media, anderzijds hoe we deze kennis op een effectieve manier kunnen verhogen en met welke gevolgen. Deze kennis is namelijk belangrijk voor een – nodige – vooruitgang in de kritische ingesteldheid tijdens het consumeren van sociale media. Wanneer jongeren kritischer staan tegenover sociale media, kunnen ze zich bewust worden van hun eigen echokamer en ontsnappen aan hun filter bubbel.

De mediawijsheid omtrent sociale media en de algoritmes erachter blijkt vrij hoog te zijn, wetende dat jongeren hier vaak geen expliciete les of uitleg over krijgen. Uit de resultaten blijkt dat jongeren goed en wel beseffen dat er personalisering aanwezig in hun news feed, maar hoe dit precies werkt en wat het doet blijft onbekend terrein. Dit zien we terug in hun zeer hoge ‘knoppenkennis’ die weerspiegelt hoe goed ze alle snufjes van de platformen begrijpen alsook in hun gemiddelde tot hoge inhoudelijke kennis, die op zijn beurt aangeeft hoe goed jongeren begrijpen wat en waarom ze bepaalde inhoud te zien krijgen, bijvoorbeeld door algoritme-filtering.

Daarnaast blijkt Instawareness een effectieve manier te zijn om deze inhoudelijke kennis op te krikken. Na de bewustwording van deze algoritmes, zeggen jongeren hierdoor een zeker kritische bezorgdheid te ontwikkelen. Met andere woorden is alle nodige kennis en bezorgdheid aanwezig, maar zien we paradoxaal genoeg dat jongeren hier niet naar handelen.

Nu we met enige voorzichtigheid een zogenoemde algoritme paradox kunnen bevestigen, blijft de grootste uitdaging hoe we hiermee omgaan. Resultaten wijzen uit dat het beleidsmatig interessant is om in te zetten op mediawijsheid, maar om hier optimaal gebruik van te kunnen maken, moeten ook de platformbouwers meewerken. Zonder inspanningen van hun kant om de transparantie te verhogen en inzichten te geven die bovenal geen extra moeite kost aan kritische eindgebruikers, blijft het dweilen met de kraan open.

 

Bibliografie

Awad, N. F. & Krishnan, M. S. (2006). The personalization privacy paradox: an empirical evaluation of information transparency and the willingness to be profiled online for personalization. MIS Quarterly, 30(1), 13–28.

Beer, D. (2017). The social power of algorithms. Information Communication and Society, 20(1), 1–13.

Bernstein, M. S., Bakshy, E., Burke, M. & Karrer, B. (2013). Quantifying the invisible audience in social networks. In Proceedings of the sigchi conference on human factors in computing systems (pp. 21–30).

Boyd, D. (2014). It’s complicated: the social lives of networked teens. Yale University Press. 

Boyd, D. & Crawford, K. (2012). Critical questions for big data: provocations for a cul-tural, technological, and scholarly phenomenon. Information Communication and So-ciety, 15(5), 662–679.

Bozdag, E. (2013). Bias in algorithmic filtering and personalization. Ethics and Information Technology, 15(3), 209–227.

Bruns, A. (2008). Gatewatching, gatecrashing: futures for tactical news media. In M. Boler (Ed.), Digital media and democracy: Tactics in hard times (pp. 247–270). Cambridge, Mass.: The MIT Press.

Bucher, T. (2012). Want to be on the top? Algorithmic power and the threat of invisibility on Facebook. New Media & Society, 14(7), 1164–1180.

Bucher, T. (2016). Neither black nor box: ways of knowing algorithms. In Innovative methods in media and communication research (pp. 81–98). London: Palgrave Macmillan. 

Bucher, T. (2017). The algorithmic imaginary: exploring the ordinary affects of Facebook algorithms. Information Communication and Society, 20(1), 30–44.

Constine, J. (2018). How Instagram’s algorithm works - TechCrunch. Retrieved October 22, 2018, from https://techcrunch.com/2018/06/01/how-instagram-feed-works 

Cormen, T. H., Leiserson, C. E., Rivest, R. L. & Stein, C. (2009). Introduction to algorithms, Third Edition. The MIT Press.

Cotter, K. (2019). Playing the visibility game: how digital influencers and algorithms negotiate influence on Instagram. New Media & Society, 21(4), 895–913.

Delen, D. & Demirkan, H. (2013). Data, information and analytics as services. Decision Support Systems, 55(1), 359–363.

Dimitrov, D. & Rumrill, P. D. (2003). Pretest-posttest designs and measurement of change. Work, 20(2), 159–165.

Dwyer, N., Basu, A. & Marsh, S. (2013). Reflections on measuring the trust empowerment potential of a digital environment. In C. Fernández-Gago, F. Martinelli, S. Pearson & I. Agudo (Eds.), Trust management vii. ifiptm 2013. ifip advances in information and communication technology (Vol. 401, pp. 127–135).

Eslami, M., Aleyasen, A., Karahalios, K., Hamilton, K. & Sandvig, C. (2015). FeedVis: a path for exploring news feed curation algorithms. In Proceedings of the 18th acm conference companion on computer supported cooperative work & social computing (pp. 65–68).

Eslami, M., Karahalios, K., Sandvig, C., Vaccaro, K., Rickman, A., Hamilton, K. & Kirlik, A. (2016). First I like it, then I hide it: folk theories of social feeds. In Proceedings of the 2016 chi conference on human factors in computing systems (pp. 2371–2382).

Eslami, M., Rickman, A., Vaccaro, K., Aleyasen, A., Vuong, A., Karahalios, K., . . . Sandvig, C. (2015). “I always assumed that I wasn’t really that close to [her]”: reasoning about invisible algorithms in news feeds. In Proceedings of the 33rd annual acm conference on human factors in computing systems (pp. 153–162).

Eslami, M., Vaccaro, K., Karahalios, K. & Hamilton, K. (2017). “Be careful; things can be worse than they appear”: understanding biased algorithms and users’ behavior around them in rating platforms. In Eleventh international aaai conference on web and social media.

Facebook. (2015). Graph API reference /{user-id}/home. Retrieved May 7, 2019, from https://developers.facebook.com/docs/graph-api/reference/v3.3/user/home Galloway, A. R. (2006). Gaming: essays on algorithmic culture. Minneapolis, MN: University of Minnesota Press.

Gatz, S. (2018). Beleidsbrief media 2018-2019. Vlaams Parlement.

Hamilton, K., Karahalios, K., Sandvig, C. & Eslami, M. (2014). A path to understanding the effects of algorithm awareness. In Proceedings of the extended abstracts of the 32nd annual acm conference on human factors in computing systems (pp. 631–642). 

Hargittai, E. (2002). Second-level digital divide: differences in people’s online skills. First Monday, 7(4).

Hargittai, E. (2005). Survey measures of web-oriented digital literacy. Social Science Computer Review, 23(3), 371–379.

Hargittai, E., Fullerton, L., Menchen-Trevino, E. & Thomas, K. Y. (2010). Trust online: young adults’ evaluation of web content. International Journal of Communication, 4, 468–494. Hayes, A. F. (2017). Introduction to mediation, moderation, and conditional process analysis: A regression-based approach (2nd ed.). Guilford Publications.

Helsper, E. J. & Eynon, R. (2013). Distinct skill pathways to digital engagement. European Journal of Communication, 28(6), 696–713.

Hogan, B. (2010). The presentation of self in the age of social media: distinguishing performances and exhibitions online. Bulletin of Science, Technology & Society, 30(6), 377–386.

Instagram. (2016). See the moments you care about first. Retrieved February 25, 2019, from https://instagram-press.com/blog/2016/03/15/see-the-moments-you-care-ab… 

Instagram. (2019). Our story. Retrieved February 26, 2019, from https://instagram-press.com/ our-story/ 

Introna, L. D. & Nissenbaum, H. (2000). Shaping the web: why the politics of search engines matters. The Information Society, 16(3), 169–185.

Jenkins, H. (2009). Confronting the challenges of participatory culture: media education for the 21st century. The MIT Press.

Just, N. & Latzer, M. (2017). Governance by algorithms: reality construction by algorithmic selection on the Internet. Media, Culture & Society, 39(2), 238–258.

Kokolakis, S. (2017). Privacy attitudes and privacy behaviour: A review of current research on the privacy paradox phenomenon. Computers & Security, 64, 122–134.

Latzer, M., Hollnbuchner, K., Just, N. & Saurwein, F. (2016). The economics of algorithmic selection on the Internet. In Handbook on the economics of the internet. (p. 395). 

Livingstone, S. & Helsper, E. (2010). Balancing opportunities and risks in teenagers’ use of the internet: the role of online skills and internet self-efficacy. New Media & Society, 12(2), 309–329.

Livingstone, S., Van Couvering, E. & Thumin, N. (2008). Converging traditions of research on media and information literacies. In Handbook of research on new literacies (pp. 103–132). Routeledge.

Mantovani, G. (1996). Social context in HCl: A new framework for mental models, cooperation, and communication. Cognitive Science, 20(2), 237–269.

Marwick, A. E. & Boyd, D. (2011). I tweet honestly, I tweet passionately: Twitter users, context collapse, and the imagined audience. New Media & Society, 13(1), 114–133. 

McClelland, G. H. (2014). Nasty data: unruly, ill-mannered observations can ruin your ana-lysis. In H. T. Reis & C. M. Judd (Eds.), Handbook of research methods in social and personality psychology (2nd ed., pp. 608–626). Cambridge University Press.

Napoli, P. M. (2014). Automated media: an institutional theory perspective on algorithmic media production and consumption. Communication Theory, 24(3), 340–360.

Nelson, R. R. & Winter, S. G. (2002). Evolutionary theorizing in economics. Journal of Economic Perspectives, 16(2), 23–46.

Norberg, P. A., Horne, D. R. & Horne, D. A. (2007). The privacy paradox : personal information disclosure intentions versus behaviors. The Journal of Consumer Affairs, 41(1), 100–126.

Pariser, E. (2011). The filter bubble: what the Internet is hiding from you. Penguin UK. 

Paulussen, S., Courtois, C., Vanwynsberghe, H. & Verdegem, P. (2011). Profielen van mediage-letterdheid: een exploratie van de digitale vaardigheden van burgers in Vlaanderen. In M.-A. Moreas & J. Pickery (Eds.), Mediageletterdheid in een digitale wereld (Vol. 1, pp. 61–76). Studiedienst van de Vlaamse Regering.

R Core Team. (2018). R: A language and environment for statistical computing. R Foundation for Statistical Computing. Vienna, Austria.

Rader, E. & Gray, R. (2015). Understanding user beliefs about algorithmic curation in the Facebook news feed. In Proceedings of the 33rd annual acm conference on human factors in computing systems (pp. 172–182). ACM.

Roberts, C. (2005). Gatekeeping theory : an evolution. Paper presented at Communication Theory and Methodology Division, Association for Education in Journalism and Mass Communication, San Antonio, TX.

Sandvig, C., Hamilton, K., Karahalios, K. & Langbort, C. (2014). Auditing algorithms: research methods for detecting discrimination on internet platforms. Data and discrimin-ation: converting critical concerns into productive inquiry, 22.

Talja, S. (2005). The social and discursive construction of computing skills. Journal of the American Society for Information Science and Technology, 56(1), 13–22.

Tandoc Jr, E. C. (2014). Journalism is twerking? How web analytics is changing the process of gatekeeping. New Media and Society, 16(4), 559–575.

Tufekci, Z. (2008). Can you see me now? Audience and disclosure regulation in online social network sites. Bulletin of Science, Technology & Society, 28(1), 20–36.

van Deursen, A. J. A. M. (2010). Internet skills. Vital assets in an information society (Doc-toral dissertation, Enschede, the Netherlands: University of Twente).

van Deursen, A. J. A. M., Courtois, C. & van Dijk, J. A. G. M. (2014). Internet skills, sources of support, and benefiting from Internet use. International Journal of Human-Computer Interaction, 30(4), 278–290.

van Deursen, A. J. A. M., Helsper, E. J. & Eynon, R. (2016). Development and validation of the Internet Skills Scale (ISS). Information Communication and Society, 19(6), 804–823. 

van Deursen, A. J. A. M. & van Dijk, J. A. G. M. (2009). Using the Internet: skill related problems in users’ online behavior. Interacting with Computers, 21(5-6), 393–402.

van Deursen, A. J. A. M. & van Dijk, J. A. G. M. (2010). Measuring Internet skills. International Journal of Human-Computer Interaction, 26(10), 891–916.

van Deursen, A. J. A. M. & van Dijk, J. A. G. M. (2011). Internet skills and the digital divide. New Media and Society, 13(6), 893–911.

van Deursen, A. J. A. M. & van Dijk, J. A. G. M. (2015). Internet skill levels increase, but gaps widen: a longitudinal cross-sectional analysis (2010–2013) among the Dutch population. Information, Communication & Society, 18(7), 782–797.

van Deursen, A. J. A. M., van Dijk, J. A. G. M. & Peters, O. (2012). Proposing a survey instrument for measuring operational, formal, information, and strategic Internet skills. International Journal of Human-Computer Interaction, 28(12), 827–837.

van Dijk, J. A. G. M. (2005). The deepening divide: inequality in the information society. Sage Publication.

van Dijk, J. A. G. M. & van Deursen, A. J. A. M. (2014). Digital Skills: unlocking the information society. New York: Palgrave Macmillan.

Vanhaelewyn, B. & De Marez, L. (2018). Digimeter 2018: measuring digital media trends in Flanders. Imec.

Vanwynsberghe, H., Boudry, E. & Verdegem, P. (2015). De impact van ouderschapsstijlen op de ontwikkeling van sociale mediageletterdheid bij adolescenten. Tijdschrift voor com-municatiewetenschappen, 43(1), 84–100.

Vanwynsberghe, H. & Haspeslagh, L. (2014). Getting started measuring social media literacy. iMinds-mict-UGent.

Verdegem, P., Haspeslagh, L. & Vanwynsberghe, H. (2014). EMSOC survey report: social media use and experience of the Flemish population. iMinds-mict-UGent.

Wright, D. B. (2006). Comparing groups in a before-after design: shen t-test and ANCOVA produce different results. British Journal of Educational Psychology, 76(3), 663–675. 

Yang, H.-d. & Yoo, Y. (2004). It’s all about attitude: revisiting the technology acceptance model. Decision Support Systems, 38(1), 19–31.

Yeung, K. (2017). “Hypernudge”: Big Data as a mode of regulation by design. Information Communication and Society, 20(1), 118–136.

Zhang, J. (2015). Fiddler: A visualization prototype interface for making sense of newsfeeds (Master’s thesis, University of Illinois).

Universiteit of Hogeschool
Communicatiewetenschappen Nieuwe Media & Maatschappij
Publicatiejaar
2019
Promotor(en)
dr. Peter Mechant
Kernwoorden
https://twitter.com/TFouquaert
Share this on: