Kunnen we content zijn met hoe sociale media platformen hun gebruikers beschermen voor problematische content?

Hanne
Goor

Waar denk je aan als je aan problematische content op sociale media denkt? Geweld? Pesten? Of denk je misschien aan studeerfilmpjes, leuke familiefoto's, of "What I eat in a day"-video's?

Ik interviewde 15 neurodiverse sociale media gebruikers om erachter te komen welke content zij problematisch vinden en welke negatieve effecten deze op hen kan hebben. De resultaten waren verrassend en uiteenlopend. Veel verschillende soorten content kunnen negatieve gevolgen hebben, ook al lijkt de content op het eerste zicht heel onschuldig. Door deze resultaten ontdekte ik ook dat sociale media platformen helemaal niet goed rekening houden met de ervaring van de gebruiker wanneer ze met problematische content omgaan. Zou dit eigenlijk niet het geval moeten zijn?

Wat hebben pesten, geweld en een bord spaghetti met elkaar gemeen?

Problematische content roept vaak beelden op van extreme dingen zoals geweld of bloed. In mijn onderzoek ontdekte ik dat dit eigenlijk veel breder is dan dat. Ook sociale media platformen kijken vooral naar typische dingen als geweld, naaktheid, misinformatie, enzovoort wanneer ze regels opstellen over welke content verboden is. Deze soorten content zijn natuurlijk problematisch om zomaar te tonen op sociale media, maar door enkel te focussen op illegale of typische dingen, laten de platformen veel andere types content aan de kant liggen, die misschien ook problematisch kunnen zijn voor sommige gebruikers. Denk bijvoorbeeld maar aan een foto van een groot bord spaghetti. Op het eerste zicht lijkt dit heel onschuldig en dat is het misschien ook. Maar voor iemand met een eetstoornis, kan dit misschien heel wat negatieve gevoelens oproepen.

Om te weten te komen welke soorten content gebruikers zelf problematisch vinden, vroeg ik dit aan de deelnemers van mijn onderzoek. Uit de antwoorden bleek dat platformen inderdaad veel soorten content buiten schot laten die gebruikers wel als problematisch kunnen ervaren. Hieronder geef ik een overzicht van alle types content die deelnemers problematisch vonden. Sommige tellen momenteel al als problematische content in de regels van platformen en andere niet.

wonden of fysieke ongelukken - haat naar een specifieke groep - zelfmoord of zelfverwonding promoten - oorlog - eetstoornis promoten - dierenmishandeling - misinformatie - mishandeling door ouders - misbruik in een relatie - politieke content - iemand die praat over een overleden huisdier - video's met tips voor ADHD - het nieuws - studeer video's - "What I eat in a day"-video's - drukke content - video's waarin op geesten wordt gejaagd - toxic positivity - spiritualiteit - sport video's - poppen - spinnen - ziekenhuizen of operaties - roepen - mensen die hun leven als perfect voordoen - content met negatieve emoties - broodfokkerij - ouders die hun kinderen vaak posten - negatieve reacties - getuigenissen van mensen die in een moeilijke situatie zitten

Kan het zien van problematische content negatieve effecten hebben?

Het zien van zo'n content kan ook negatieve gevolgen met zich meebrengen en daarom is het belangrijk dat we als gebruiker hiervoor beschermd worden. Tijdens de interviews kwamen er verschillende negatieve effecten naar voren. Dit waren voornamelijk psychologische effecten. Sommigen bleven niet zo lang duren, maar andere konden langdurige gevolgen hebben. Dit zijn alle negatieve effecten die genoemd werden door de deelnemers:

verdrietig zijn - boos worden - stress - depressief voelen - irritatie - angstig worden - panikeren - agressief worden - zich ergens druk in maken - overprikkeld raken - nutteloos voelen - dingen betrekken op het eigen leven - negatieve emoties overnemen - aan zichzelf twijfelen - onzeker voelen - negatief denken - depressieve episode - mood switch

De effecten zijn dus zeker ernstig genoeg om serieus genomen te worden. Het is daarom belangrijk dat platformen actie ondernemen om deze negatieve effecten zoveel mogelijk te vermijden.

Neurodiversi-watte?

Aan het begin zei ik dat ik neurodiverse sociale media gebruikers heb bevraagd. Maar wat is dat, neurodivers? Neurodiversiteit wil zeggen dat iemands brein ander werkt dan de norm. Denk bijvoorbeeld aan ADHD, autisme, hoogsensitiviteit, bipolaire stoornis, ...

Waarom heb ik deze groep onderzocht? Omdat neurodiversiteit vaak vergeten wordt als diversiteitspijler naast andere pijlers zoals gender, seksuele geaardheid, leeftijd, enzovoort. Toch is het belangrijk om neurodiverse personen ook een stem te geven. Door deze specifieke groep te interviewen, zag ik namelijk een aantal gevoeligheden naar voren komen die gelinkt kunnen worden aan neurodiversiteit. Eén van de deelnemers vertelde bijvoorbeeld dat content die zij problematisch vindt haar depressieve episodes, gelinkt aan haar bipolaire stoornis, kan beïnvloeden. Iemand anders vertelde dat content waarin haar fobieën voorkomen een heel groot effect kan hebben, omdat haar angststoornis dit versterkt. Veel mensen haalden ook aan dat hun neurodiversiteit ervoor zorgt dat ze een heel groot empathiegevoel hebben en dat daardoor content ook een veel groter emotioneel effect kan hebben op hen.

Wat kunnen sociale media platformen doen om hun gebruikers beter te beschermen?

Sociale media platformen hebben al regels en systemen waarmee ze proberen om te gaan met ongewenste content. Maar zijn deze regels en systemen goed genoeg? Hoewel er al veel wordt gedaan, is er zeker nog veel ruimte voor verbetering. Sociale media platformen houden niet echt rekening met de ervaring van de gebruiker wanneer ze deze regels en systemen opstellen en dat zouden ze beter wel doen.

Welke content als problematisch telt, zou verbreed moeten worden. Veel meer soorten content kunnen namelijk een negatieve impact hebben dan waar platformen nu naar kijken. Daarnaast is problematische content ook een heel individueel concept dat voor iedereen iets anders kan zijn. Daarom past een meer individuele aanpak van het omgaan met deze content veel beter bij hou gebruikers dit ervaren.

Wat leert dit onderzoek ons?

Tegenwoordig is een wereld zonder sociale media maar moeilijk in te beelden en dus hebben deze platformen een impact op een heel groot deel van onze samenleving. Daarom is het dan ook belangrijk om te kijken hoe sociale media omgaan met het beschermen van hun gebruikers en om hun verantwoordelijk te stellen wanneer ze dit niet doen.

Door te onderzoeken welke content gebruikers problematische vinden en welke negatieve effecten deze content teweeg kan brengen, weten we beter hoe platformen hun regels en systemen kunnen aanpassen aan de gebruiker. Ik onderzocht dit bij 15 neurodiverse sociale media gebruikers. De belangrijkste vaststellingen uit dit onderzoek, zet ik hier nog eens op een rijtje:

Kunnen we content zijn over hoe sociale media platformen hun gebruikers beschermen voor problematische content? NEE // De huidige aanpak van sociale media platformen is niet individueel genoeg en gebruikt een te stereotiep beeld van welke content problematisch is. // Sociale media houden niet voldoende rekening met de ervaring van de gebruiker bij het opstellen van regels en systemen rond problematische content. // Het is belangrijk dat minderheidsgroepen, zoals neurodiverse sociale media gebruikers, hier ook een stem in krijgen.

Bibliografie

Angwin, J., & Grassegger, H. (2017). Facebook's Secret Censorship Rules Protect White Men From Hate Speech But Not Black Children. ProPublica. https://www.propublica.org/article/facebook-hate-speech-censorship-internal-documents-algorithms

Arora, A., Nakov, P., Hardalov, M., Sarwar, S. M., Nayak, V., Dinkov, Y., Zlatkova, D., Dent, K., Bhatawdekar, A., Bouchard, G., & Augenstein, I. (2023). Detecting Harmful Content on Online Platforms: What Platforms Need vs. Where Research Efforts Go. ACM Computing Surveys, 56(3). https://doi.org/10.1145/3603399 

Blunt, D., Duguay, S., Gillespie, T., Love, S., & Smith, C. (2021). Deplatforming Sex: a roundtable conversation. Porn Studies, 8(4), 420-438. https://doi.org/10.1080/23268743.2021.2005907

Caplan, R. (2018). Content or Context Moderation? Artisanal, Community-Reliant, and Industrial Approaches. https://datasociety.net/library/content-or-context-moderation/

Díaz, Á., & Hecht-Felella, L. (2021). Double Standards in Social Media Content Moderation. https://www.brennancenter.org/our-work/research-reports/double-standards-social-media-content-moderation

Dwyer, P. (2022). The Neurodiversity Approach(es): What Are They and What Do They Mean for Researchers? Human Development, 66(2), 73-92. https://doi.org/10.1159/000523723 

Facebook. Facebook Community Standards. https://transparency.fb.com/policies/community-standards/

Gerrard, Y. (2020). Social media content moderation: six opportunities for feminist intervention. Feminist Media Studies, 20(5), 748-751. https://doi.org/10.1080/14680777.2020.1783807

Gillespie, T. (2018). Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media

Gillespie, T. (2022). Do Not Recommend? Reduction as a Form of Content Moderation. Social Media + Society, 8(3), 1-13. https://doi.org/10.1177/20563051221117552

Gillespie, T. (2023). The Fact of Content Moderation; Or, Let's Not Solve the Platforms' Problems for Them. Media and Communication, 11(2), 406-409. https://doi.org/10.17645/mac.v11i2.6610

Gillespie, T., Aufderheide, P., Carmi, E., Gerrard, Y., Gorwa, R., Matamoros-Fernández, A., Roberts, S. T., Sinnreich, A., & West, S. M. (2020). Expanding the debate about content moderation: scholarly research agendas for the coming policy debates. Internet Policy Review, 9(4). https://doi.org/10.14763/2020.4.1512

Gillett, R., Stardust, Z., & Burgess, J. (2022). Safety for Whom? Investigating How Platforms Frame and Perform Safety and Harm Interventions. Social Media + Society, 8(4), 20563051221144315. https://doi.org/10.1177/20563051221144315

Goldman, E. (2021). Content Moderation Remedies. Michigan Techonology Law Review, 28(1), 1-59. https://doi.org/10.36645/mtlr.28.1.content

Im, J., Schoenebeck, S., Iriarte, M., Grill, G., Wilkinson, D., Batool, A., Alharbi, R., Funwie, A., Gankhuu, T., Gilbert, E., & Naseem, M. (2022). Women's Perspectives on Harm and Justice after Online Harassment. Proc. ACM Hum.-Comput. Interact., 6(CSCW2), Article 355. https://doi.org/10.1145/3555775

Instagram. Community Guidelines. https://help.instagram.com/477434105621119/?helpref=uf_share

Jee, C. (2020). Facebook needs 30,000 of its own content moderators, says a new report. MIT Technology Review. https://www.technologyreview.com/2020/06/08/1002894/facebook-needs-30000-of-its-own-content-moderators-says-a-new-report/

Johnson, M., & Olson, C. J. (2021). Normalizing Mental Illness and Neurodiversity in Entertainment Media. Routledge. 

Klonick, K. (2018). The New Governors: The People, Rules, and Processes Governing Online Speech. Harvard Law Review, 131(6), 1598-1670. 

Kvardová, N., Smahel, D., Machackova, H., & Subrahmanyam, K. (2021). Who Is Exposed to Harmful Online Content? The Role of Risk and Protective Factors Among Czech, Finnish, and Spanish Adolescents. Journal of Youth and Adolescence, 50. https://doi.org/10.1007/s10964-021-01422-2

Legault, M., Bourdon, J.-N., & Poirier, P. (2021). From neurodiversity to neurodivergence: the role of epistemic and cognitive marginalization. Synthese, 199(5), 12843-12868. https://doi.org/10.1007/s11229-021-03356-5

Livingstone, S. (2013). Online risk, harm and vulnerability: reflections on the evidence base for child Internet safety policy. ZER: Journal of Communication Studies, 18(35), 13-28. 

Livingstone, S., Haddon, L., Goerzig, A., & Ólafsson, K. (2011). Risks and Safety on the Internet: The Perspective of European Children. Full FINDINGS. 

Livingstone, S., Kirwil, L., Ponte, C., & Staksrud, E. (2014). In their own words: What bothers children online? European Journal of Communication, 29, 271-288. https://doi.org/10.1177/0267323114521045

Marshall, B. (2021). Algorithmic misogynoir in content moderation practice. https://www.boell.de/en/2021/06/21/algorithmic-misogynoir-content-moderation-practice

Mazurek, M. O. (2013). Social media use among adults with autism spectrum disorders. Computers in Human Behavior, 29(4), 1709-1714. https://doi.org/10.1016/j.chb.2013.02.004

Morales, E. (2023). Ecologies of Violence on Social Media: An Exploration of Practices, Contexts, and Grammars of Online Harm. Social Media + Society, 9(3), 20563051231196882. https://doi.org/10.1177/20563051231196882

Olson, L., Guzmán, E., & Kunneman, F. (2023). Along the Margins: Marginalized Communities' Ethical Concerns about Social Platforms. https://arxiv.org/abs/2304.08882 

Ortiz, A., Bradler, K., & Hintze, A. (2018). Episode forecasting in bipolar disorder: Is energy better than mood? Bipolar Disorders, 20(5), 470-476. https://doi.org/https://doi.org/10.1111/bdi.12603

Pinchevski, A., & Peters, J. D. (2015). Autism and new media: Disability between technology and society. New Media & Society, 18(11), 2507-2523. https://doi.org/10.1177/1461444815594441

Race, L., James, A., Hayward, A., El-Amin, K., Patterson, M. G., & Mershon, T. (2021). Designing Sensory and Social Tools for Neurodivergent Individuals in Social Media Environments Proceedings of the 23rd International ACM SIGACCESS Conference on Computers and Accessibility, Virtual Event, USA. https://doi.org/10.1145/3441852.3476546

Reading, A. (2018). Neurodiversity and Communication Ethics: How Images of Autism Trouble Communication Ethics in the Globital Age. Cultural Studies Review, 24(2), 113-129. https://doi.org/10.5130/csr.v24i2.6040

Roberts, S. T. (2016). Commercial Content Moderation: Digital Laborers' Dirty Work. In The Intersectional Internet: Race, Sex, Class and Culture Online. Peter Lang. 

Scheuerman, M. K., Jiang, J. A., Fiesler, C., & Brubaker, J. R. (2021). A Framework of Severity for Harmful Content Online. Proc. ACM Hum.-Comput. Interact., 5(CSCW2), Article 368. https://doi.org/10.1145/3479512 

Simpson, E., Dalal, S., & Semaan, B. (2023). "Hey, Can You Add Captions?": The Critical Infrastructuring Practices of Neurodiverse People on TikTok. Proc. ACM Hum.-Comput. Interact., 7(CSCW1), Article 57. https://doi.org/10.1145/3579490 

Tumblr. Community Guidelines. https://www.tumblr.com/policy/en/community

Ungvarsky, J. (2023). Neurodiversity. In Salem Press Encyclopedia: Salem Press.

Wang, T., Garfield, M., Wisniewski, P., & Page, X. (2020). Benefits and Challenges for Social Media Users on the Autism Spectrum Conference Companion Publication of the 2020 on Computer Supported Cooperative Work and Social Computing, Virtual Event, USA. https://doi.org/10.1145/3406865.3418322

West, S. M. (2018). Censored, suspended, shadowbanned: User interpretations of content moderation on social media platforms. New Media & Society, 20(11), 4366-4383. https://doi.org/10.1177/1461444818773059

X. Rules and policies. https://help.twitter.com/en/rules-and-policies

Xiao, S., Cheshire, C., & Salehi, N. (2022). Sensemaking, Support, Safety, Retribution, Transformation: A Restorative Justice Approach to Understanding Adolescents’ Needs for Addressing Online Harm Proceedings of the 2022 CHI Conference on Human Factors in Computing Systems,  https://doi.org/10.1145/3491102.3517614

Download scriptie (536.64 KB)
Universiteit of Hogeschool
Universiteit Antwerpen
Thesis jaar
2024
Promotor(en)
prof. dr. Sander De Ridder