Waar denk je aan als je aan problematische content op sociale media denkt? Geweld? Pesten? Of denk je misschien aan studeerfilmpjes, leuke familiefoto's, of "What I eat in a day"-video's?
Ik interviewde 15 neurodiverse sociale media gebruikers om erachter te komen welke content zij problematisch vinden en welke negatieve effecten deze op hen kan hebben. De resultaten waren verrassend en uiteenlopend. Veel verschillende soorten content kunnen negatieve gevolgen hebben, ook al lijkt de content op het eerste zicht heel onschuldig. Door deze resultaten ontdekte ik ook dat sociale media platformen helemaal niet goed rekening houden met de ervaring van de gebruiker wanneer ze met problematische content omgaan. Zou dit eigenlijk niet het geval moeten zijn?
Problematische content roept vaak beelden op van extreme dingen zoals geweld of bloed. In mijn onderzoek ontdekte ik dat dit eigenlijk veel breder is dan dat. Ook sociale media platformen kijken vooral naar typische dingen als geweld, naaktheid, misinformatie, enzovoort wanneer ze regels opstellen over welke content verboden is. Deze soorten content zijn natuurlijk problematisch om zomaar te tonen op sociale media, maar door enkel te focussen op illegale of typische dingen, laten de platformen veel andere types content aan de kant liggen, die misschien ook problematisch kunnen zijn voor sommige gebruikers. Denk bijvoorbeeld maar aan een foto van een groot bord spaghetti. Op het eerste zicht lijkt dit heel onschuldig en dat is het misschien ook. Maar voor iemand met een eetstoornis, kan dit misschien heel wat negatieve gevoelens oproepen.
Om te weten te komen welke soorten content gebruikers zelf problematisch vinden, vroeg ik dit aan de deelnemers van mijn onderzoek. Uit de antwoorden bleek dat platformen inderdaad veel soorten content buiten schot laten die gebruikers wel als problematisch kunnen ervaren. Hieronder geef ik een overzicht van alle types content die deelnemers problematisch vonden. Sommige tellen momenteel al als problematische content in de regels van platformen en andere niet.
Het zien van zo'n content kan ook negatieve gevolgen met zich meebrengen en daarom is het belangrijk dat we als gebruiker hiervoor beschermd worden. Tijdens de interviews kwamen er verschillende negatieve effecten naar voren. Dit waren voornamelijk psychologische effecten. Sommigen bleven niet zo lang duren, maar andere konden langdurige gevolgen hebben. Dit zijn alle negatieve effecten die genoemd werden door de deelnemers:
De effecten zijn dus zeker ernstig genoeg om serieus genomen te worden. Het is daarom belangrijk dat platformen actie ondernemen om deze negatieve effecten zoveel mogelijk te vermijden.
Aan het begin zei ik dat ik neurodiverse sociale media gebruikers heb bevraagd. Maar wat is dat, neurodivers? Neurodiversiteit wil zeggen dat iemands brein ander werkt dan de norm. Denk bijvoorbeeld aan ADHD, autisme, hoogsensitiviteit, bipolaire stoornis, ...
Waarom heb ik deze groep onderzocht? Omdat neurodiversiteit vaak vergeten wordt als diversiteitspijler naast andere pijlers zoals gender, seksuele geaardheid, leeftijd, enzovoort. Toch is het belangrijk om neurodiverse personen ook een stem te geven. Door deze specifieke groep te interviewen, zag ik namelijk een aantal gevoeligheden naar voren komen die gelinkt kunnen worden aan neurodiversiteit. Eén van de deelnemers vertelde bijvoorbeeld dat content die zij problematisch vindt haar depressieve episodes, gelinkt aan haar bipolaire stoornis, kan beïnvloeden. Iemand anders vertelde dat content waarin haar fobieën voorkomen een heel groot effect kan hebben, omdat haar angststoornis dit versterkt. Veel mensen haalden ook aan dat hun neurodiversiteit ervoor zorgt dat ze een heel groot empathiegevoel hebben en dat daardoor content ook een veel groter emotioneel effect kan hebben op hen.
Sociale media platformen hebben al regels en systemen waarmee ze proberen om te gaan met ongewenste content. Maar zijn deze regels en systemen goed genoeg? Hoewel er al veel wordt gedaan, is er zeker nog veel ruimte voor verbetering. Sociale media platformen houden niet echt rekening met de ervaring van de gebruiker wanneer ze deze regels en systemen opstellen en dat zouden ze beter wel doen.
Welke content als problematisch telt, zou verbreed moeten worden. Veel meer soorten content kunnen namelijk een negatieve impact hebben dan waar platformen nu naar kijken. Daarnaast is problematische content ook een heel individueel concept dat voor iedereen iets anders kan zijn. Daarom past een meer individuele aanpak van het omgaan met deze content veel beter bij hou gebruikers dit ervaren.
Tegenwoordig is een wereld zonder sociale media maar moeilijk in te beelden en dus hebben deze platformen een impact op een heel groot deel van onze samenleving. Daarom is het dan ook belangrijk om te kijken hoe sociale media omgaan met het beschermen van hun gebruikers en om hun verantwoordelijk te stellen wanneer ze dit niet doen.
Door te onderzoeken welke content gebruikers problematische vinden en welke negatieve effecten deze content teweeg kan brengen, weten we beter hoe platformen hun regels en systemen kunnen aanpassen aan de gebruiker. Ik onderzocht dit bij 15 neurodiverse sociale media gebruikers. De belangrijkste vaststellingen uit dit onderzoek, zet ik hier nog eens op een rijtje:
Angwin, J., & Grassegger, H. (2017). Facebook's Secret Censorship Rules Protect White Men From Hate Speech But Not Black Children. ProPublica. https://www.propublica.org/article/facebook-hate-speech-censorship-internal-documents-algorithms
Arora, A., Nakov, P., Hardalov, M., Sarwar, S. M., Nayak, V., Dinkov, Y., Zlatkova, D., Dent, K., Bhatawdekar, A., Bouchard, G., & Augenstein, I. (2023). Detecting Harmful Content on Online Platforms: What Platforms Need vs. Where Research Efforts Go. ACM Computing Surveys, 56(3). https://doi.org/10.1145/3603399
Blunt, D., Duguay, S., Gillespie, T., Love, S., & Smith, C. (2021). Deplatforming Sex: a roundtable conversation. Porn Studies, 8(4), 420-438. https://doi.org/10.1080/23268743.2021.2005907
Caplan, R. (2018). Content or Context Moderation? Artisanal, Community-Reliant, and Industrial Approaches. https://datasociety.net/library/content-or-context-moderation/
Díaz, Á., & Hecht-Felella, L. (2021). Double Standards in Social Media Content Moderation. https://www.brennancenter.org/our-work/research-reports/double-standards-social-media-content-moderation
Dwyer, P. (2022). The Neurodiversity Approach(es): What Are They and What Do They Mean for Researchers? Human Development, 66(2), 73-92. https://doi.org/10.1159/000523723
Facebook. Facebook Community Standards. https://transparency.fb.com/policies/community-standards/
Gerrard, Y. (2020). Social media content moderation: six opportunities for feminist intervention. Feminist Media Studies, 20(5), 748-751. https://doi.org/10.1080/14680777.2020.1783807
Gillespie, T. (2018). Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media.
Gillespie, T. (2022). Do Not Recommend? Reduction as a Form of Content Moderation. Social Media + Society, 8(3), 1-13. https://doi.org/10.1177/20563051221117552
Gillespie, T. (2023). The Fact of Content Moderation; Or, Let's Not Solve the Platforms' Problems for Them. Media and Communication, 11(2), 406-409. https://doi.org/10.17645/mac.v11i2.6610
Gillespie, T., Aufderheide, P., Carmi, E., Gerrard, Y., Gorwa, R., Matamoros-Fernández, A., Roberts, S. T., Sinnreich, A., & West, S. M. (2020). Expanding the debate about content moderation: scholarly research agendas for the coming policy debates. Internet Policy Review, 9(4). https://doi.org/10.14763/2020.4.1512
Gillett, R., Stardust, Z., & Burgess, J. (2022). Safety for Whom? Investigating How Platforms Frame and Perform Safety and Harm Interventions. Social Media + Society, 8(4), 20563051221144315. https://doi.org/10.1177/20563051221144315
Goldman, E. (2021). Content Moderation Remedies. Michigan Techonology Law Review, 28(1), 1-59. https://doi.org/10.36645/mtlr.28.1.content
Im, J., Schoenebeck, S., Iriarte, M., Grill, G., Wilkinson, D., Batool, A., Alharbi, R., Funwie, A., Gankhuu, T., Gilbert, E., & Naseem, M. (2022). Women's Perspectives on Harm and Justice after Online Harassment. Proc. ACM Hum.-Comput. Interact., 6(CSCW2), Article 355. https://doi.org/10.1145/3555775
Instagram. Community Guidelines. https://help.instagram.com/477434105621119/?helpref=uf_share
Jee, C. (2020). Facebook needs 30,000 of its own content moderators, says a new report. MIT Technology Review. https://www.technologyreview.com/2020/06/08/1002894/facebook-needs-30000-of-its-own-content-moderators-says-a-new-report/
Johnson, M., & Olson, C. J. (2021). Normalizing Mental Illness and Neurodiversity in Entertainment Media. Routledge.
Klonick, K. (2018). The New Governors: The People, Rules, and Processes Governing Online Speech. Harvard Law Review, 131(6), 1598-1670.
Kvardová, N., Smahel, D., Machackova, H., & Subrahmanyam, K. (2021). Who Is Exposed to Harmful Online Content? The Role of Risk and Protective Factors Among Czech, Finnish, and Spanish Adolescents. Journal of Youth and Adolescence, 50. https://doi.org/10.1007/s10964-021-01422-2
Legault, M., Bourdon, J.-N., & Poirier, P. (2021). From neurodiversity to neurodivergence: the role of epistemic and cognitive marginalization. Synthese, 199(5), 12843-12868. https://doi.org/10.1007/s11229-021-03356-5
Livingstone, S. (2013). Online risk, harm and vulnerability: reflections on the evidence base for child Internet safety policy. ZER: Journal of Communication Studies, 18(35), 13-28.
Livingstone, S., Haddon, L., Goerzig, A., & Ólafsson, K. (2011). Risks and Safety on the Internet: The Perspective of European Children. Full FINDINGS.
Livingstone, S., Kirwil, L., Ponte, C., & Staksrud, E. (2014). In their own words: What bothers children online? European Journal of Communication, 29, 271-288. https://doi.org/10.1177/0267323114521045
Marshall, B. (2021). Algorithmic misogynoir in content moderation practice. https://www.boell.de/en/2021/06/21/algorithmic-misogynoir-content-moderation-practice
Mazurek, M. O. (2013). Social media use among adults with autism spectrum disorders. Computers in Human Behavior, 29(4), 1709-1714. https://doi.org/10.1016/j.chb.2013.02.004
Morales, E. (2023). Ecologies of Violence on Social Media: An Exploration of Practices, Contexts, and Grammars of Online Harm. Social Media + Society, 9(3), 20563051231196882. https://doi.org/10.1177/20563051231196882
Olson, L., Guzmán, E., & Kunneman, F. (2023). Along the Margins: Marginalized Communities' Ethical Concerns about Social Platforms. https://arxiv.org/abs/2304.08882
Ortiz, A., Bradler, K., & Hintze, A. (2018). Episode forecasting in bipolar disorder: Is energy better than mood? Bipolar Disorders, 20(5), 470-476. https://doi.org/https://doi.org/10.1111/bdi.12603
Pinchevski, A., & Peters, J. D. (2015). Autism and new media: Disability between technology and society. New Media & Society, 18(11), 2507-2523. https://doi.org/10.1177/1461444815594441
Race, L., James, A., Hayward, A., El-Amin, K., Patterson, M. G., & Mershon, T. (2021). Designing Sensory and Social Tools for Neurodivergent Individuals in Social Media Environments Proceedings of the 23rd International ACM SIGACCESS Conference on Computers and Accessibility, Virtual Event, USA. https://doi.org/10.1145/3441852.3476546
Reading, A. (2018). Neurodiversity and Communication Ethics: How Images of Autism Trouble Communication Ethics in the Globital Age. Cultural Studies Review, 24(2), 113-129. https://doi.org/10.5130/csr.v24i2.6040
Roberts, S. T. (2016). Commercial Content Moderation: Digital Laborers' Dirty Work. In The Intersectional Internet: Race, Sex, Class and Culture Online. Peter Lang.
Scheuerman, M. K., Jiang, J. A., Fiesler, C., & Brubaker, J. R. (2021). A Framework of Severity for Harmful Content Online. Proc. ACM Hum.-Comput. Interact., 5(CSCW2), Article 368. https://doi.org/10.1145/3479512
Simpson, E., Dalal, S., & Semaan, B. (2023). "Hey, Can You Add Captions?": The Critical Infrastructuring Practices of Neurodiverse People on TikTok. Proc. ACM Hum.-Comput. Interact., 7(CSCW1), Article 57. https://doi.org/10.1145/3579490
Tumblr. Community Guidelines. https://www.tumblr.com/policy/en/community
Ungvarsky, J. (2023). Neurodiversity. In Salem Press Encyclopedia: Salem Press.
Wang, T., Garfield, M., Wisniewski, P., & Page, X. (2020). Benefits and Challenges for Social Media Users on the Autism Spectrum Conference Companion Publication of the 2020 on Computer Supported Cooperative Work and Social Computing, Virtual Event, USA. https://doi.org/10.1145/3406865.3418322
West, S. M. (2018). Censored, suspended, shadowbanned: User interpretations of content moderation on social media platforms. New Media & Society, 20(11), 4366-4383. https://doi.org/10.1177/1461444818773059
X. Rules and policies. https://help.twitter.com/en/rules-and-policies
Xiao, S., Cheshire, C., & Salehi, N. (2022). Sensemaking, Support, Safety, Retribution, Transformation: A Restorative Justice Approach to Understanding Adolescents’ Needs for Addressing Online Harm Proceedings of the 2022 CHI Conference on Human Factors in Computing Systems, https://doi.org/10.1145/3491102.3517614