Hoe beïnvloedt het gebruik van algoritmen voor het detecteren van illegale of schadelijke content op online platforms de vrijheid van meningsuiting van EU-burgers? Deze vraag hield Valentina Golunova bezig tijdens haar promotietraject.
Voor haar proefschrift aan de Universiteit Maastricht verdiepte Valentina zich in contentmoderatie en vrijheid van meningsuiting. Vóór de COVID-pandemie namen mensen nog het voortouw in het modereren van content. Dag in dag uit moesten ze problematische, schadelijke berichten bekijken en razendsnel beslissen of ze online konden blijven of verwijderd moesten worden. Toen de lockdown inging, konden menselijke moderators hun werk niet meer doen omdat ze gedwongen werden thuis te werken, wat leidde tot privacyproblemen. Vanaf dat moment werd alle content grotendeels gemodereerd door algoritmen. Bovendien begon de EU platforms ertoe aan te zetten hun gebruik van AI op te schalen, om ervoor te zorgen dat het internet een veilige omgeving blijft en tegelijkertijd de vrijheid van meningsuiting online te beschermen. Maar is het überhaupt mogelijk om beide doelen te bereiken?
“Een van de gevolgen is dat de vrijheid van meningsuiting online wordt aangetast wanneer content ten onrechte door algoritmen wordt verwijderd.” In conflictgebieden of politiek gevoelige contexten liggen de gevolgen van contentmoderatie nog veel zwaarder, benadrukt Valentina. Ze wijst op een voorbeeld uit de Syrische burgeroorlog, waar mensenrechtenactivisten visueel bewijsmateriaal van oorlogsmisdaden op sociale media plaatsten in de hoop het veilig te stellen voor toekomstige internationale strafzaken. “Die beelden toonden vaak geweld, waardoor ze automatisch door de algoritmes van platforms werden verwijderd. Maar het doel was niet om geweld te verheerlijken. Het ging erom misdaden vast te leggen en daders ter verantwoording te roepen. Door die verwijderingen is mogelijk cruciaal bewijsmateriaal verloren gegaan.’
Lees het hele interview op de site van de Universiteit Maastricht.
