Modération de contenu: la face cachée de Facebook

Pour nettoyer leurs plateformes de contenus illégaux ou simplement choquants, plusieurs grandes compagnies de réseaux sociaux doivent faire affaire à des services de modération de contenu commerciale (comme Cognizant). Facebook compterait 15 000 modérateurs de contenu à travers le monde dans ce type d’entreprise sous-traitante. En février 2019, un dossier paru à ce sujet dans le média The Verge exposa l’impact psychologique dévastateur de la modération de contenu.

Des conditions de travail misérables

En plus d’être bombardés de contenus parfois obscènes, les modérateurs de Facebook ont des conditions de travail plutôt médiocres. D’abord, ceux-ci ont un salaire annuel moyen bien moindre (28 800$) que celui des employés chez Facebook (240 000$).

Ensuite, l’environnement de travail n’est pas propice au bien-être mental des employés. En effet, un ancien modérateur de Phoenix explique que les employés ont neuf minutes de «temps de bien-être». Ce temps est supposé être utilisé comme période de ressourcement. Or, les employés s’en servent pour se rendre aux toilettes peu nombreuses où se créent de longues files pendant les pauses. De plus, une ancienne employée affirme que le site de l’entreprise à Tampa était insalubre.

Les modérateurs doivent aussi évaluer jusqu’à 400 publications par jour et parfois regarder entre 15 et 30 secondes de chaque vidéo. Mais il y a peu de support psychologique pour les aider à faire face aux contenus troublants. Effectivement, les quelques conseillers sur place n’ont pas une méthode d’intervention proactive. Il n’y a pas de consultation obligatoire; les employés doivent en faire la demande pour y avoir accès.

The Verge. (2019) « Inside the traumatic life of a Facebook moderator »

Des images marquantes dans la modération de contenu

Le travail de modérateur peut avoir des conséquences néfastes sur la santé mentale. Plusieurs font face à des contenus déplacés voire même choquants. C’est le cas d’une des modératrices engagée par l’équipe Cognizant en Arizona. Le visionnement d’une vidéo troublante a depuis eu des répercussions sur sa santé mentale. Même après plusieurs mois, Chloe vit toujours des symptômes tels que des crises de panique.

Tout comme elle, plusieurs modérateurs font face à des symptômes post-traumatiques, certains plus majeurs que d’autres. Plusieurs répercussions telles que le manque de sommeil, des cauchemars, des crises de panique, la dépression et même la paranoïa peuvent se développer chez ces employés. Certains doivent même consulter des psychologues afin de les aider.

Afin d’améliorer le bien-être de ses modérateurs, l’équipe de Facebook tente de trouver de nouvelles alternatives. En effet, l’entreprise met présentement au point une équipe chargée d’améliorer le bien-être de ses employés. Chris Harrisson, chef de cette équipe, a affirmé qu’un programme de bien-être sera disponible pour les employés dès leur embauche.

Depression Vectors by Vecteezy

Et Facebook, dans tout ça?

Selon Mark Zuckerberg, CEO de Facebook, les témoignages d’anciens employés recueillis par The Verge seraient « un peu trop dramatiques ». En effet, les contenus à modérer seraient la plupart du temps très banals à son avis. Toutefois, il pense qu’il est important d’offrir un meilleur soutien psychologique et de meilleures conditions de travail aux modérateurs de contenu.

Il faut dire qu’il est plutôt complexe de superviser toutes les firmes de modération de contenu avec lesquelles Facebook travaille à l’international. C’est d’ailleurs le rôle d’Arun Chandra chez ce géant du web. Il souhaite mettre de nouvelles mesures en place. Entre autres, on compte la création d’un programme de conformité pour ces partenaires, la tenue annuelle d’un sommet avec eux et davantage de visites surprise aux sites de modération de contenu.

Pourquoi des visites surprises? Selon un employé d’une de ces firmes en Floride, le bureau était nettoyé rigoureusement et décoré seulement lorsque les représentants de Facebook et les journalistes venaient le visiter. Une vraie mascarade. La responsabilité des conditions de travail des modérateurs de contenu repose donc aussi en grande partie sur ces firmes engagées par Facebook.

Une chose est certaine, on ne peut pas se passer de modérateurs de contenu humains avec la technologie d’aujourd’hui. La priorité serait donc de minimiser l’impact psychologique des contenus sur les modérateurs et de leur offrir un meilleur support, selon Zuckerberg. Étrangement, la modération de contenu vise entre autres à protéger les utilisateurs de choses qu’ils ne voudraient pas voir, mais ce sont d’autres personnes qui en payent le prix.


Image principale: all-free-download.com

Laisser un commentaire

Votre adresse courriel ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Facebook
Twitter
LinkedIn