Le 15 mai dernier, Facebook a publié les données relatives à la modération des contenus publiés sur le réseau social. Toutefois, la politique de la société quant au signalement de certaines publications pose question.
Quelle modération ?
Depuis quelques mois, l’image de Facebook a connu quelques désagréments. Soucieux de redorer son blason, le groupe américain vient de se livrer à un exercice de transparence. Comment ? En publiant un document concernant sa politique de modération et en clarifiant publiquement les « standards de la communauté », soient les principaux critères qui régissent le travail de ses modérateurs.
Lors d’un événement organisé à Paris pour l’occasion le 15 mai, Facebook est revenu en détail sur les chiffres de sa modération de contenus. Le rapport en question portait sur une période comprise entre octobre 2017 et mars 2018. L’occasion d’apprendre que le réseau social emploie 7 500 modérateurs pour ces tâches.
Faux comptes
Des modérateurs qui ont supprimé 3,4 millions d’images violentes au premier trimestre 2018. À défaut de suppression, les utilisateurs se sont vus recevoir un avertissement de la part de Facebook. Par ailleurs, ces suppressions ont triplé par rapport au trimestre précédent. Quant aux images mettant en scène de la nudité ou une activité sexuelle, ce sont 21 millions d’images qui ont été supprimées au cours des trois premiers mois de 2018.
En matière de terrorisme, 1,9 million de contenus ont été modérés sur la même période. Une progression de 73 % au regard du dernier trimestre 2017. Facebook explique cette hausse par une amélioration des technologies de détection. Enfin, ce sont les faux comptes et le spam qui, toujours selon le réseau social, occuperaient principalement les modérateurs.
Immigration et traduction
Mais, au-delà des chiffres, Facebook tient également à communiquer sur sa politique de modération. Notamment par l’intermédiaire de la directrice de la politique des contenus sur Facebook, Monika Bickert. Interviewée par RTL, cette dernière insiste sur le fait que la lutte contre la propagande djihadiste est la priorité de la modération du réseau.
Toutefois, le réseau social s’est récemment emmêlé les pinceaux en énonçant des règles qui divergeaient selon leur traduction. Et ce, sur un sujet particulièrement sensible puisqu’il s’agit de la critique des politiques migratoires. Ainsi, si le règlement en langue anglaise de Facebook autorise effectivement cette critique par les utilisateurs sous certaines conditions, ce n’était pas le cas de la version française. Une version qui précisait alors que « nous n’autorisons pas les critiques à l’égard des politiques d’immigrations et les arguments qui consistent à restreindre ces politiques ». Avec à la clé en cas de signalement, la suppression pure et simple du contenu publié par l’auteur.
Informée de cette étrange divergence en fonction de la langue, la société de Mark Zuckerberg a plaidé coupable en invoquant une erreur de traduction qui serait alors corrigée. Un faux pas qui ne remet pas en cause pour autant l’avenir du réseau social. L’avantage d’être en situation de monopole.
Crédit photo : Flickr (CC BY 2.0/mkhmarketing)
[cc] Breizh-info.com, 2018, dépêches libres de copie et de diffusion sous réserve de mention et de lien vers la source d’origine