La gestion d’un réseau social de plus de deux milliards d’utilisateurs n’est pas une mince affaire. Encore plus lorsqu’il s’agit des règles éthiques de publication à respecter. Mais au final, notre connaissance sur cette juridiction reste très floue. Dans une enquête publiée le 19 mai, le quotidien britannique The Guardian dévoile une partie des secrets de Facebook en révélant certains dessous des règles de modération utilisée par la plateforme, notamment s’agissant de cas extrêmes comme les discours de haine, la pornographie, la violence, le terrorisme, le racisme ou l’auto-mutilation. Les règles apparaissent très imprécises. Facebook est souvent sous le feu des critiques en Europe et aux États-Unis pour sa politique de modération. Le réseau compte environ 4 500 modérateurs et près de 3 000 nouvelles personnes devraient être embauchées pour faire face au volume croissant de contenu publié. Les modérateurs, qui doivent connaître sur le bout des doigts leurs fiches pourvues d’exemples précis, ont en règle générale 10 secondes pour prendre une décision : c’est-à-dire savoir si tel ou tel contenu est publiable ou pas, ce qui rend la tâche très complexe. Tellement qu’elle aboutit parfois à des absurdités. Par exemple, un commentaire appelant au meurtre de Donald Trump doit être supprimé, car le Président fait partie d’une catégorie protégée. En revanche, les commentaires incitant à la violence vis-à-vis de trop vastes catégories de personnes comme « les roux » ou « les enfants en surpoids » ne sont pas considérées comme des menaces crédibles. Pourquoi ne pas tout supprimer alors ? Facebook a également été vivement critiqué pour avoir mis du temps à supprimer des vidéos de meurtres. L’Américain Robert Godwin avait pu filmer en direct, à cause du Facebook Live, l’assassinat d’un vieil homme dans les rues de Cleveland en avril dernier. Néanmoins, l’entreprise de Mark Zuckerberg ne considère pas que ce genre de contenus doit être obligatoirement censuré selon ces documents, car elles peuvent « éveiller les consciences sur les conséquences des maladies mentales ». Qui plus est, Facebook a autorisé la diffusion des suicides en direct et d’automutilation, « ne voulant pas censurer ou punir les gens en détresse ». Les vidéos sont ensuite supprimées dès lors « qu’il n’y a plus d’occasion d’aider la personne » en question. Certaines photos où donnant à voir des abus physiques non-sexuels sur des enfants ne doivent pas être supprimées à moins d’y apercevoir un élément « sadique » ou de « célébration ». S’agissant des règles de nudité, elles sont floues et variables. La suppression du cliché historique de « La fille de la photo » brûlée au napalm pendant la guerre du Vietnam avait vivement choqué l’opinion publique, bien qu’elle ait été re-publiée par la suite. Sinon, toute œuvre d’art « faite à la main » évoquant, montrant la nudité ou une activité sexuelle est autorisée tandis qu’une production artistique numérique à caractère sexuelle ne l’est pas. Concernant les vidéos d’avortement, elles sont autorisées seulement si le corps nu n’y est pas présent. « Facebook ne peut pas contrôler son contenu. Le réseau social est devenu trop gros, trop rapidement », explique une source anonyme au Guardian. On ne peut qu’approuver et penser qu’on vit dans un monde très sombre, beaucoup trop sombre. Crédits : The Guardian Source : The Guardian