L'un des partenaires de Facebook dans la modération de contenus, Cognizant, a décidé de mettre fin à ses contrats dans le domaine, a confirmé jeudi un porte-parole du groupe spécialisé dans les services aux entreprises (conseil et informatique).

"Nous avons établi que certaines de nos activités dans les contenus (...) n'étaient pas alignées avec notre vision stratégique et nous avons l'intention de les arrêter progressivement", a déclaré la firme.

Le travail mené dans ce domaine consistait à "déterminer si certains contenus enfreignent les règles des clients ou contiennent des éléments répréhensibles", a ajouté l'entreprise.

Cognizant n'a pas confirmé ses liens avec Facebook ni détaillé ses raisons, mais l'information a été initialement révélée par le site spécialisé The Verge, qui a publié en février et juin dernier des articles sur les conditions de travail des employés de cette entreprise qui s'occupaient de filtrer les publications des utilisateurs de grandes plateformes comme Facebook, Google (YouTube) et Twitter.

"Les modérateurs du site de Phoenix (Arizona) ont expliqué souffrir du syndrome de stress post-traumatique à force de subir une avalanche quotidienne d'images violentes et perturbantes. D'autres ont dit avoir adopté des points de vue radicaux après avoir visionné régulièrement des vidéos prônant des théories du complot", rapporte The Verge.

Sur le site de Tampa (Floride), les employés ont décrit des bureaux "sales" et signalé des cas de harcèlement sexuel, d'après le média.

"Nous respectons la décision de Cognizant (...). Leurs modérateurs ont joué un rôle inestimable pour assurer la sécurité de nos plateformes", a réagi Arun Chandra, président des opérations chez Facebook.

Le géant des réseaux sociaux a indiqué que le travail sur les sites de Tampa et de Phoenix serait affecté, mais continuerait jusqu'au 1er mars 2020, et que les deux entreprises travaillaient à une "transition fluide".

"Cognizant représente un petit pourcentage des efforts internationaux de modération de Facebook, qui ont lieu 24 heures sur 24, dans plus de 50 langues", a précisé Arun Chandra.

La plateforme aux 2,4 milliards d'utilisateurs mensuels va augmenter le nombre de modérateurs dans un autre centre texan, dirigé par un autre partenaire.

"L'une des raisons pour lesquelles nous travaillons avec des partenaires différents est de pouvoir faire des ajustements rapides pour que Facebook soit toujours sûr pour ses utilisateurs", a expliqué Arun Chandra.

Les activités de modération de contenus pour les grandes plateformes ont explosé depuis mars 2018, quand un scandale de fuite massive de données et de campagnes de désinformation a été révélé.

Mark Zuckerberg, le patron de Facebook, a indiqué mercredi que plus de 35.000 personnes étaient chargées d'assurer la sécurité de ses réseaux.