Digital

Le patron fondateur de Facebook Mark Zuckerberg se trouvait jeudi au centre d'une polémique après avoir annoncé que le réseau social n'allait pas censurer les messages niant l'existence de l'Holocauste.

Dans un entretien accordé mercredi au site spécialisé Recode, il a indiqué que Facebook allait supprimer certaines "fausses nouvelles" (fake news) susceptibles de déboucher sur des actes violents, tout en soulignant qu'il ne comptait pas censurer des propos qui auraient été tenus, selon lui, "sincèrement".

"Je suis juif et il y a des personnes qui nient l'existence de l'Holocauste. Je trouve cela très choquant. Mais au bout du compte, je ne crois pas que notre plateforme doive supprimer ce genre de propos parce que je pense qu'il y a des choses sur lesquelles certaines personnes se trompent".

Face à la vague de critiques, Mark Zuckerberg a ensuite fait parvenir un email à Recode pour clarifier ses déclarations.

"Bien sûr, si un message franchissait la ligne rouge prônant la violence ou la haine à l'encontre d'un groupe en particulier, il serait retiré", a-t-il écrit.

Depuis plusieurs semaines, Facebook est fortement critiqué pour laisser se propager des articles, des images ou des vidéos qui, sans contenir d'appel direct à la haine, peuvent être perçus comme un encouragement aux actions violentes.

Le réseau social avait été accusé de laisser se propager des rumeurs à l'origine de heurts, tout particulièrement en Birmanie et au Sri Lanka.

Au Sri Lanka, les autorités avaient même en avril bloqué l'accès au site, estimant que celui-ci encourageait les violences interreligieuses.

Peu avant la polémique, Facebook avait annoncé retirer les fausses informations postées sur le réseau et susceptibles de créer des violences de façon imminente.

"Nous commençons à mettre en oeuvre cette nouvelle politique dans des pays où nous voyons des exemples où la désinformation a (...) entraîné des violences", avait indiqué Tessa Lyons chez Facebook, citant le cas du Sri Lanka.

Par exemple, le réseau social pourra retirer des contenus inexacts ou trompeurs, comme des photos truquées, créées ou partagés pour contribuer à la violence physique ou l'exacerber.

Facebook s'appuiera sur des organisations locales ou des agences spécialisées pour déterminer si ces publications sont susceptibles d'entraîner des violences de façon imminente et donc devant être retirées.