Faut-il faire taire les anti-vaccins par la censure?
Publié le 14-03-2019 à 09h08 - Mis à jour le 14-03-2019 à 14h08
Après quelques semaines de polémique, Facebook a annoncé qu’il allait considérablement réduire la visibilité des contenus s’affichant contre la vaccination. Décision de bon sens pour torpiller des "fake news" ou atteinte à la liberté d’expression et d’opinion ?
Oui pour Jean-François Henrotte, avocat, spécialiste des technologies de l’information et de la communication
En abaissant la visibilité de certains contenus malveillants, Facebook a posé un choix politique. Pour autant que l’adoption d’un tel point de vue reste exceptionnel, empêcher les gens d’avoir des opinions qui pourraient les mettre en danger ne peut pas leur nuire.

L’abaissement de la visibilité de certains contenus, même sulfureux, sur Facebook, constitue-t-il une forme de censure ?
Que ce soit pour contrer les fake news ou satisfaire l’ego ou la manière dont on pense, Facebook filtre déjà les opinions sur ce qui n’est pas des fake news puisque leurs algorithmes présentent ce que vous avez envie de voir. En soi, si je suis de gauche, leurs algorithmes ne présenteront pas facilement les news de droite. Mais ni l’une ni l’autre ne prévaut sur l’autre.
Donc ça ne change rien ?
Facebook va simplement augmenter le nombre de cas où l’algorithme va influencer ce que l’on voit... en ce qui concerne les vaccins, ça ne peut en tout cas pas nuire. Toute la difficulté est de savoir où est le curseur entre ce qui est de la fake news et ce qui ne l’est pas. Vous pouvez très bien estimer que tel ou tel fait est vrai, et un autre pas. Donc Facebook a pris parti : il ne faut plus dire que les vaccins sont inefficaces, qu’ils causent de l’autisme, etc. Maintenant, est-ce que cette politique est efficace ? Oui, car les gens passent leur vie sur les réseaux sociaux, et à travers eux accèdent à l’information. Donc si vous supprimez à 90 % l’écho d’une fake news , cela a forcément un impact.
Invisibiliser certaines pages après qu’elles aient été signalées par des États ou des organisations, n’est-ce pas ouvrir une boîte de Pandore, où tout un chacun serait susceptible d’être signalé en raison de son opinion ?
Facebook a fait un choix politique, mais ils ne sont forcés par personne. C’est la pression du marché, ou des politiciens qui joue. C’est un point de vue, tout commme le fait qu’en Belgique on a décidé qu’on ne pouvait plus nier l’Holocauste : on considère qu’il y a des points de vue qui ne peuvent pas être soutenus. Il n’y a pas mille choses sur lesquelles cela existe, donc tant qu’on reste dans l’exceptionnel, moi je comprends cela : qu’on ne puisse pas nier l’Holocauste, tout comme je comprends que pour les vaccins, le risque de retourner à la peste bubonique est trop important pour laisser des gens avoir des opinions qui vont les mettre en danger.
Le problème, n’est-ce pas la viralité des contenus - y compris malveillants - plutôt que leur fond, par exemple de fausses informations ?
C’est le principe de l’Internet et par répétition des réseaux sociaux. Si on prend l’exemple d’e-réputation, auparavant quand quelqu’un diffusait une fausse information sur vous, par exemple dans un café, le lendemain tout le monde avait tout oublié. L’internet n’oublie pas. Et donc cela démultiplie l’information extrêmement rapidement : chaque fois que quelqu’un la partage, elle est renforcée. Or quand vous voulez la supprimer, il faut le faire partout, mais vous ne pouvez pas aller la rechercher seul. Donc on a besoin d’acteurs comme Facebook, Twitter ou autre pour que cela soit le plus efficace possible. Est-ce que ça peut l’être totalement ? Non. La preuve, des gens effacent des informations de leur profil Twitter parce qu’ils ont dit une bêtise mais dans l’intervalle, quelqu’un a très bien pu faire une copie-écran. Ce n’est pas évident, mais si c’est l’opérateur lui-même qui supprime les informations partout, c’est beaucoup plus efficace que si vous allez en justice et demandez des suppressions sur ce profil-là, ce profil-là, ce profil-là, etc.
Vouloir juguler des "fake news" peut parfois s’avérer… contre-productif
Cela fait des années que l’Organisation mondiale de la santé (OMS) s’inquiète des fausses informations circulant sur la vaccination et tente de mieux communiquer sur le sujet. Et pourtant, même lorsqu’elles luttent concrètement contre les "fake news" ou les approximations, "les réactions des organismes de santé publique peuvent parfois se révéler contreproductives" , peut-on lire dans son bulletin d’information d’octobre 2017. "Dans une étude réalisée sur 1000 participants aux États Unis d’Amérique et publiée dans la revue Vaccine en janvier 2015 , raconte ainsi l’OMS, des chercheurs ont tenté de corriger l’idée reçue selon laquelle on peut contracter la grippe à l’occasion d’une vaccination […]. Lorsque les chercheurs ont présenté aux participants des informations produites par les Centers for Disease Control and Prevention des États-Unis d’Amérique (CDC) et étayées par des preuves, ils sont parvenus à réfuter ces idées fausses. Cependant, à leur insu, ils ont aussi exacerbé l’inquiétude des participants vis-à-vis de la sécurité des vaccins, ce qui les rend moins enclins à s’exprimer ou à emmener leurs enfants se faire vacciner."
Non pour Yannick Châtelin, professeur associé à la Grenoble School of Management, expert du digital.
Attention à l’information "hygiénique", qui évacuerait le débat d’idées du champ politique. La lutte contre les "fake news" ne doit pas servir de caution à une corégulation de la censure que se partageraient les États et des réseaux sociaux tels que Facebook.

En censurant du contenu, même malveillant, Facebook favorise-t-il une information "hygiénique" au détriment du débat d’idées ?
Le terme "hygiénique" a récemment été utilisé par Emmanuel Macron (celui-ci s’exprimait sur une éventuelle levée progressive de toute forme d’anonymat sur Internet, NdlR). Ce terme me fait frémir dans la mesure où cela évoque une pensée "hygiénique". Concernant Facebook, n’oublions pas que c’est une entreprise privée qui s’est déjà illustrée par un révisionnisme culturel : par exemple, L’Origine du monde de Gustave Courbet censurée par l’algorithme. La boîte de Pandore a été ouverte, et oui, les maux de l’humanité vont se mettre à gambader, notamment la notion de délit d’opinion.
Aux États-Unis, la censure des "fake news" des anti-vaccins par Facebook a fait suite à une demande du député américain Adam Schiff. Faut-il craindre que les États essaient d’influencer le fonctionnement des algorithmes des réseaux sociaux ?
Là où c’est très inquiétant, ce n’est pas quand Facebook censure en tant qu’entreprise privée, mais quand la censure est corégulée par des États. Or en France, mais aussi au niveau européen, il va y avoir une corégulation de la censure sur ce qui est censé être des fake news - un terme à la définition floue. Avec, par exemple, du déréférencement, qui est quelque chose qui se pratique quand on est diffamé à mauvais escient.
Concrètement, comment cela opérerait ?
Prenons l’exemple des "gilets jaunes". Il suffira de lier systématiquement le terme "gilets jaunes" à d’autres termes comme "séditieux", "factieux", "subversif" pour orienter proactivement l’algorithme et censurer tout ce qui fera apparaître le hashtag "gilets jaunes".
Le fait que Facebook oriente le contenu auquel on a accès en fonction de nos opinions n’est-il pas responsable de la viralité de certaines publications, notamment quand elles sont polémiques ?
Sur les questions de type polémique, vous allez avoir souvent des activistes qui vont fournir beaucoup plus de contenu pour défendre telle ou telle cause, par exemple le nucléaire, les anti-vaccins, et ce contenu va aller beaucoup plus dans un sens que dans un autre. Ce qui va émerger en termes de référencement va être les contenus qui apparaissent le plus souvent (les plus cités, les plus postés, etc.). D’où la disparition d’une partie raisonnable de contre-discours qui se fait naturellement. Mais cela peut être intentionnel, avec des lobbies ou des gens qui passent leur vie à balancer de l’information qu’ils souhaitent voir aboutir en premier dans les moteurs de recherche. Se pose donc la question de la puissance de diffusion de l’information, qui va noyer toute forme de contre-discours.
Comment le citoyen, à titre individuel, peut-il se prémunir contre les fausses informations dans ce cas ?
D’une part il faut rappeler ce qui existe dans la loi, et ensuite il faut faire de la pédagogie. Aujourd’hui, les citoyens se prennent pour des journalistes. Soit. Combien retweetent une information ou un article sans même avoir pris le temps de le lire ? Donc, que chaque personne se prenant pour un journaliste applique la base de la base pour un journaliste, qui est a minima une double vérification des sources de l’information avant la diffusion. Il y a les sites de fact checking - tels que Hoax Buster - pour ne pas colporter de rumeurs, par exemple sur de faux décès ou maladies.

Concrètement, comment Facebook va "censurer" ?
Facebook n’est pas le seul réseau social à prendre des mesures contre les "fake news" sur la vaccination, puisque Youtube (qui ne versera plus de revenus publicitaires aux vidéos anti-vaccination), mais aussi Amazon (qui a décidé de retirer de sa plateforme les films du même acabit) ont pris des mesures dans ce sens.
Méthode. Mais sur un réseau social, comment différencier une opinion d’une "fake news" malveillante ? Dans un premier temps, Facebook s’appuiera sur une liste des contenus déjà signalés par des organismes comme l’Organisation mondiale de la santé ou les centres américains de contrôle et de prévention des maladies. Ces contenus ne seront pas supprimés, mais Facebook s’appliquera à les rendre moins visibles en les déréférençant, ou en supprimant certaines options de ciblage (par exemple lorsque les auteurs de ces contenus veulent atteindre des personnes intéressées par les "controverses relatives aux vaccins").