Stop à l’anarchie sur les réseaux sociaux?
Depuis le Brexit et l’élection de Trump, nous serions dans l’ère de la "post-vérité". Des moyens existent pour lutter contre les simplifications et désinformations, dangereuses pour le débat démocratique. Mais cela-ne reviendrait-il pas à laisser Facebook et Google contrôler la réalité?
Publié le 29-11-2016 à 12h14 - Mis à jour le 27-10-2017 à 16h18
:focal(465x240:475x230)/cloudfront-eu-central-1.images.arcpublishing.com/ipmgroup/ONZAMF77C5A7FN4QFWSKXNA5SQ.jpg)
Depuis le Brexit et l’élection de Trump, nous serions dans l’ère de la "post-vérité". Des moyens existent pour lutter contre les simplifications et désinformations, dangereuses pour le débat démocratique. Mais, pour certains, cela reviendrait à laisser Facebook et Google contrôler la réalité.
Oui
Guillaume Chevillon, économètre statisticien, professeur à l'ESSEC Business School.
" Les réseaux sociaux, via leurs algorithmes, nous ciblent et ne nous font parvenir que les informations qui nous conforteront dans nos opinions. Des moyens existent pour contrer cette simplification et désinformation. "
Facebook, Twitter ou Instagram ont diffusé des campagnes de désinformation et de calomnie qui ont abouti au Brexit ou à l’élection de Trump. Une partie de l’électorat - de la" digicraty" - ne ferait pas de différence entre des mensonges et des faits. Comment expliquer ce phénomène ?
A cause notamment des algorithmes de recommandation des médias sociaux. Depuis quelques années, les réseaux sociaux qui privilégiaient les partages entre amis sont devenus des diffuseurs d’informations. Tous les journaux et médias du monde entier passent par Facebook, Twitter ou Instagram qui influencent ce qui va être diffusé. Un marchand de journaux qui a l’obligation d’offrir tous les magazines édités dans le pays va, faute de place, mettre en avant certains médias et en cacher d’autres. Les médias sociaux également via les algorithmes de recommandation qui se réfèrent à notre propre historique et comportement en ligne. Au lieu de nous exposer à une diversité d’information et de nous permettre de choisir de manière consciente, ces algorithmes nous classent dans un groupe d’individus aux goûts similaires, au gré de "si vous avez lu ça, on vous conseille ceci". Le but d’un algorithme n’est pas de nous tromper mais, à court terme, de susciter le plus de clics, de réactions et de partages. Et les informations diffusées deviennent de plus en plus spécialisées. Ce phénomène de polarisation nous amène à ne recevoir que ce qui nous renforce dans nos opinions. A côté, les informations reçues via les médias sociaux pèchent par absence de hiérarchisation et, donc, d’évaluation de la qualité de leur contenu. Les articles écrits par les journalistes les mieux informés se retrouvent au même niveau que ceux des blogueurs les moins crédibles. Les rumeurs, idées simplistes ou fallacieuses se répandent plus facilement.
Devrait-on réglementer les réseaux sociaux ?
A quel titre ? Pas au vu de leur vocation de mise en relation des utilisateurs et de partage. Au titre de diffuseur d’informations, sans doute. Les lois réglementant la presse existent mais les réseaux sociaux - ou plutôt les diffuseurs "algorithmiques" d’information - continuent de faire ce qu’ils veulent.
N’existe-t-il pas d’autres moyens pour lutter contre la simplification et la désinformation ?
Oui. La polarisation des médias américains et l’émergence de chaînes de télévision ultra-partisanes (Fox News ou MSNBC) ont été rendues possibles parce que la Commission fédérale des communications dirigée par un proche de Ronald Reagan a aboli, en août 1987, "la doctrine d’impartialité des diffuseurs". Mis en place en 1949, ce principe imposait aux médias de traiter les sujets d’actualité importante avec des arguments "pour" et "contre". Il serait facile d’imposer un tel principe de diversification aux algorithmes des médias sociaux. Toutefois, un problème persistera : l’absence d’analyse critique et la polarisation d’opinions fortes de part et d’autre, sans débat. Or c’est là que le populisme peut se cacher. Le débat, c’est l’interaction, la capacité d’argumenter, de déconstruire le point de vue de l’autre et de convaincre. Le risque est de n’avoir que des réactions.
On pourrait donc modifier les algorithmes pour rehausser la qualité de l’information ?
Pour contrer le nivellement de l’information et introduire la qualité des sources dans les algorithmes, il serait possible d’instaurer un classement relativement objectif des journaux, à l’exemple du système des revues académiques. La hiérarchisation y est fonction des citations réciproques. Quelles seraient, non pas les revues mais ici les médias sociaux les plus cités - les plus jugés de haute qualité - par d’autres ? Mais des biais existent. Actuellement, par exemple, des blogs d’extrême droite se citent les uns les autres, sans diversification. Une telle hiérarchisation dans les recommandations algorithmiques atténuerait l’information racoleuse au contenu médiocre (destinée à faire le buzz) et enrichirait la qualité du débat. Ces classements sont faciles à mettre en œuvre avec même la possibilité d’exclure des sources/médias isolés qui fonctionneraient en vase clos. Pour lutter contre ce ciblage toujours plus pointu qui ne nous fait parvenir que les informations qui nous confortent dans nos propres opinions, il nous faut brasser l’information, rendre du aléatoire, donner du hasard et la possibilité de rencontrer des opinions autres que celles recommandées par les algorithmes.
Non
Lionel Dricot, blogueur et futurologue.
" Pas question de réglementer les réseaux sociaux. Il vaut mieux que nous soyons confrontés à des informations contradictoires, des nouvelles qui contredisent nos croyances… jusqu’à acquérir un esprit critique. "
Dans votre billet intitulé "Obéir, lire, écrire : les trois grands apprentissages de l’humain", vous écrivez que si Facebook et Google traitaient différemment les canulars et les vraies infos, ce serait une véritable catastrophe. Pourquoi cela ?
En leur demandant explicitement de traiter différemment les "fake news" et les "real news", nous donnerions à Facebook et Google le pouvoir de contrôler ce qui est vrai et ce qui ne l’est pas, nous leur demanderions de contrôler la réalité. Or ce serait une véritable catastrophe, parce qu’au contraire, il vaut mieux que nous soyons sans cesse confrontés à des informations contradictoires, à des nouvelles qui contredisent nos croyances, à des réflexions qui démontent nos convictions. Pour moi, un site comme "Le Gorafi" (NdlR : un site d’information parodique) remplit un rôle éducationnel : on se fait avoir une fois, deux fois, trois fois par leurs canulars… et puis, enfin, on comprend, on finit par acquérir de bons réflexes de lecture ainsi qu’un esprit critique…
Au contraire, les algorithmes des réseaux sociaux ne nous enferment-ils pas dans les opinions qui correspondent à ce que nous avons déjà lu ?
Concernant ce point, la réponse de Mark Zuckerberg, fondateur de Facebook, est assez intéressante : l’influence des algorithmes est assez faible, ce qui joue, c’est que nous-même sommes enclins à cliquer sur des liens d’articles dont les titres confortent notre pensée. Et donc, cette "bulle", c’est nous-même qui la construisons.
Et j’imagine que vous en appelez à nouveau à l’esprit critique pour faire éclater cette bulle ?
Exactement. Ainsi nous finirons par comprendre que Facebook - et les réseaux sociaux en général - constitue avant tout un espace de discussion. Pourquoi ne pas entrer en contact avec cette connaissance qui défend Trump et cette autre qui s’apprête à voter pour un parti d’extrême droite, afin d’entendre leurs arguments ? Une telle démarche serait sans doute riche d’enseignements.
En attendant, les fausses infos ont déjà influencé les votes en faveur du Brexit et de l’élection de Trump. Peut-on continuer d’attendre, tranquillement, comme vous le suggérez, qu’émerge un esprit critique ?
Je pense que nous n’avons pas le choix. Les médias traditionnels, à qui nous avions jusqu’alors légué le pouvoir de nous informer, ont façonné une réalité unique. Et, désormais, cette dernière vole en éclats, les réseaux sociaux laissant apparaître de nombreuses contradictions. Au point qu’aujourd’hui, une partie du public pense que tout est faux, et qu’il lui appartient de croire ce qui lui convient le mieux. Reste qu’Internet est un outil formidable. Il faut laisser à l’humanité le temps d’apprendre à s’en servir pour développer son esprit critique. Ce qui, en fait, ne consiste pas tant à remettre en question ce que l’on nous raconte qu’éprouver ce que l’on croit.
Vous semblez opposer les médias traditionnels et les réseaux sociaux, comme si les premiers étaient manipulés et les seconds complètement innocents. Ne répondent-ils pas à une même logique économique ?
C’est vrai que les médias traditionnels et les réseaux sociaux cherchent tous à tirer des revenus de la publicité. Ce qui influence sans aucun doute l’organisation de l’information des uns et des autres. C’est également problématique que Facebook accorde davantage d’audience aux gens qui paient pour mettre leur contenu en avant. Je dirais dès lors que les réseaux sociaux héritent des mêmes défauts que les médias traditionnels. Avec ceci qui fait toute la différence : sur les réseaux sociaux, on peut échanger des liens, on peut remettre l’info en question. Elle devient co-construite par les différents utilisateurs.
Vous semblez oublier une autre différence, de taille, les médias traditionnels, eux, sont soumis à une responsabilité éditoriale…
Oui mais cette responsabilité éditoriale appartient à un groupe de personnes restreint. Et on ne sait pas toujours quand ses intérêts économiques influencent ses choix éditoriaux.
La dictature de Big Mother, pas Brother !
Philippe Vion-Dury , auteur de "La nouvelle servitude volontaire" (éditions Fyp) : " ‘1984’ ne peut pas être invoqué pour analyser le ‘projet politique de la Silicon Valley’ car, dans l’univers orwellien, tout est interdit. Notre monde est plutôt placé sous le signe d’un contrôle ‘permissif’, résumé par cette superbe expression de Clouscard : tout est permis, mais rien n’est possible. "
Dominique Cardon , auteur de "A quoi rêvent les algorithmes" (éditions du Seuil) : " La nouvelle gouvernementalité algorithmique […] ne se laisse pas facilement décrire dans le vocabulaire disciplinaire de la censure ou de l’enfermement. Elle installe plutôt un environnement qui guide sans obliger […]. Si les personnes ont des comportements monotones, si elles ont des amis qui ont tous les mêmes idées et les mêmes goûts, si elles suivent toujours le même trajet, alors les calculateurs les enferment dans leur régularité. Si l’internaute n’écoute que Beyoncé, il n’aura que Beyoncé ! Si, en revanche, il montre des comportements plus divers, suit des chemins inattendus, a des réseaux sociaux hétérogènes, alors les algorithmes vont élargir les choix et, parfois, faire découvrir des horizons nouveaux. En calculant nos traces, les algorithmes reproduisent en fait les inégalités de ressources entre les individus. "
L'effet "œuf et poule"
Dans un billet posté récemment sur son blog, François-Bernard Huygues, spécialiste français de l’information, détaille les effets pervers d’une éventuelle régulation des réseaux sociaux. Parmi ceux-ci, un effet “œuf et poule”. “ Les populistes croient-ils ce qu’ils croient parce qu’ils sont exposés aux contenus des réseaux sociaux ou parce qu’ils vont chercher une vérité alternative ? ” interroge le blogueur, avant de citer une étude de l’Université de Michigan sur l’exposition aux opinions, qui tend à montrer que l’hypothèse du récepteur passif s’enfonçant dans sa bulle informative est pour le moins discutable.