Et si on réinitialisait les réseaux sociaux en 2019 ?

Contribution externe
Et si on réinitialisait les réseaux sociaux en 2019 ?
©D.R.

Une opinion de Guillaume Chevillon, professeur en économétrie et statitstiques (Essec Business School).

Pour lutter efficacement contre la propagation des "fake news", il faudrait réduire les bulles informationnelles en purgeant le plus régulièrement possible les historiques des utilisateurs.

Tout au long de cette année, Mark Zuckerberg a annoncé progressivement la nouvelle politique de Facebook concernant la mise en avant des informations. Le 13 septembre, il a présenté son approche pour éviter les interférences lors des prochaines élections. Sa politique vise à privilégier les interactions réellement "sociales", entre amis et relations proches, ainsi que les informations locales au détriment des informations génériques provenant de marques, groupes d’influence ou des médias.

Pour Zuckerberg, l’enfermement informationnel et la diffusion de rumeurs sont causés par les comptes pirates, les fake accounts. Afin de lutter contre les fake news, Facebook souhaite renforcer la transparence concernant l’ensemble de publicités diffusées par un annonceur et aussi permettre aux utilisateurs d’indiquer eux-mêmes la confiance qu’ils accordent aux diverses sources. Tous les réseaux sociaux sont confrontés à la difficulté d’inciter leurs utilisateurs à améliorer les contenus et interagir, s’engager plutôt que d’observer passivement. Pour ne pas présenter une politique éditoriale qui les rendrait responsables des contenus, ils souhaitent décentraliser la question du choix et de la hiérarchisation des sources d’information. Ce principe n’amène-t-il pas intrinsèquement à la propagation des rumeurs et au communautarisme informationnel ?

"Vous n’allez pas croire ce qui est arrivé à…"

Une des manières les plus simples de confier aux internautes l’évaluation des informations est d’utiliser un algorithme de recommandation lié à la popularité : c’est le succès de PageRank, l’algorithme historique de Google qui recommande les sites web non en fonction de leur pertinence mais selon le nombre de liens référents. Dans le cas des médias sociaux, ceci génère le phénomène appelé "Man bites dog" (un homme a mordu un chien) selon lequel l’information la plus référencée, et donc partagée, n’est pas nécessairement la plus pertinente mais la plus surprenante (inversant, ici, le plus habituel "Dog bites man", un homme mordu par un chien).

La théorie de l’information de Shannon, utilisée pour quantifier mathématiquement le caractère informatif d’un message, tend d’ailleurs à accorder davantage de valeur à de tels événements a priori moins probables. Les nouveaux médias en ligne se font ainsi connaître via une course aux "news" provocantes ou étonnantes (qui n’a pas vu un titre promettant "vous n’allez pas croire ce qui est arrivé à…" ?) mais finalement peu informatives.

Aussi, dans le contexte de la course aux clics, n’est-il pas garanti que le souhait de renforcer les interactions puisse effectivement éviter le nivellement de l’information sans qu’une réelle politique éditoriale ne soit instaurée.

Diversification de l’information

Les algorithmes de recommandation s’évertuent à nous suggérer ce qui pourra nous paraître le plus intéressant en fonction de nos préférences et intérêts. Pour ce faire, ils s’appuient sur l’historique de nos comportements, partages et lectures, afin de nous comprendre au mieux. Il s’agit alors de prévoir nos comportements futurs. Ces prévisions peuvent toutefois se révéler périlleuses car elles s’appuient sur les informations partielles que notre historique fournit. Ce faisant, elles réduisent la diversité des suggestions et notre exposition à des idées qui nous dérangent : elles peuvent nous enfermer dans une bulle informationnelle.

C’est l’origine des difficultés rencontrées par les réseaux sociaux. La solution intéressante suggérée par Zuckerberg tient à ce que l’utilisateur fournisse une information supplémentaire non observable dans son historique de comportement. L’objectif est de permettre un principe de diversification de l’information afin d’éviter l’enfermement. Pourtant, laisser l’utilisateur classer ses sources demeure sans doute insuffisant pour permettre un réel brassage et une hiérarchie de l’information. En effet, les internautes sont des êtres humains qui réagissent à, et influent sur, leur environnement. La recherche en sciences économiques et sociales sur les dynamiques d’apprentissage a montré le degré d’inertie très fort qu’un tel contexte peut générer : une inertie si forte qu’elle engendre une dynamique très spécifique liée aux célèbres formes "fractales" développées par Benoît Mandelbrot.

Les interactions entre participants peuvent renforcer davantage encore ce phénomène de dépendance au passé, à notre trajectoire personnelle. Les réseaux sociaux existent déjà depuis trop longtemps pour qu’une simple modification des règles de recommandation aboutisse à une réduction satisfaisante des bulles informationnelles : les changements proposés aujourd’hui participent d’ailleurs pleinement de cette interdépendance entre sujet et environnement.

Malheureusement, les algorithmes et habitudes que nous avons développés font partie de nos historiques propres. À ne pas valoriser la qualité intrinsèque de l’information, nous avons créé des supertankers numériques à l’inertie difficilement contrôlable à moins de revoir nos comportements, nos interactions.

Une doctrine d’impartialité

Est-il temps d’envisager une remise à plat, une forme de réinitialisation ? Renforcer la sérendipité ? Quelle forme pourrait-elle prendre et quelles en seraient les conséquences ? À terme, il faudra probablement soumettre les réseaux sociaux à une doctrine d’impartialité. Non pas une impartialité passive mais positive, telle qu’appliquée, jusqu’aux années Reagan, par la Commission fédérale des communications à tous les diffuseurs américains et qui leur imposait de présenter des arguments contrastés pour tous les sujets controversés.

Une première étape dans cette direction est d’empêcher la création de rumeurs ou de bulles informationnelles en réduisant la personnalisation basée sur notre historique. Une réinitialisation régulière et automatique des historiques peut renforcer la sérendipité, les recommandations ou rencontres proposées au hasard, afin d’augmenter la variété des stimuli et permettre de nouvelles découvertes. Ceci ne va pas nécessairement à l’encontre des intérêts d’une industrie vivant de recettes publicitaires : Malcolm Gladwell raconte, dans une des conférences Ted les plus célèbres, comment un tiers des consommateurs américains de sauce tomate ne recevait pas d’offre adéquate car aucune marque n’avait jamais conçu le produit qu’ils auraient préféré sans le savoir eux-mêmes ! Ainsi une offre plus diverse peut-elle relancer l’intérêt des utilisateurs et avoir un impact bénéfique pour le réseau. Nous imposer de reconsidérer régulièrement nos habitudes pour favoriser la variété des découvertes peut nous sortir de notre enfermement et ainsi bénéficier à tous. © Libération

Vous êtes hors-ligne
Connexion rétablie...