Digital

Utiliser les médias sociaux sans pour autant voir ses données personnelles être collectées est un défi quasi impossible, du moins avec un réseau social comme Facebook, dont le patron, Mark Zuckerberg, a déclaré à plusieurs reprises que la vie privée faisait partie d’un passé qu’il considérait comme révolu. De fait, Facebook a une politique d’accumulation et de rétention des données particulièrement agressive. Et lorsque l’on sait qu’il existe des cas de figure où des données personnelles peuvent être utilisées contre le gré de l’utilisateur sans même qu’elles ne quittent les ordinateurs de la société qui les détient, il y a de quoi s’inquiéter.

Facebook l’a démontré sans équivoque lorsque des chercheurs de son "Core Data Science Team" ont utilisé le réseau social pour mener à très grande échelle une expérience psychologique auprès de quelque 690 000 utilisateurs - à leur insu. Cette expérience portait sur la façon dont Facebook filtre ce qui est affiché pour chacun. En effet, les utilisateurs du service reçoivent plus de contenu (messages, articles, photos, vidéos, publicités,…) qu’ils ne peuvent en consommer.

Pour éviter la saturation des utilisateurs, Facebook n’affiche qu’une partie de ce contenu en utilisant un algorithme qui va faire des choix à la place de l’utilisateur. Cet algorithme est paramétrable : Facebook peut le modifier très simplement pour afficher différents types de contenu en fonction de ce qu’il sait de l’utilisateur, une connaissance obtenue par l’analyse des traces laissées par l’utilisateur lui-même ou par ses "amis". Dans le cadre de cette expérience, les chercheurs de Facebook ont choisi 689 003 personnes et les ont séparées en deux groupes. Au premier groupe, Facebook a surtout montré du contenu positif et joyeux (en retirant les mauvaises nouvelles), et le groupe a réagi en publiant des réactions plus positives que la moyenne. Au second groupe, Facebook a supprimé les messages positifs pour ne conserver que les messages négatifs et tristes. En toute logique, l’humeur des cobayes involontaires du second groupe a été affectée de façon négative. De ce fait, ils ont répondu avec plus de messages négatifs.

Lors de la publication de leurs travaux en juin 2014, les auteurs de ces recherches n’ont probablement pas anticipé une réaction aussi négative que celle qu’ils ont suscitée, l’idée de manipuler les émotions de quelque 690 000 personnes sans les prévenir n’ayant pas vraiment été bien perçue, ni par les cobayes, ni par la presse. Dans ses conditions d’utilisation, Facebook indique clairement que les informations reçues par ses soins sont notamment susceptibles d’être utilisées à des fins de test ou de recherche. Bien que les modalités de ces recherches puissent sans doute être remises en question, la démarche serait donc légale, mais cela ne la rend pas forcément éthique pour autant.