L’Europe impose “un changement culturel majeur” aux géants du net
Entretien avec Alexandre de Streel, directeur académique au Centre on Regulation in Europe et professeur de droit européen à l’Université de Namur.
/s3.amazonaws.com/arc-authors/ipmgroup/78864890-ba79-405f-8d57-4f32d2b014b6.png)
- Publié le 24-08-2023 à 11h40
:focal(3355x2245:3365x2235)/cloudfront-eu-central-1.images.arcpublishing.com/ipmgroup/ITRL4XDSRJCURLLSE4MJOBOSRQ.jpg)
Ça y est. La législation européenne sur les services numériques (connue sous son acronyme anglais DSA, de Digital Services Act) s’imposera à partir de ce vendredi aux 19 grandes plateformes dont Google, Facebook, X (ex-Twitter), TikTok ou Amazon. Ces géants du web ont en effet jusqu'au 25 août pour se mettre en conformité avec les règles fixées par l’Union européenne pour s’attaquer à la zone de non droit qu’était Internet et y lutter contre les contenus illicites, définis comme tels dans les lois nationales ou européennes. Objectif : rendre illégal en ligne ce qui l’est déjà hors ligne.
”C’est un changement culturel majeur puisqu’avant ces plateformes étaient plutôt dans un monde dérégulé”, souligne Alexandre de Streel, directeur académique au Centre on Regulation in Europe et professeur de droit européen à l’Université de Namur. D’ailleurs, le DSA prévoit de lourdes amendes en cas non respect des règles.
Quelles nouvelles obligations s’appliqueront aux réseaux sociaux ?
Ils devront mieux repérer s’il y a des contenus illégaux. Et s’ils les repèrent, ils doivent les enlever. Ils doivent aussi être plus transparents sur la manière dont ils modèrent le contenu. Un des problèmes, c’est justement qu’on ne connaît pas très bien comment fonctionnent ces sites (et leurs algorithmes, NdlR). L’idée du DSA, c’est donc d’ouvrir cette boîte noire des Big Tech. La troisième chose, c’est qu’ils doivent faire des analyses annuelles des risques systémiques que posent leurs produits pour les droits fondamentaux– c’est ce premier devoir qui doit être rendu vendredi. Et ils devront agir pour diminuer ces risques.
Ces obligations s’appliqueront à partir de février 2024 aussi aux petites plateformes.
En quoi est-ce que cela change la donne ? Après tout, on peut déjà signaler du contenu sur les réseaux sociaux…
C’est vrai, les plateformes font quand même de l’auto-modération. Car si une plateforme n’a que du contenu illégal, elle ne sera pas intéressante. Mais ce qui change ici, c’est qu’on renforce considérablement les règles, on facilite la possibilité pour les utilisateurs de dénoncer un contenu illégal et on crée une obligation dans le chef des grandes plateformes de retirer ce qui leur a été signalé. Ce qui était avant un peu volontaire et soft, on le rend obligatoire et hard.
Cela veut-il dire que l’approche plus soft, qui en appelle aux engagements et à la bonne volonté de ces géants numériques a montré ses limites ? C’est ce modèle qui a été privilégié par l’UE pour les encourager à s’attaquer à la désinformation en ligne.
Le Code de bonnes pratiques sur la désinformation reste en soi d’application. Le DSA ne s’occupe que des contenus clairement illégaux, promouvant le terrorisme, les contenus pédopornographiques, le racisme, etc. Les fake news, c’est parfois du contenu illégal, mais parfois aussi du contenu légal, bien que dommageable. Cela dit, c’est vrai que le DSA montre un peu l’échec de la logique d’autorégulation. Cela marche rarement...
Pourquoi est-ce plus compliqué de s’attaquer aux contenus illégaux sur Internet ?
Déjà, la massification du contenu en ligne rend le repérage plus compliqué. Ensuite, ces plateformes ne sont souvent pas établies en Europe. Donc parfois, elles échappaient à la juridiction européenne. Surtout, elles sont souvent américaines et ont donc une culture différente du free speech. Aux États-Unis, il y a plusieurs droits fondamentaux, mais il y a un droit fondamental qui est plus fondamental que les autres : la liberté d’expression. En Europe, on a plus une culture de l’équilibre entre les droits fondamentaux, avec la liberté d’expression, mais aussi le respect de la vie privée, l’interdiction des propos racistes ou xénophobes, etc.
Quels sont les risques de cette législation, qui soulève des inquiétudes notamment quant au respect de la liberté d’expression ?
D’un côté, on voulait diminuer le contenu illégal, mais d’un autre on ne voulait pas augmenter la censure privée. L’équilibre trouvé est le bon. Car les plateformes ne doivent pas, ne peuvent même pas faire un screening systématique du contenu. Mais par contre, si des utilisateurs leur indiquent qu’il y a un contenu illégal, elles doivent le retirer rapidement, tout en prévenant l’auteur, qui a la possibilité de contester cela. En quelque sorte on organise une procédure.
Est-ce que le DSA peut avoir un impact économique pour les GAFAM (Google, Apple, Facebook, Amazon, Microsoft)?
Il ne faut pas non plus exagérer la portée de cette législation. Le DSA n’est pas là pour changer complètement le business model des plateformes. On n’interdit pas, par exemple, la publicité en ligne, les systèmes de ciblage et de recommandations. L’idée est d’éviter les excès. À terme, les GAFAM vont évoluer au niveau réglementaire, comme les banques. C’est-à-dire qu’elles vont être très fortement régulées, et donc dotées de services et d’experts de mise en conformité (avec les lois).
Aurait-il fallu, justement, s’attaquer plus frontalement au fonctionnement de ces plateformes ?
C’est vrai que ce sont la publicité en ligne et les techniques de profilage qui peuvent encourager les plateformes à chercher votre attention et donc à promouvoir du contenu, pas nécessairement illégal, mais en tout cas addictif. Mais justement, avec ces rapports d’analyse des risques, on va mieux comprendre quel est l’impact de ce business model sur la démocratie et la santé mentale des gens. On pourra alors sans doute aller plus loin. Il faut aussi voir le DSA comme une sorte de première étape.
Pensez-vous que l’Union inspirera d’autres pays avec cette législation ?
Grâce à la transparence qu’elle exige, les Européens mais aussi le reste du monde vont pouvoir enfin voir ce qui se passe à l’intérieur de ces plateformes. Donc je m’attends à ce qu’il y ait certaines actions aux États-Unis – même au niveau des États américains – mais aussi au-delà, en Asie, en Corée du Sud, au Japon, en Australie, au Canada ou au Brésil, dans ces qui regardent ce qu’on fait et qui pourraient avoir des lois similaires.