Opinions
Une opinion d'Alain Strowel, professeur UCLouvain et USL-B.


Alors qu’entre en vigueur le règlement européen sur la protection des données, une question : peut-on faire confiance aux algorithmes de la technologie intelligente comme gendarme des contenus numériques ?


Comment limiter la diffusion des fake news en ligne ? Que faire face au harcèlement sur les réseaux sociaux ? Est-il possible de lutter contre la propagande terroriste et les appels à la haine ? Mark Zuckerberg a une pilule magique : l’AI (prononcez : "eh aïe"; en français, l’intelligence artificielle ou IA). Si, pendant ses 10 heures d’audition au Congrès américain en avril, le patron de Facebook s’est référé plus de 30 fois à l’IA, au cours de la demi-heure de questionnement par des députés européens, ce 22 mai, il a cité près d’une dizaine de fois l’IA comme la solution à (presque) tous les maux en ligne. Mais, surtout, ne lui demandez pas comment cela va fonctionner…

Une croyance naïve en la technologie

Peut-on faire confiance à la technologie intelligente (déployée par Facebook), alors que c’est l’algorithme de ses fils d’actualité qui a fait remonter de fausses, mais sensationnelles nouvelles (notamment lors de l’élection présidentielle aux Etats-Unis) ? Aujourd’hui, l’algorithme modifié favoriserait davantage les contenus envoyés par des (vrais) amis, reléguant au passage les contenus colportés sur la "place publique" du réseau (et cela ne plaît pas à la presse). Avec l’IA, Facebook sera capable d’automatiquement identifier les contenus dommageables, et de les éliminer. Tout cela, dixit Zuckerberg, au profit du bien-être des membres de Facebook - et, ajoutons : des annonceurs, car leurs publicités ciblées ne seront plus polluées par des messages de mauvais goût.

Et Zuckerberg de se réjouir des promesses des outils automatisés de filtrage. Il révèle ainsi une croyance un peu naïve dans les bienfaits de la technologie, typique de la Silicon Valley.

Encore quelques humains

Pendant ce temps-là, en Chine, il faut s’inquiéter pour les pertes d’emploi dans le métier de la censure en ligne (c’est sérieux : voir le "Financial Times", 23 mai 2018) : les 18 plus grands réseaux sociaux chinois dépensent plus de 2 milliards d’euros par an pour les censeurs-maison qu’ils sont obligés de recruter, mais les filtres plus intelligents basés sur l’apprentissage-machine seraient en passe de "faire le job". Plus efficaces et effacés que les grossiers "ciseaux d’Anastasie".

Facebook engage encore des humains, les fact-checkers, pour vérifier les informations qui circulent, tout spécialement en période électorale, mais l’élimination des spammeurs et faux comptes s’automatise. La main invisible de l’IA, guidée par les exigences du business outre-Atlantique et par l’appareil d’Etat en Chine, s’avance pour faire le tri des contenus en ligne. Comme dans d’autres domaines où l’automatisation fait son chemin (songeons aux voitures autonomes), on peut accepter de déléguer certaines tâches à des outils dits intelligents.

Le RGPD

Qui se plaindra du tarissement des discours de haine sur les réseaux (ou de la diminution des accidents de la route) ? Ceci ne mène pas droit à la mainmise des machines sur l’esprit humain, ce que certains apôtres du malheur aiment prêcher dans les médias. Mais, en matière d’expression, la liberté et l’autonomie sont de mise, et les conditions strictes pour restreindre l’accès aux informations et idées, y compris celles qui choquent et dérangent. Avant de pouvoir accorder confiance aux nouveaux outils, il faut en savoir davantage.

Ce 25 mai entre en vigueur une nouvelle réglementation européenne, le Règlement général sur la protection des données (le RGPD). Rarement un aride règlement aura-t-il autant été annoncé dans les médias. Mark Zuckerberg, mis sous pression par le scandale Cambridge Analytica, nous promet que le standard européen en matière de protection de la vie privée sera adopté par Facebook au niveau mondial. Mais en même temps, Facebook s’organise pour faire échapper des centaines de millions d’usagers à la compétence européenne (liée à son siège européen en Irlande).

Cette adoption du RGPD par une société californienne illustre bien ce que l’on appelle "l’effet Bruxelles" : une exportation de facto d’un modèle régulatoire européen au-delà des frontières.

Quels changements ?

Mais que signifie le RGPD pour nous ici ? A court terme, nous sommes sollicités pour confirmer notre consentement à l’usage de nos données en "cliquant" dans des formulaires. Mais le RGPD offre davantage : il aide les individus à se réapproprier leurs données. D’abord en exigeant des maîtres des données d’être plus responsables dans leurs traitements. On ne badinera plus autant avec les données des autres (car des sanctions avec "des dents" existent désormais). Ensuite, de nouveaux droits sont octroyés, dont celui à la portabilité des données. C’est censé nous donner l’opportunité d’aller voir ailleurs en prenant nos données.

Une menace pour Facebook ? On en est loin. D’autant que nos données sur les réseaux sont aussi celles des autres, et qu’il est donc impossible de prendre ce qui appartient à la communauté. Si les citoyens se mobilisent autour de nouveaux modèles décentralisés de partage de données (on parle de "communs numériques"), les choses pourraient changer. Mais les géants de l’Internet sont aussi à l’affût : on prête ainsi à Facebook l’intention d’offrir à ses usagers un moyen de contrôler leurs données à travers une "blockchain" (cette technologie pourrait aussi permettre de lutter contre les faux comptes).

Transparence et éducation

Cela permettra peut-être de répondre à l’exigence de transparence qu’impose l’usage généralisé de l’IA. De ce côté-là, le RGPD consacre un droit à l’explication des traitements algorithmiques, mais la portée et l’effectivité de ce droit restent à démontrer. Parler de transparence des algorithmes génère aussi de faux espoirs : il n’est sans doute pas possible de saisir l’input-output de systèmes intelligents, qui évoluent et apprennent sans cesse. Par contre, un monitoring des "boîtes noires" doit être mis en place, et cela requiert des collaborations entre ingénieurs, data scientists, juristes, éthiciens, etc.

L’éducation en matière de données est aussi essentielle, et elle passe par soi-même : face à l’infobésité, apprendre à faire des diètes d’informations. Ce n’est pas par la régulation que l’on apprend à bien manger, mais agir sur l’offre des aliments peut aider. Et puis, il faudra des réglementations pour obliger les grandes plateformes de l’Internet à agir dans l’intérêt des citoyens.

C’est l’accaparement de l’IA par le Big Business qui justifie les craintes et nécessite des initiatives des autorités publiques. Alors faisons confiance à l’IA ? Oui, mais pas les yeux bandés. Que l’on explique mieux ce qui s’installe à l’abri des regards. Sinon, le risque d’être guidé par de mauvais GPS de la pensée est grand. Et le chemin emprunté sur les réseaux sociaux risque de cacher la diversité du paysage.

Titre, introduction et intertitres sont de la rédaction. Titre original : "Faites confiance à l’intelligence artificielle, dit Mark Zuckerberg. Et bienvenue au RGPD !"