Une opinion de Gilles Vanden Burre, député fédéral Ecolo et président du groupe de travail "agenda numérique" de la Chambre.

L’intelligence artificielle aura un impact considérable. Pour le meilleur comme le pire.

Les progrès technologiques réalisés autour de l’intelligence artificielle (IA) représentent un enjeu politique majeur car leur application concrète va modifier en profondeur notre société et, potentiellement, permettre le meilleur (améliorer la détection des cancers) comme le pire (mettre en place une société de surveillance massive).

Comme toutes les avancées technologiques qui ont, au cours de l’Histoire, transformé nos comportements, l’IA aura un impact considérable sur toute une série d’aspects déterminants de la collectivité. Les premiers bouleversements se font déjà sentir au niveau du marché de l’emploi avec un nombre toujours croissant de tâches désormais accomplies par des machines et des robots. Un processus qui, s’il n’est pas vraiment neuf, semble aujourd’hui s’accélérer comme nous avons pu malheureusement le constater lors de plusieurs plans sociaux récents qui ont touché le pays (Proximus, ING, ou Carrefour) et ont été justifiés, à tort ou à raison, par la digitalisation. 

À ce sujet, les chercheurs Carl Frey et Michael Osborne de l’Université d’Oxford ont affirmé qu’aux États-Unis, au cours des dix prochaines années, 47 % de tous les emplois seraient menacés par l’automatisation et qu’en parallèle, sur le même laps de temps, la moitié des emplois créés concernerait des fonctions encore inconnues aujourd’hui. Les chiffres sont similaires pour la Belgique et un consensus se dégage donc pour conclure qu’un nombre important d’emplois sera remplacé (ou détruit) par la révolution numérique et l’arrivée progressive de l’IA. Là où les visions divergent, c’est au sujet de la quantité de nouveaux emplois potentiels générés, et de leurs délais de création.

D’autres domaines sont également touchés ou vont l’être très prochainement. C’est le cas du code de la route avec l’arrivée imminente des voitures autonomes "intelligentes" mais aussi d’autres normes légales ou juridiques. En effet, actuellement, des expériences sont déjà menées avec des algorithmes qui rendent des décisions de justice, sur base de la jurisprudence disponible. Va-t-on collectivement accepter que des décisions de justice de paix, par exemple, soient dans quelques années rendues par un logiciel d’IA ? Si oui, jusqu’à quel niveau de complexité et avec quelles procédures d’appel ? 

Les mêmes questions se posent en matière de sécurité publique avec les réseaux de caméras à reconnaissance faciale qui peuvent nous suivre à la trace ou en matière médicale avec la réflexion autour du type de diagnostic que peut fournir un algorithme et ses limites. Par ailleurs, les défis liés à l’évolution de nos démocraties sont tout aussi fondamentaux et il suffit de se rappeler des scandales autour de Facebook et de Cambridge Analytica pour se rendre compte des dangers en lien avec la manipulation de campagnes électorales ou de désinformation en tout genre (les fameuses fake news) afin d’influencer un résultat électoral. Enfin, un impact souvent méconnu de la transition numérique est l’impact environnemental car, que ce soit en terme de consommation énergétique ou d’exploitation des ressources naturelles, en particulier des terres rares, l’empreinte matérielle de cette révolution est en train d’augmenter de manière exponentielle.

Ces considérations montrent bien à quel point l’IA est un outil surpuissant qui peut déboucher sur des résultats tout à fait bénéfiques pour la société voire, au contraire, dévier vers de graves atteintes à nos libertés individuelles. Il est donc primordial d’encadrer, de calibrer et d’orienter les conséquences sociétales de cette technologie afin qu’elle soit conforme au respect de nos données personnelles, de nos libertés, de notre système démocratique ou encore du principe de non-discrimination entre citoyens. Cet objectif essentiel n’est pourtant pas simple à mettre en œuvre pour deux raisons principales. Tout d’abord, les principales réponses politiques doivent venir du niveau européen et y forger des consensus reste compliqué même si la création du règlement général sur la protection des données (RGPD) doit être saluée. Ensuite, les pays en pointe en terme de développement de l’IA, qui seront donc amenés à exporter leur technologie, notamment en Europe, sont les États-Unis et la Chine, avec des standards éthiques éloignés, voire très éloignés, des nôtres.

Tous ces éléments ne peuvent évidemment dédouaner les responsables politiques nationaux de se plonger dans cette thématique, chaque jour plus présente. À cet égard, il est urgent de travailler main dans la main avec le milieu académique et les acteurs de terrain concernés afin de multiplier les formations dans le domaine, de mettre sur pied des centres d’expertise capable d’appréhender ces nouvelles technologies et d’encourager la création d’algorithmes sur base éthique. Ce n’est qu’un premier pas mais il est important si nous ne voulons pas subir, ou nous voir imposer, une IA qui représenterait une menace plutôt qu’une opportunité pour améliorer notre vie en société.