L'Onu appelle à un moratoire sur la reconnaissance faciale et d'autres systèmes d'IA

Belga

L'Onu a appelé mercredi à imposer un moratoire sur certains systèmes d'intelligence artificielle comme la reconnaissance faciale, le temps de mettre en place des garde-fous pour protéger les droits humains. "Les technologies d'intelligence artificielle peuvent avoir des effets négatifs, voire catastrophiques s'ils sont utilisés sans prendre en compte suffisamment la manière dont ils affectent les droits humains", a déclaré Michelle Bachelet, la Haute-commissaire des droits humains de l'Onu.

L'Onu appelle à un moratoire sur la reconnaissance faciale et d'autres systèmes d'IA

Elle a appelé à faire une évaluation des risques que présentent différents systèmes qui s'appuient sur l'intelligence artificielle pour le droit à la vie privée ou encore la liberté de circulation et d'expression et ensuite de bannir, ou du moins de règlementer fortement, celles qui présentent les plus grands dangers. Mais en attendant que ces évaluations puissent être menées à bien, "les États devraient imposer un moratoire sur les technologies qui présentent potentiellement un grand risque", a souligné l'ancienne présidente chilienne, lors de la présentation d'un nouveau rapport de ses services consacré à ce sujet. Ce rapport, qui avait été demandé par le Conseil des droits humains - la plus haute instance de l'Onu dans ce domaine - s'est penché sur la manière dont ces technologies ont souvent été mises en place sans que la façon dont elles fonctionnent ou leur impact n'ait été correctement évalué. Les dysfonctionnements de l'IA ont empêché des gens de toucher des aides sociales, de trouver un emploi ou encore ont mené à des arrestations d'innocents sur la base de systèmes de reconnaissance faciale mal entraînés et incapables de reconnaître correctement des personnes aux traits physiques africains par exemple. "Le risque de discrimination lié à des décisions basées sur l'intelligence artificielle - des décisions qui peuvent changer, stigmatiser ou nuire à une vie humaine - n'est que trop réel", a insisté Mme Bachelet. Le rapport a souligné que ces intelligences artificielles sont entraînées avec l'aide d'énormes bases de données, dont la constitution se fait souvent de manière opaque. Ces bases de données elles-mêmes peuvent être mal faites, dépassées et donc contribuer à des violations des droits humains. La reconnaissance faciale en temps réel et à distance est ainsi de plus en plus utilisée dans le monde entier, ce qui peut mener à une localisation permanente des gens. "Nous ne pouvons pas nous permettre de continuer à tenter de rattraper le train en marche en ce qui concerne l'AI et permettre qu'elle soit utilisée sans contrôle ou presque et à réparer les conséquences sur les droits humains après-coup", a insisté la Haute-commissaire, même si elle reconnaît que "le pouvoir de servir les gens de l'IA est indéniable". "Mais il en va de même de l'habilité de l'IA à nourrir les violations des droits humains à une échelle gigantesque et de façon quasi invisible", a-t-elle mis en garde. (Belga)

© 2021 Belga. Tous droits de reproduction et de représentation réservés. Toutes les informations reproduites dans cette rubrique (dépêches, photos, logos) sont protégées par des droits de propriété intellectuelle détenus par Belga. Par conséquent, aucune de ces informations ne peut être reproduite, modifiée, rediffusée, traduite, exploitée commercialement ou réutilisée de quelque manière que ce soit sans l'accord préalable écrit de Belga.