Comment l'Union européenne veut rendre l'intelligence artificielle digne de confiance
Libre Eco week-end | La sûreté et la confiance constituent désormais une préoccupation centrale des meilleurs talents internationaux de l’IA.
- Publié le 03-09-2023 à 08h02
:focal(3573x2017:3583x2007)/cloudfront-eu-central-1.images.arcpublishing.com/ipmgroup/ZBICF3FAURB35OCIYP6JDZQ3GA.jpg)
Grâce à des moyens accrus (notamment privés), les États-Unis et la Chine ont acquis une longueur d’avance substantielle en matière de développement économique et technologique de l’intelligence artificielle (IA). L’Europe a ainsi cumulé un retard difficilement rattrapable. Définir un cadre réglementaire européen pour la sûreté et la confiance de l’IA à usage général et favoriser son adoption dans le monde constitue dès lors sa meilleure stratégie de différenciation pour se positionner en acteur clé de l’IA.
De nombreuses organisations nationales et internationales ont déjà proposé des grands principes pour une IA éthique et de confiance, néanmoins sans préciser les attributs spécifiques que ceux-ci impliquent et sans que ces principes ne soient juridiquement contraignants.
Des technologies bannies en Europe
L'Union européenne s'apprête donc à imposer aux systèmes d'IA des exigences de sûreté et de confiance grâce à une réglementation extraterritoriale, couplée à une directive en matière de responsabilité civile, l'EU AI Act , prévoyant notamment de classer les systèmes d'IA selon les risques qu'ils font porter aux droits fondamentaux, de "minime" à "inacceptable". Avec plus ou moins de contraintes, voire un bannissement pour les technologies les plus controversées considérées comme "inacceptables".
Le 14 juin dernier, les députés européens ont adopté leur position de négociation sur l'AI Act en élargissant la liste des technologies qui entrent dans la catégorie des risques "inacceptables", afin de bannir de l'UE une utilisation intrusive et discriminatoire de l'IA. Cela comprend notamment les systèmes de police prédictifs fondés sur le profilage ou encore la reconnaissance biométrique à distance en temps réel dans l'espace public, un sujet sur lequel États membres et députés européens ne sont pas d'accord. Ces derniers souhaitent bannir les technologies utilisant la reconnaissance en temps réel, là où le Conseil invoque la lutte contre le terrorisme pour introduire des exceptions dans cette interdiction. La position du Parlement introduit par ailleurs des mesures concernant les applications d'IA génératives, telles que ChatGPT ou MidJourney, qui se verraient obligées d'apposer un label sur leurs contenus pour indiquer aux utilisateurs qu'ils sont en présence d'un texte ou d'une image créée par une IA. Les députés européens veulent aussi prévenir la génération de contenus illégaux et que soit rendue public l'utilisation de données protégées par le droit d'auteur lorsqu'elles sont utilisées pour l'entraînement des algorithmes.
Les pourparlers ont commencé avec les pays de l’UE au sein du Conseil sur la forme finale de la loi, l’objectif étant de parvenir à un accord d’ici la fin de l’année avec un délai de grâce d’environ deux ans pour permettre aux parties concernées de se conformer à la nouvelle réglementation.