Les artistes de la voix réclament une régulation de l'intelligence artificielle : “le vol des voix nous concerne tous”
Les représentants de l’United Voice Artists sont venus à Bruxelles sensibiliser eurodéputés et membres de la Commission européenne. Cette organisation internationale élargit sa mobilisation aux enjeux éthiques et citoyens de l'utilisation de l'intelligence artificielle.
/s3.amazonaws.com/arc-authors/ipmgroup/dffc4ca2-824b-4571-b0d0-543ddfd99cb2.png)
- Publié le 19-09-2023 à 19h24
- Mis à jour le 21-09-2023 à 10h48
:focal(1995x1338.5:2005x1328.5)/cloudfront-eu-central-1.images.arcpublishing.com/ipmgroup/V6M53Q5MDJB2BMA32NGLA6DBUE.jpg)
”Nous pensons qu’une réglementation gouvernementale [sur l’intelligence artificielle] sera essentielle pour atténuer les risques liés à des modèles de plus en plus puissants.” Celui qui s’exprime est Sam Altman, PDG d’OpenAI (qui a créé ChatGPT). C’était au printemps dernier, devant le Congrès américain. La citation nous est glissée par un membre de l’United Voice Artists (UVA), instance internationale qui fédère une trentaine d’associations nationales d’artistes de la voix, dont la Belgian Voice Artists (Belva) récemment constituée.
Des représentants belges, français, italiens et – même – un Britannique (actif en France) de l’UVA étaient à Bruxelles ce 18 septembre afin de sensibiliser la Commission européenne et les eurodéputés. Le moment est crucial. À Hollywood, le recours aux intelligences artificielles (IA) est une des composantes de la grève qui mobilise depuis plusieurs mois scénaristes et acteurs.
Un projet de loi européenne sur l’IA est en cours de négociation entre le Parlement européen et les États membres. S’il inclut pour l’instant de nombreuses dispositions relatives “au respect des droits fondamentaux des citoyens” (notamment pour encadrer le recours aux IA en matière de surveillance biométrique), il ne précise rien quant à l’exploitation ou la collecte de voix à des fins d’IA générative, s’inquiète l’UVA.
La voix est une donnée biométrique
Le premier message de l’UVA – et le plus important – est martelé et répété tout au long d’une heure d’entretien : le sujet nous concerne tous. “La problématique de l’intelligence artificielle générative est la même pour tous, c’est-à-dire le vol de nos voix, les mixer et en sortir des voix synthétiques, sans rémunération ni traçabilité” explique Stephan Kalb, comédien et producteur de fiction et documentaires (notamment pour France Télévisions et Amazon).
”Votre voix est une donnée biométrique”, renchérit Patrick Kuban, membre fondateur du collectif français Les Voix et co-président de l’UVA. “Elle fait partie de votre identité et peut être utilisée comme signature vocale” avec ce que cela implique comme risque d’utilisation abusive (arnaques ou risque de deep fake).
Un exemple : en 2019, déjà, le Wall Street Journal rapportait que le PDG britannique d’une filiale d’une entreprise a été dupé par un logiciel d’intelligence artificielle imitant la voix de son supérieur. Elle lui demandait d’effectuer en urgence un versement de 220 000 euros.
Un “fake” en cinq minutes
À titre de démonstration, les représentants de l’UVA ont produit devant leurs interlocuteurs européens une fausse déclaration de Thierry Breton, commissaire européen chargé du Marché intérieur, “réalisée en cinq minutes sur un logiciel”. “On peut prendre la vidéo de n’importe qui sur les réseaux sociaux ou de vos enfants sur TikTok et produire un fake en quelques minutes”, pointe Stephan Kalb. Voilà pour le versant frauduleux.
Mais même ce qui paraît légal est sujet à caution. Des entreprises de la tech, que ce soient des géants ou des start-up, opèrent déjà de la collecte de données (data mining) pour nourrir les IA. Nous y souscrivons en acceptant (souvent sans les lire) les conditions d’utilisation de logiciels ou applications. Nos voix font, par exemple, partie des données que nous acceptons de partager à des fins “d’amélioration des logiciels”.
Légal et consentant, donc, mais “se pose la question éthique de ce qu’il en est fait”, souligne Stephan Kalb. Les artistes de la voix savent que, “depuis des années”, la leur alimente déjà des bases de données – parfois avec un consentement passif suite à des clauses suffisamment larges ou floues que pour être sujettes à interprétation. L’UVA réclame de la transparence. “Il faut qu’on puisse avoir accès aux bases de données, que l’on sache à quelles fins elles sont utilisées”.
Un sujet tabou
Cela vaut aussi bien pour la voix d’un professionnel que pour celle de simples citoyens. La base, pour l’UVA est le Règlement général sur la protection des données (RGPD) de l’UE, relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données. “Vous êtes opérateur d’IA générative, vous êtes Google, Microsoft et autres, vous devez avoir des bases de données normées qui soient ouvertes et compatibles avec les règlements européens sur les données personnelles et les lois sur le copyright” ajoute encore Stephan Kalb.
L’UVA se soucie bien sûr de l’impact culturel du recours aux intelligences artificielles vocales dans le domaine de la création (”Veut-on des œuvres doublées ou des livres lus par des voix artificielles ?”) et de l’avenir professionnel de ses membres. Mais la principale inquiétude de nos interlocuteurs, c’est l’apparent “tabou” autour du sujet.
“Ça me fait penser à Oppenheimer, le film qu’on a tous vu, tance Stephan Kalb. Il y a les créateurs qui crient partout : “Ça va trop vite, attention : danger !” Et on n’est pas fichu de dire : “On appuie sur pause, on s’assied autour de la table, on examine les implications et on décide de comment on veut travailler avec cet outil pour que cet outil soit au service de l’humain et pas l’inverse.” Le Parlement européen et les États membres (via le Conseil) avec l’appui de la Commission doivent s’accorder sur cet AI Act d’ici la fin d’année. Le temps presse mais il n’est peut-être pas trop tard pour prendre la bonne voie.