Mieke De Ketelaere est tombée dans la marmite des nouvelles technologies alors qu’elle avait 13 ans. "Mon premier ordinateur était un Texas Instrument TI-99/4A, raconte cette Gantoise de 50 ans domiciliée à Walhain. Je pouvais y chipoter durant des heures dans ma chambre. J’ai compris assez vite que, grâce à la technologie, il était possible d’automatiser certaines tâches pour libérer du temps et améliorer le bien-être."

Après des études en ingénierie industrielle, elle enchaîne avec un master en robotique et électromécanique à Stuttgart, avant d’entamer un doctorat en intelligence artificielle à Auckland, en Nouvelle-Zélande. La première partie de son parcours professionnel se déroule dans le secteur informatique et de l’analyse de données (Microsoft, SAS…).

En mai 2019, elle rejoint l’Imec, centre flamand de recherche appliquée en nanotechnologies, pour diriger les programmes en intelligence artificielle. Depuis le début du mois de mai, elle est directrice de la stratégie IA à Imec-IDLab (basé à Gand et Anvers).

Votre livre est un plaidoyer en faveur de "traducteurs d’IA". Qui sont ces traducteurs d’intelligence artificielle (IA) ?

Pour vous répondre, il faut expliquer la raison qui m’a poussée à écrire ce livre. À l’origine, mon projet était d’écrire un livre sur le rôle d’une femme dans le monde des entreprises et sur le regard que ce monde peut poser sur les femmes. L’éditeur trouvait ça intéressant, mais il voulait que j’écrive d’abord un livre sur l’IA, qui est mon domaine de compétence. Ce que j’ai refusé. Mais il se fait que, peu de temps après, je me suis retrouvée dans un débat sur la robotique auquel participait Alexander De Croo. Interrogé sur la question de la responsabilité lorsque l’IA est à l’origine d’une erreur, il a répondu : "C’est la responsabilité de l’ingénieur." Je n’étais pas d’accord !

Pourquoi ?

Parce que l’ingénieur qui développe une intelligence artificielle ne sait pas toujours où et comment son algorithme va être utilisé. Cette histoire m’a fait réfléchir sur le manque de compréhension de l’IA. Je suis retournée chez l’éditeur pour dire que j’étais partante. Mon idée était la suivante : en tant qu’ingénieur, on doit se regarder dans le miroir et prendre ses responsabilités. Avec l’IA, on a une technologie de pointe qui progresse très vite, qui se répand partout, mais qu’énormément de gens ne comprennent pas. Dans le monde du business, ça part un peu dans tous les sens. Des chefs d’entreprise pensent qu’en engageant un data scientist et en récoltant un maximum de données ils vont pouvoir faire des choses formidables avec l’IA. Ce n’est pas comme ça que les choses se passent ! L’idée du livre est donc partie de là : comment trouver un langage commun qui puisse aider les gens à se parler et à se comprendre quand on parle d’IA. Pour ça, on a besoin de traducteurs d’IA.

Qui sont-ils ?

C’est tout le monde ! Chacun, avec ses connaissances, son expertise, peut le devenir. Des personnes provenant du monde de l’entreprise, de la recherche, de la philosophie, du droit, de l’éthique, de la société civile… Tout le monde doit pouvoir s’exprimer sur ce qu’il attend ou pas de l’IA, ce qu’il veut en faire. Il faut sortir l’IA du monde des experts, des technologues, pour que la population se l’approprie. L’IA doit devenir l’affaire de tout le monde. Il ne s’agit pas de devenir tous des experts en IA, mais d’en comprendre les principes généraux et les conséquences. Prenons l’exemple de la voiture. Tout le monde sait qu’il faut avoir un permis de conduire et qu’il faut attacher sa ceinture pour éviter de graves conséquences. On a pris conscience des dangers de la conduite d’une voiture. Avec l’IA, que l’on retrouve aujourd’hui dans nos smartphones ou sur Google, la plupart des gens ne savent pas grand-chose. La difficulté, c’est que l’IA est une technologie invisible.

Parmi les personnes qui connaissent l’IA, on observe un clivage entre "adorateurs" et "alarmistes".

Il faut sortir de ce clivage. Une voie médiane existe. Aujourd’hui, on a pas mal d’exemples qui montrent que l’IA peut avoir une réelle plus-value. Il ne s’agit pas de tout arrêter. Mais on voit aussi qu’on a frôlé, voire parfois franchi, des limites sociétales ou éthiques. Il y a la question des biais (de genre, de race…) qui altèrent les algorithmes et celle de la surconsommation d’énergie. Pour reprendre l’analogie de la voiture, on n’a pas arrêté de l’utiliser dans les années 1950 parce qu’on assistait à une hausse des accidents. On a plutôt cherché un cadre pour limiter ces accidents (Code de la route, sécurisation des véhicules…). L’IA, c’est pareil, sauf qu’elle avance très vite et qu’elle est invisible.

La Commission européenne a déposé, fin avril, une proposition de réglementation sur l’IA dont l’objectif est d’encadrer son usage dans différents domaines d’application. Comment jugez-vous cette proposition ?

Malheureusement, la Commission a rédigé une proposition valable pour les années 1980. Elle est partie du principe que l’IA s’incarnait dans des algorithmes et des usages clairement identifiables. Or, l’IA, les données et les algorithmes constituent toute une chaîne, avec des interactions multiples. On n’est pas dans une situation où une IA évolue de façon autonome, c’est-à-dire indépendamment de son environnement. Donc, je crains que cette proposition européenne soit en total décalage avec la situation actuelle et que, par ailleurs, elle entrave l’innovation permise par l’IA. L’Europe a oublié de regarder ce qui était en train de se faire en matière d’IA et ce qu’elle allait devenir dans cinq ou dix ans. Sur ce coup-là, il aurait peut-être fallu davantage consulter les ingénieurs en IA.

Lorsque vos amis vous interpellent sur l’IA et ses dérives potentielles, comment les rassurez-vous ?

Les personnes vraiment inquiètes le sont souvent après avoir vu ou lu ce qu’on dit de l’IA dans les médias. C’est la version Termi nator de l’IA ! Je leur explique qu’il suffit de retirer la batterie ou la prise pour tout arrêter. C’est une technologie créée par l’homme et sur laquelle l’homme garde le contrôle. Mais, dans 90 % des cas, les gens ne sont pas spécialement inquiets. En fait, ils ne savent tout simplement pas ce qu’est l’IA. C’est là que je dis qu’il faut absolument s’y intéresser. Les médias peuvent jouer un rôle important en donnant une explication et un point de vue plus équilibré de l’IA. C’est le cas, par exemple, à propos de l’impact de l’IA sur l’emploi. On a déjà connu, par le passé, des innovations technologiques et elles ont eu un impact sur la nature des emplois. Mais il n’y a jamais une destruction pure et simple de l’emploi. Ce qu’on a connu, ce sont des transformations des emplois. On est train de vivre la même transformation avec le digital et l’IA. La pandémie de Covid est un très bon exemple. Certaines transformations se sont accélérées. Mais on a aussi vu que les robots ou les machines, même intelligentes, étaient parfaitement incapables de faire des prises de sang, d’assister les patients en oxygène, de les accompagner dans leur revalidation… L’IA n’avait rien prédit et elle n’a pas été très utile pour faire face à la pandémie. Cela montre bien toutes les limites de l’IA et la nécessité de la démystifier.

L’IA est peu intelligente… ?

C’est une IA faible, comme disent les experts. Elle a l’intelligence d’un enfant de 3 ou 5 ans. Elle est capable d’apprendre, de calculer, de répéter très rapidement. Mais elle est incapable de raisonner, de collaborer, d’avoir de l’empathie ou même simplement de faire la différence entre un vrai bonhomme de neige et un enfant déguisé en bonhomme de neige.

Le principal défi de l’IA, écrivez-vous, n’est pas vraiment technologique. Il relève surtout de la responsabilité. C’est quoi une IA responsable ?

Ce n’est pas parce qu’une technologie fonctionne qu’il faut automatiquement l’utiliser et la déployer à grande échelle. Il faut tenir compte du contexte. Les algorithmes utilisés en Chine, par exemple, doivent-ils l’être chez nous sans nous interroger sur leur impact ? On sait que non. On a besoin de contrebalancer le discours des technologues et des ingénieurs par d’autres points de vue. C’est vraiment urgent. Tout le monde, ingénieurs compris, devrait se regarder dans le miroir et prendre ses responsabilités. Il faut oser demander des explications quand on ne comprend pas. On doit absolument se comprendre en parlant un même langage. Pour ça, il faut créer des ponts entre personnes issues de différents univers et arrêter de travailler en silos, de faire de l’entre-soi.

Son livre

Homme versus machine. L’intelligence artificielle démystifiée, Pelckmans, 240 pages, mai 2021, 30 euros. Le livre est paru en néerlandais en novembre 2020 et sera bientôt disponible en anglais. Mieke De Ketelaere a décidé de céder ses droits d’auteur au projet dwengo.org de sensibilisation des enfants aux technologies.

© Peckelmans