Opinions
Une opinion d'Hadrien Macq et Pierre Delvenne, respectivement doctorant  et chercheur qualifié FNRS  en sciences politiques et sociales à l'Université de Liège.


Il nous appartient d’injecter dans les débats relatifs au développement de l’I. A. les dimensions éthiques, morales et politiques qui font aujourd’hui cruellement défaut.


Il se passe rarement une semaine sans que soit évoquée dans les médias la question de l’intelligence artificielle. On nous annonce que ses impacts seront multiples et qu’ils concerneront des domaines aussi divers que le marketing, la croissance, l’emploi, ou encore les potentielles relations amoureuses entre humains et robots. Le débat entre experts est abondant. A titre d’exemple, les déclarations d’Elon Musk, entrepreneur de la Silicon Valley à la tête des entreprises Tesla Motors et SpaceX, ont récemment fait grand bruit. Ce dernier s’est en effet attribué un rôle de lanceur d’alerte en affirmant que l’intelligence artificielle constitue "un risque majeur pour la civilisation", alors qu’il contribue directement à son développement dans le secret des laboratoires de ses entreprises.

Deux points de vue

Le concept d’intelligence artificielle, qui recouvre un ensemble de technologies numériques, se retrouve dès lors au cœur des représentations que nous nous faisons de l’avenir de nos sociétés. Dans ce cadre, deux points de vue semblent s’affronter : celui, d’une part, d’un "futur enchanté" par ce que l’intelligence artificielle promet d’apporter à l’humanité (progrès de la médecine, objets connectés, humain augmenté); celui, d’autre part, d’une dégradation de toute une série de paramètres rendant ces technologies potentiellement problématiques pour notre avenir (perte d’emplois, aliénation, prise de pouvoir des robots). Si ces débats relatifs à l’intelligence artificielle nous semblent importants pour penser les éventuels développements des technologies futures, les termes dans lesquels ils sont posés nous paraissent problématiques à plusieurs égards.

Deux problèmes

D’une part, ils adoptent systématiquement la perspective erronée d’un déterminisme technologique. En effet, de trop nombreux acteurs qui s’expriment sur le potentiel disruptif de l’intelligence artificielle en parlent comme si son développement était un processus autonome, presque inéluctable et indépendant de notre volonté. On nous annonce, par exemple, que "l’intelligence artificielle fera disparaître le marketing" ou encore que, d’ici 2050, "les robots pourront discuter avec les humains". Cette perspective nous apparaît dangereuse car elle contribue à déconnecter le développement de technologies spécifiques du contexte socio-politique dans lequel il prend place. Or, jusqu’à preuve du contraire, ce sont encore nous, les êtres humains, qui développons ces technologies, qui les rendons possibles et qui assurons leur "socialisation" plus large lorsqu’elles quittent les espaces confinés des laboratoires. Dès lors, l’intelligence artificielle ne pourra faire quelque chose que si, au moment de son développement, nous lui en donnons l’ordre.

D’autre part, force est de constater que les débats se concentrent aujourd’hui essentiellement sur des questions techniques qui évacuent les enjeux politiques, éthiques et sociaux. Par exemple, se demander "l’intelligence artificielle est-elle réellement capable de faire cela ?" réduit de facto les discours sur le champ des possibles, même quand bon nombre d’experts sont amenés à nuancer les progrès accomplis. C’est pourquoi il nous semble urgent de rompre avec cette perspective déterministe : la question n’est pas tant de savoir si l’intelligence artificielle est capable, techniquement, de faire quelque chose, mais si nous voulons que l’intelligence artificielle fasse quelque chose, si cela participe d’un projet de société qui correspond à nos attentes.

© Vincent Dubois

A nous d’agir !

Il est courant d’entendre de la part de prétendus gourous technologiques, qui bénéficient très souvent d’une importante attention médiatique et de l’oreille des décideurs politiques, que l’intelligence artificielle "va nous laminer" et "réorganiser notre économie, notre formation, notre enseignement et notre système social" (Laurent Alexandre, interrogé dans l’émission radio Grande Première, le 3 octobre 2017). Dans ce type de scénario, nous sommes cantonnés à un rôle de spectateurs du futur qui arrive et nous n’avons plus d’autre choix que celui de nous adapter au plus vite tout en surveillant l’émergence possible d’intelligences artificielles hostiles.

Cette perspective repose sur le fantasme de technologies futures. Elle nous éloigne de la nécessité de penser l’impact de ces technologies sur notre quotidien afin de les développer d’une manière qui corresponde à un projet collectif et à des valeurs que nous estimons dignes d’intérêt. Car la nature de ces questions est avant tout d’ordre politique, ce qui amène une repolitisation des enjeux et une certaine prise de responsabilité tant du côté des décideurs que des acteurs concernés, scientifiques ou entrepreneurs, qui contribuent directement au développement de l’intelligence artificielle.

Cette prise de responsabilité nécessite d’abandonner un réflexe devenu trop courant dans nos sociétés. Ce réflexe consiste à n’envisager d’autre marge de manœuvre que celle de s’adapter à un prétendu "sens de l’histoire". Or, il n’existe d’autre sens de l’histoire que celui que nous façonnons au quotidien. Il nous appartient dès lors d’injecter dans les débats relatifs au développement de l’intelligence artificielle les dimensions éthiques, morales et politiques qui font aujourd’hui cruellement défaut.