Opinions Une opinion d'Alain De Neve, Analyste de défense à l'Institut royal supérieur de Défense.


Attention, la lettre ouverte de leaders d’entreprises spécialisées dans le domaine de l’intelligence artificielle à propos des "robots tueurs" comporte bien des non-dits. Décryptage.

Dans une lettre ouverte transmise à l’Organisation des Nations unies en date du 20 août, les leaders d’une centaine d’entreprises spécialisées dans les domaines que sont la robotique et l’IA (intelligence artificielle), parmi lesquels figurent notamment Elon Musk (Tesla), Demis Hassabis et Mustafa Suleyman (Google Deep Mind), ont plaidé pour l’instauration d’un moratoire sur les systèmes d’armes létales autonomes, plus souvent désignés par l’acronyme SALA ou, plus sommairement qualifiés de "robots tueurs". Pour les auteurs de cette initiative, les armes létales autonomes menacent de devenir la troisième révolution dans la guerre : "Dès lors qu’elles seraient développées, elles pourraient permettre de conduire des guerres à une échelle sans précédent et à une vitesse telle que les humains ne pourraient les appréhender." (1) En d’autres termes, la lettre ouverte cosignée par les principaux dirigeants des leaders mondiaux de l’IA va au-delà des vingt-trois principes d’Asilomar de janvier 2017 (2) dont le but était d’envisager des règles de conduite destinées à empêcher une course aux armements létaux autonomes. La lettre ouverte prône quant à elle l’instauration d’un moratoire.

Les pompiers pyromanes

Bien que louable, la prise de conscience dont semblent faire preuve les dirigeants des sociétés représentées au sein de cette lettre ouverte dissimule mal les contradictions internes du discours de ces derniers et pourrait servir un projet industriel qui, s’il devait aboutir à son terme, renforcerait davantage le marché lucratif que deviendrait l’IA plutôt qu’il ne l’affaiblirait.

Ce n’est pas la première fois que des dirigeants d’entreprises spécialisées dans les technologies de type NBIC (nanotechnologies, biotechnologies, technologies de l’information et sciences cognitives) ou GNR (génétique, nanotechnologies et robotique) s’attachent à dénoncer les risques inhérents aux dérives auxquelles pourraient conduire leurs propres recherches. On se souvient de l’article volontairement polémique de Bill Joy (fondateur de Sun Microsystems) paru en 2000 dans la célèbre revue "Wired" intitulé "Pourquoi les technologies du XXIe siècle n’ont pas besoin de nous". Le sous-titre de cet article était, il est vrai, plus explicite encore en affirmant que "la génétique, la robotique et les nanotechnologies menacent l’espèce humaine". Cette schizophrénie des technologues est d’ailleurs très caractéristique des "apprentis sorciers" et autres "pompiers pyromanes" qui, en matière de recherche technologique avancée (notamment en matière de projets militaires), ont émergé dans la période techniquement florissante de l’après-Seconde Guerre mondiale à la suite de la conception de la première bombe A.

Comme avait pu le rappeler Jean-Jacques Salomon (3), ce furent souvent les mêmes scientifiques qui avaient à cette époque contribué à la mise au point des systèmes d’armes qui se retrouvèrent au sein de mouvements tels que Pugwash et d’autres instances pour en bannir l’usage.

Les principaux leaders dans le domaine des NBIC et de l’IA ont aujourd’hui beau jeu de dénoncer les dérives susceptibles de découler de leurs domaines de recherche et, dans le même temps, d’investir des montants sans précédent dans ces mêmes secteurs. Ainsi, Yoshua Bengio, fondateur de la société Element AI basée au Canada et signataire de la lettre ouverte, affirme-t-il par exemple que la perspective d’un usage de l’IA dans des armes autonomes heurte son sens de l’éthique ! L’invitation contenue au sein de la lettre ouverte à l’attention du groupe d’experts gouvernementaux (GGE - Group of Governmental Experts) des Nations unies sur les systèmes d’armes létaux autonomes est révélatrice de cette contradiction. Tout en s’identifiant comme les principaux acteurs de la recherche dans un domaine - l’IA - dont les résultats pourraient être dévoyés à des fins militaires et porter atteinte à la sécurité des populations civiles, les signataires de la lettre ouverte attribuent au GGE la responsabilité d’empêcher que ne survienne une telle dérive à l’avenir.

Les effets pervers d’un moratoire

Les leaders des principales entreprises dédiées à la recherche dans le domaine des NBIC, de la robotique et de l’IA ont-ils été tous pris soudain de remords quant aux débouchés auxquels pourraient dans le futur donner lieu leurs activités ? Chacun l’aura compris : les signataires de cette initiative ne visent nullement à exiger que l’on brûle la bergerie dans laquelle les loups se sont eux-mêmes invités. En effet, en dénonçant toutes les perspectives moralement répréhensibles auxquelles pourraient aboutir les avancées dans le domaine de l’IA, ces entrepreneurs tentent peut-être aussi de préserver l’ensemble des champs d’application pour lesquels les progrès de l’IA et des technologies qui lui sont associées ne semblent pas, pour l’heure, présenter de difficulté en termes d’acceptation sociale. Il convient d’observer que les emplois strictement militaires de l’IA et de la robotique (dont les courbes de croissance se révèlent inégales) ne constituent qu’un faisceau particulièrement mince de l’ensemble du spectre d’applications pour lesquelles les avancées en matière d’IA pourraient se révéler utiles. Les signataires tentent donc, aux yeux de l’opinion, de séparer ce qui relève à proprement parler de l’IA de toute forme d’application militaire de cette dernière. Le discours visant à dénoncer les risques d’une potentielle course aux armements autonomes sert donc de contre-feu spécifiquement construit afin d’attester de l’équité exemplaire des équipes de recherche et développement qui, à travers le monde, s’investissent dans l’amélioration des performances des intelligences synthétiques.

A l’intérieur même du champ militaire, pourtant, la problématique de l’insertion de l’IA ne saurait se résumer à une querelle à bien des égards stériles entre "tenants" et "opposants" aux Sala comme si les perspectives d’application de l’IA dans le domaine militaire ne pourraient se résumer qu’à cette seule catégorie de systèmes. En effet, pourquoi serait-il interdit de penser que l’IA puisse présenter, en matière de défense, des atouts dans des domaines d’application définis ou qu’il conviendrait de mieux circonscrire ? Tout comme il est utopique de penser que l’IA pourrait ne présenter que des avantages en matière d’application de la force, il serait exagéré de n’y voir que des dangers en puissance. C’est un examen plus sourcilleux des potentialités militaires de l’IA que les leaders du secteur devraient promouvoir. Mais comment le pourraient-ils puisque aucun des signataires de la lettre ouverte à l’attention des Nations unies ne provient du secteur de la défense…

L’historien David Edgerton a raison de dénoncer l’emprise des promoteurs des nouvelles technologies sur la façon dont sont aujourd’hui narrées et décrites les technologies passées, présentes et futures (4). En alertant l’opinion publique et les décideurs sur les risques que pourraient poser les Sala, les signataires de la lettre ouverte, sous un fard moral, trahissent une certaine vision de l’avancement technologique centrée sur le seul objet technique afin de préserver ses perspectives de marché dans d’autres champs d’application qui, pour leur part, semblent exemptés de tout examen éthique (la finance internationale est un exemple frappant). Le politique a depuis longtemps abandonné le champ de la technique à ceux qui la produisent. Or, la technologie ne se réfère pas seulement à l’exaltation des moyens de production/destruction qu’elle engendre, elle suppose étymologiquement un discours, autrement dit un débat entre les ingénieurs, le corps social et le politique.

--> (1) C’est nous qui traduisons. Pour la formulation originale, merci de se reporter au site du Future of Life Institute.

--> (2) Les 23 Principes en matière d’IA furent définis à Asilomar en Californie lors d’une conférence entre les principaux chercheurs et développeurs investis dans le secteur de l’intelligence artificielle et des disciplines associées.

--> (3) Jean-Jacques Salomon, Le scientifique et le guerrier, Paris, Belin, coll. Débats, 2002, p. 55.

--> (4) David Edgerton, The Shock of the Old : Technology and Global History Since 1900, London, Profile Books, 2006.