L’Intelligence artificielle (IA) fait partie de notre vie quotidienne. Elle la facilite, tous les jours. Quand on achète des livres ou des vêtements en ligne, quand on réserve un hôtel sur le web ou quand on demande une traduction sur Google. On n’y prête plus attention. Pourtant, les développements technologiques fulgurants de ces dernières années doivent nous alerter et nous inquiéter.

Certes, l’avènement des robots anthropomorphes, tels qu’imaginés par Isaac Asimov, n’est peut-être pas pour demain. Mais les exemples d’Intelligence artificielle dont le contrôle échappe de plus en plus à l’être humain se multiplient et s’intensifient. C’est la raison pour laquelle je plaide avec force en faveur du concept d’"Intelligence augmentée", au lieu d’"Intelligence artificielle". L’acronyme est le même mais la nuance est essentielle : l’Intelligence augmentée ne vise pas à remplacer l’intelligence humaine ; elle la complète et la soutient. Elle souligne le rôle de l’être humain qui, même s’il est aidé par la machine, doit à mon sens toujours rester maître de la décision finale.

L’éthique en langage machine

La maîtrise de la décision finale par l’humain ne va pas de soi. Quand on conçoit l’IA comme un soutien à l’homme, par exemple dans des décisions de justice ou la détection précoce de mélanomes, on fera toujours confiance au juge ou au médecin pour réfléchir, se documenter, dialoguer avec ses consœurs et confrères, avant de prendre sa décision.

Quand, par contre, une voiture autonome, impliquée dans une sortie de route, devra choisir entre deux accidents inévitables, ce temps de réflexion de l’humain n’existe plus. Et il revient donc au concepteur du véhicule la tâche très complexe de programmer l’éthique en langage machine. La voiture a certes été programmée pour une conduite prudente et respectueuse du code de la route. Mais comment réagir si, par exemple, des enfants déboulent sur la chaussée ? Qu’est-ce que l’éthiquement acceptable ? Sauver les jeunes enfants plutôt que les occupants âgés de la voiture ? Les personnes qui ont respecté le code de la route ? Celles qui, grâce à la reconnaissance faciale, sont connues et répertoriées comme étant en bonne santé ? Et tant pis pour les malades chroniques ou les personnes avec casier judiciaire ? Où est la limite ? Qui dispose de la légitimité pour déterminer ces critères et donc programmer la voiture autonome en ce sens ? Et qui est responsable ?

D’aucuns ont évoqué l’idée controversée de "personnalité électronique" pour résoudre la question de la responsabilité de l’IA et donc celle du remboursement des dommages causés par celle-ci. Cela ne me semble pas une bonne approche. Pour ce faire, il faudrait créer un fonds assurantiel alimenté par les entreprises qui les fabriquent. Avec le grand risque de déresponsabiliser les fabricants, en indemnisant sans enquête les victimes. Or, des investigations au cas par cas seront nécessaires pour déterminer qui, de l’utilisateur, du programmeur ou du concepteur, est le responsable de la défaillance ou de l’accident.

Ne pas légiférer, c’est perdre le contrôle

L’Union européenne tente d’aborder toutes ces questions, notamment à travers un Livre blanc sur l’Intelligence artificielle. Mais si les intentions de l’UE sont louables, la mise en œuvre est beaucoup trop lente et timorée. Quelle que soit la perception qu’on en a, l’IA existe et fait partie de nos vies. Des milliers d’entreprises dans le monde sont, comme I-care, demandeuses d’un cadre normatif, d’une définition claire et précise des règles à respecter et des valeurs que nous voulons défendre collectivement.

C’est précisément en ne légiférant pas que l’homme cède son pouvoir de décision à la machine. Et c’est le vide juridique qui permet, actuellement, à des algorithmes ultra-sophistiqués de prendre le pas sur l’éthique et la morale. Ce sont les humains, et eux seuls, qui ont la possibilité de reprendre le contrôle. Le vrai danger, ce n’est pas la machine mais bien l’être humain qui lui délègue sa décision !

Nous devons Augmenter l’Intelligence…

L’actualité récente et moins récente doit nous pousser à vouloir améliorer l’éthique des Intelligences augmentées et à toujours garder la responsabilité du côté de l’humain. Dans le contexte de Black Live Matters, Amazon et IBM ont annoncé qu’ils abandonnent la reconnaissance faciale, accusée d’être raciste. Une étude du MIT datant de 2019 montre, en effet, que la reconnaissance faciale est fiable à 100 % pour les personnes blanches tandis qu’un taux d’erreur de 30 % existe pour les personnes noires ! Et oui, une machine intelligente n’est pas dénuée de biais, ces préjugés, parfois inconscients, du concepteur/programmeur. On peut aussi revenir sur la crise financière de 2008. Elle est une parfaite illustration d’une Intelligence artificielle non maîtrisée, les banques ayant laissé des "super robots" gérer le patrimoine de leurs clients, en déléguant leurs décisions et en laissant bien trop d’autonomie aux machines. Malheureusement, ces "super algorithmes" incontrôlés continuent à proliférer dans nos systèmes financiers, je pense notamment au trading de haute fréquence.

Enfin, la crise du Covid-19 nous prouve une fois encore que l’humain doit rester le maître à bord. Aucun algorithme n’a pu prédire la crise ni trouver à temps le remède miracle qui aurait sauvé des centaines de milliers de vies. Sans l’humain, pas de salut. Au cœur des hôpitaux, jour et nuit, ce sont bien des femmes et des hommes, médecins, infirmiers, techniciens, qui ont œuvré et œuvrent encore aujourd’hui pour guérir les malades du Covid. Et qui prennent des décisions qui engagent leur éthique et leur responsabilité, assistés de façon déterminante par des machines qui n’ont qu’un seul rôle : "augmenter leur intelligence".