Serge Tisseron, psychiatre: "Dans 20 ans, nous aurons un robot tout le temps avec nous"
Le psychiatre Serge Tisseron est en train de mettre au point un test qui déterminera notre tendance à l'empathie vis-à-vis des robots. Ceux-ci entrent de plus en plus dans notre quotidien et ce n'est qu'un début. Dans son nouvel ouvrage, il plaide pour des robots "humanisants". Rencontre.
Publié le 07-09-2015 à 20h42 - Mis à jour le 08-09-2015 à 14h13
"Notre robot peut cligner des yeux, avoir une intonation et des gestes, mais nous ne voulons surtout pas créer de ‘chaleur’ ou que le robot remplace quelqu’un. Je ne voudrais pas que ma grand-mère, dans sa maison de repos dotée d’un ‘Zora’, s’attache à un robot. Je préfère qu’elle s’attache à moi !" Constructeur du logiciel des robots humanoïdes (à l’apparence humaine) Zora utilisés dans les homes, Francis Goffin soulevait cet été, à l’occasion de l’arrivée de son robot Mario comme "concierge" d’un hôtel, les limites de l’usage quotidien des robots et la "difficile" question des émotions, dans les "relations" entre robot et humain.
A cette question de l’attachement, les psys, comme Serge Tisseron (lire ci-dessous) s’intéressent aussi. Car les robots sont déjà parmi nous, et, dans ce domaine de l’empathie, "les facteurs de risques sont multiples", assure-t-il.
Colonel traumatisé
Exemple concret ? Celui de l’armée américaine, qui utilise des robots comme démineurs. Ceux-ci étaient en forme de phasme, un insecte. Ils ressemblaient donc à un bâton pourvu de huit pattes, qu’ils perdaient une à une à chaque découverte d’une mine. Les réactions de soldats chargés de les utiliser ont été plutôt surprenantes. Le colonel supervisant le programme n’a pas supporté de voir le robot se faire détruire une patte après l’autre puis se traîner, brûlé et endommagé, jusqu’à la dernière mine avant d’exploser complètement. Il aurait décrit la situation comme "inhumaine". D’autres ont supplié qu’on répare leur vieux robot explosé par une mine, plutôt que d’en diriger un nouveau ; d’autres encore ont organisé un enterrement pour leur machine avec 21 tirs, comme pour un camarade tombé au combat.
Mais cette capacité à se mettre à la place de l’autre (même si c’est une machine !) et cet attachement entraînent des dangers très concrets. Par exemple, le sentiment que le militaire doit protéger son robot, ce qui pourrait le mettre en danger lui-même, ou les autres soldats. Certains préconisent de donner une apparence légèrement répulsive aux robots pour limiter cette empathie. Mais cela ne semble pas complètement efficace.
Test d’empathie en cours de fabrication
Cela dit, tous les humains ne sont pas susceptibles d’établir un lieu d’attachement à un "non-humain" avec la même intensité, constate Serge Tisseron, qui va donc plus loin. Le psychiatre est en train de mettre au point un test d’empathie permettant de mesurer le risque d’attachement au robot et ses conséquences. "Ce test permettra notamment de différencier, parmi les utilisateurs possibles des robots, ceux qui continueront toujours à les considérer comme de simples outils, de ceux qui seraient susceptibles de développer un attachement excessif à eux." Les premiers pourraient combattre aux côtés des robots, tandis que les seconds s’occuperaient de la maintenance.
Danger pour les civils aussi
Les civils eux aussi pourraient courir des dangers à trop s’attacher aux robots de "compagnie". "Le danger vient alors de sous-estimer l’importance des informations que les programmeurs du robot ou les services chargés de la maintenance obtiendront de son utilisateur et des usages qu’ils pourraient en faire. Cette situation risque d’être d’autant plus fréquente qu’un robot domestique deviendra plus facilement un interlocuteur sur mesure, pour ne pas dire un interlocuteur rêvé." So. De.
Trois questions à Serge Tisseron, psychiatre
Auteur de "Le jour où mon robot m'aimera. Vers l'empathie artificielle" (Albin Michel)
Vous êtes un antirobot ?
Je suis très favorable aux robots, mais la manière dont ils risquent de s’introduire dans la société m’inquiète. Les robots peuvent apporter des choses très positives en matière de santé, d’éducation, du maintien à domicile des personnes agées, de performance mentale ou d’exercice physique… Mais je vois trois risques : le premier c’est une confusion homme/machine. L’entreprise SoftBank nous vend déjà Pepper, "le robot qui a du cœur". Le deuxième, c’est la capture des données privées, à une échelle plus élevée qu’à présent. On oubliera de débrancher le robot de compagnie (qui envoie des données en permanence quand il est branché), parce qu’on aura l’impression que c’est notre ami. Le troisième, c’est le risque que la perception des relations humaines se modifie peu à peu, car on sera moins tolérants avec le caractère imprévu de l’être humain.
Vous souhaitez des pare-feu. Quels sont-ils ?
Il y a notamment des mesures législatives, les plus rapides à mettre en place. Il y a d’abord la protection des données privées. Le patron de SoftBank pourrait vendre nos données personnelles au plus offrant ! Il faut aussi encourager les systèmes open source. Ou que les scientifiques réfléchissent à la manière de débrancher le robot domestique. Pour l’instant, quand on débranche le robot humanoïde Nao, cela donne l’impression qu’on le tue ! Le robot doit être débranché facilement, pour limiter l’envoi de données, et casser la "robot dépendance".
C’est-à-dire ?
Que les gens préfèrent leur robot à leurs proches. Je pense que dans vingt ans, nous aurons un robot tout le temps avec nous. Ce sera comme un smartphone aujourd’hui, qui aura de multiples "applis", et suivra le même modèle économique. Ce sera intégré à la vie quotidienne. Il sera notre esclave, notre complice, notre témoin et notre partenaire. Mais le robot pourra aussi être socialisant. Tout dépend de sa programmation. En disant au senior "tu as l’air de t’ennuyer, voici quelques activités", le robot peut proposer de regarder seul un film (vendu par une entreprise !) ou de rendre visite à quelqu’un. Ma crainte est le robot devienne un conseiller publicitaire. Si nous ne développons pas des robots humanisants, nous deviendrons nous-mêmes des machines, limitées dans nos choix.
Les trois composantes de l’empathie
L’empathie émotionnelle. "Je vois que tu es triste." L’utilisateur d’un robot peut facilement glisser de la pensée "il a l’air content "à "il est content". De son côté, un robot identifie les émotions d’un humain en se basant sur les indices physiques (mouvement du visage, des sourcils…) et les rapproche des "pictos" dans sa banque de données. Le MIT a mis au point le logiciel Affectiva qui permet aux ordinateurs de repérer les émotions humaines et d’en tenir compte.
L’empathie cognitive. "Je comprends pourquoi tu es triste." Des études ont montré que les humains ont tendance à attribuer des capacités ou des traits de personnalité aux robots au-delà de ce qui est observable. Avec des logiciels de type Affectiva, un robot, pour sa part, sera capable bientôt de poser des questions du style : "Vous semblez inquiet, est-ce parce que votre femme n’est pas rentrée ?" "Il sera essentiel que ces robots comprennent l’état d’esprit de leur interlocuteur, pour y adapter leur réponse", note Serge Tisseron.
Le changement de perspective émotionnel. "A ta place je serais aussi triste." Dans un avenir proche, les robots, via gestes et mimiques, pourront donner l’illusion qu’ils comprennent les émotions de l’homme. Comment pourrons-nous résister à la tentation de nous mettre à leur place ? "Quant à l’inverse, c’est encore hypothétique", dit Serge Tisseron. "Mais le problème de l’intelligence artificielle pourrait moins résider dans ses pouvoirs que le type de logiciels moraux qui lui seraient implémentés."Par nous, les programmateurs.
“I, ROBOT” ET LE DANGER DU CHOIX DE PROGRAMMATION
Dans ce film, le robot solidaire des humains et l’immense AI (intelligence artificielle) ont la capacité d’identifier les émotions des humains et d’en comprendre les raisons. Mais seul le robot a été programmé pour se mettre à la place des hommes. Il refuse leur asservissement. Le problème de l’intelligence artificielle pourrait moins résider dans ses pouvoirs que dans le type de logiciels qui seraient implémentés.
LA “GUERRE DES ÉTOILES”, R2D2 ET LE DANGER DE L’OBJET CONNECTÉ
Pour Serge Tisseron, les robots seront des intermédiaires entre l’homme et les objets communicants qui l’entourent (à l’image de R2D2). Et ils seront en permanence connectés entre eux, dans le cadre de l’Internet des choses. Les fabricants de toutes ces machines auront aussi le souci d’avoir accès à nos données personnelles, qu’ils recueilleront en permanence pour “mieux nous connaître”, mais avec une menace sur la vie privée.
“HER” ET LE DANGER DE LA “ROBOT DÉPENDANCE”
Le film “Her” est l’exemple parfait de la “robot dépendance”. Dans ce film, le héros, très solitaire, tombe amoureux d’une intelligence artificielle, avec laquelle il dialogue. Le danger est de préférer le robot aux humains. Cela risquerait d’arriver avec les “robots Nutella (comme Nutella est de l’ersatz de chocolat conçu pour flatter le palais) des robots qui sont des ersatz d’humains conçus pour flatter notre ego”, avertit Serge Tisseron.
“REAL HUMANS” ET LE DANGER DE L’ASSERVISSEMENT

Dans la série “Real Humans”, les humains utilisent des robots androïdes comme “esclaves”. Déléguer à de machines des tâches de plus en plus humaines et que nous reconnaissons comme nous appartenant en propre finira par nous poser des problèmes. Cela apparaîtra notamment dans le domaine de l’éducation. Quand les robots feront mieux que les tablettes actuelles et que les parents, ceux-ci commenceront à sentir inutiles, prédit Serge Tisseron.