Opinions
Une opinion de Luc de Brabandere, philosophe. 


Tout le monde est d’accord pour affirmer que la fleur artificielle n’est pas une fleur. Mais pourquoi dire alors de l’intelligence artificielle que c’est de l’intelligence ?


Commençons par une observation. Il y a 150 ans, le mot intelligence était utilisé au singulier. A cette époque, être intelligent se résumait à être bon en logique et en mathématique. C’est alors qu’est né le quotient intellectuel supposé mesurer notre capacité à penser. Ce QI est resté longtemps la référence, même si Einstein disait déjà : "Si vous jugez un poisson à sa capacité de grimper à un arbre, il passera sa vie à croire qu’il est stupide."

Heureusement depuis plusieurs dizaines d’années, le mot intelligence a été mis au pluriel, car il est admis que différentes formes d’intelligences existent, et qu’on ne peut les classer par ordre d’importance.

Mais que constate-t-on aujourd’hui ? Patatras, la tempête numérique a fait s’envoler le "s", et voilà le mot intelligence remis au singulier ! Pire encore, on conjecture que cette intelligence redevenue unique pourrait être rendue artificielle ! Comme disait Coluche : "Mais jusqu’où s’arrêteront-ils ?"

Bien sûr que non, il n’y aura jamais d’intelligences artificielles, la seule qui sera un jour entièrement sur les machines sera paradoxalement sa forme logico-mathématique qui seule importait il y a 150 ans !

Imaginez un robot face à un paysage à qui l’on demande de répondre à une simple question : "Que vois-tu ?" Que va-t-il répondre ? Il allongera une liste interminable d’objets et de choses que sa pseudo-intelligence lui aura appris à re-connaître. Mais il ne pourra synthétiser, résumer ce qu’il a sous les caméras, ni dire ce que cela lui évoque. Si on lui demande en plus "Est-ce que c’est beau ?", il ne répondra jamais : "Non, je trouve cela plutôt moche." Parce que les mots "je", "plutôt" et "moche" sont improgrammables. Seul le mot "non" l’est !

Imaginez un musicien qui achève l’écriture de son concerto. Peut-il demander à un ordinateur si sa composition est terminée ? Non bien sûr, il n’y a pas et il n’y aura jamais d’algorithme pour dire qu’une œuvre d’art est finie. Imaginez un écrivain qui est arrivé au bout de son roman. Peut-il demander à un ordinateur le titre le plus accrocheur ? Non bien sûr. La machine proposera une liste interminable de possibilités basée sur la fréquence de certains mots ou situations. Mais elle ne pourra pas choisir le titre qui fera la différence, car tous les auteurs le savent bien, un titre résulte d’une intuition fulgurante. C’est un coup de cœur et une grande joie, on sent que c’est le bon mais on est incapable d’expliquer le raisonnement sous-jacent. Et personne ne pourrait donc le programmer.

La distance à la règle

Kant disait : "Le bois dont l’homme est fait est si courbe qu’on ne peut rien y tailler de tout à fait droit." Tout le problème est là. Nos émotions sont sinueuses, nos intuitions sont volatiles et nos valeurs sont souvent en contradiction, alors que la programmation est binaire et les algorithmes sont froids.

La Justice n’est-elle pas cette institution infiniment humaine qui autorise de prendre une distance par rapport à la règle ? Un ordinateur peut comprendre le mot "correct", mais pas le mot "juste".

Imaginez un jeu élémentaire qui se joue en un coup, avec deux joueurs A et B, et une seule règle. A reçoit 100 euros qu’il doit partager avec B, mais si B refuse la répartition de la somme, ni A ni B ne reçoivent un centime. Rationnellement, mathématiquement, A devrait proposer un euro et B devrait accepter, puisque pour ce dernier, un euro est mieux que rien du tout. Mais B refusera évidemment, tout comme un serveur refuserait un tout petit pourboire qu’il juge insultant. Mais A ne proposera pas non plus 50/50, car ce partage ne refléterait pas l’avantage qu’il a au départ, celui d’avoir l’argent en main. Comment modéliser cette transaction ? Nous ne sommes pas des machines, nous avons notre fierté, nous somme habités par d’étranges sentiments comme la jalousie ou l’envie, et le plus souvent le partage auquel aboutit cette expérience est proche de 65 pour A et 35 pour B.

Les règles sont droites et, en plus, souvent se contredisent.

Rappelez-vous. Enfant, on vous disait qu’il fallait dire la vérité. Très bien. Et on disait qu’il fallait être gentil. Très bien aussi, cela semblait être deux bonnes règles du vivre ensemble. Mais aujourd’hui, quand vous êtes invité à une soirée à laquelle vous n’avez aucune envie d’aller, que faites-vous ? Vous vous souvenez de la première règle et vous appelez en disant que vous êtes désolé mais que cette soirée vous ennuie ? Non, vous privilégiez la deuxième règle, et vous dites que vous n’êtes pas libre. Mais quelle est alors la règle qui établit la priorité entre les règles ?

C’est toute la différence entre la morale et l’éthique. La première est programmable car elle applique des principes qu’on peut énoncer. La deuxième non, car elle échappe à la logique et à ses lois. L’éthique se retrouve souvent coincée entre deux injonctions contradictoires.

Comment un robot joueur d’échecs pourrait-il réaliser à un moment de la partie que, par souci d’efficacité pédagogique, il devrait laisser son adversaire gagner ? Impossible, il ne sait même pas qu’il joue aux échecs. Les enseignants par contre le savent bien, ce que veut dire motiver un élève ! Ce robot devrait être content et fier de perdre, mais bonne chance pour lui apprendre cela !

Parce qu’un ordinateur ne peut être heureux. Pour John Stuart Mill, le bonheur est quelque chose qui arrive - parfois - si nous poursuivons un autre but. Il "marche en crabe" et ne vient que latéralement !

Et pour tout vous avouer, mon ordinateur m’avait suggéré comme titre pour cet article : "La flânerie des crustacés" !

Le mardi 30 janvier à 19h30, Luc de Brabandere donnera une conférence "Ré-inventons l’humanisme dans un monde numérique ?" Lieu : Librairie UOPC - Avenue Gustave Demey 14 - 16 à 1160 Bruxelles. Inscription : secgen@adic.be.