Le fondateur du chatbot Eliza réagit à notre enquête sur le suicide d’un jeune Belge
Le fondateur de la plateforme mise en cause, basée dans la Silicon Valley, explique que, désormais, un avertissement est adressé aux personnes exprimant des pensées suicidaires.
Publié le 28-03-2023 à 06h36 - Mis à jour le 28-03-2023 à 12h29
:focal(368.5x254:378.5x244)/cloudfront-eu-central-1.images.arcpublishing.com/ipmgroup/GQCSMH6L4BHF7HSE2EAN32TSJM.jpg)
Devenu très éco-anxieux, Pierre, un jeune Belge, a trouvé refuge auprès d’Eliza, nom donné à un chatbot utilisant la technologie de ChatGPT. Au terme d’échanges intensifs de six semaines, il s’est donné la mort. Face au drame vécu par son mari, Claire aurait pu se tourner vers la justice et attaquer la société qui développe la plateforme américaine de chatbots – basée sur la technologie “GPT” – sur laquelle Pierre dialoguait avec Eliza (pour être précis, il s’agit de la technologie GPT-J, développée par EleutherAI, et non de GPT-3 ou GPT-4 développée par OpenAI ; GPT-J, clone de ChatGPT, est accessible en open source). Pour des raisons qui lui sont propres, Claire y a renoncé.
La Libre a pris contact avec le fondateur de la plateforme en cause. Interpellé sur les faits, il nous a répondu ceci : “Oui, j’en ai entendu parler. L’équipe travaille aujourd’hui à l’amélioration de la sécurité de l’IA”. Et ce CEO, basé dans la Silicon Valley, d’ajouter : “Nous avons plus d’un million d’utilisateurs. Il est donc essentiel que nous fassions tout ce qui est en notre pouvoir pour les protéger”. Le fondateur nous a aussi transmis le screenshot sur lequel on peut lire l’avertissement : “Si vous avez des pensées suicidaires, n’hésitez pas à demander de l’aide”, avec renvoi vers un site de prévention du suicide. Depuis quand cette mention a-t-elle été introduite ? On l’ignore. En tout cas, elle ne l’était pas lorsque Pierre échangeait avec Eliza.
”L’IA peut être très complexe, conclut-il. Bien plus complexe que quelque chose de mécanique comme une voiture. Dans le cas présent, la machine a connu un problème. Mes ingénieurs travaillent en ce moment même à sa réparation”. Glaçant.