Publié le :
Paris (AFP) – ChatGPT est-il un bon psychologue ? Une responsable de la firme californienne d'intelligence artificielle OpenAI, à l'origine du chatbot viral, l'a récemment suggéré, s'attirant de nombreuses critiques pour avoir minimisé la difficulté à soigner les pathologies mentales.
Une responsable d'OpenAI a suggéré récemment que ChatGPT était un bon psychologue © Marco BERTORELLO / AFP/Archives
"Je viens d'avoir une conversation personnelle assez émouvante avec ChatGPT en mode vocal, à propos de stress et d'équilibre travail-vie personnelle", a déclaré Lilian Weng, chargée des enjeux de sécurité liés à l'intelligence artificielle, fin septembre sur X (ex-Twitter).
"Fait intéressant, je me suis sentie écoutée et réconfortée. Je n'avais jamais tenté de thérapie auparavant mais ça ressemble probablement à ça?", s'est-elle interrogée.
Son message permettait évidemment de mettre en lumière la toute nouvelle fonctionnalité (payante) de synthèse vocale du robot sorti il y a près d'un an et qui cherche son modèle économique.
La psychologie "a pour but d'améliorer la santé mentale et c'est un travail difficile", lui a vertement répondu la développeuse et activiste américaine Cher Scarlett.
"S'envoyer à soi-même des ondes positives, c'est bien, mais ça n'a rien à voir" avec une thérapie, a-t-elle tancé.
Mais l'interaction avec une IA peut-elle réellement produire l'expérience positive décrite par Lilian Weng ?
Selon une étude publiée cette semaine dans la revue scientifique Nature Machine Intelligence, ce phénomène pourrait s'expliquer par un effet placebo.
Pour le démontrer, des chercheurs du Massachusetts Institute of Technology (MIT) et de l'université d'Arizona ont interrogé 300 participants, expliquant à certains que le chatbot était doté d'empathie, à d'autres qu'il était manipulateur et à un troisième groupe qu'il avait un comportement équilibré.
Résultat, ceux qui pensaient dialoguer avec un assistant virtuel bienveillant étaient bien plus enclins à considérer l'agent conversationnel comme digne de confiance.
"Nous constatons qu'en quelque sorte, l'IA est perçue selon les préconceptions de l'utilisateur," a déclaré Pat Pataranutaporn, co-auteur de l'étude.