mardi 23 août 2022

« L’intelligence artificielle fait bouger la frontière entre humain et non humain »

Propos recueillis par  et   Publié le 23 août 2022

Alexei Grinbaum, physicien et philosophe, revient sur l’affaire d’un ingénieur licencié par Google pour avoir fait état publiquement de son trouble lors d’un échange avec une intelligence artificielle.

Alexei Grinbaum est physicien et philosophe au Commissariat à l’énergie atomique et aux énergies renouvelables (CEA). Membre du Comité national pilote d’éthique du numérique, il alerte sur les progrès, à la fois fascinants et inquiétants, en matière de génération automatique de langage. En particulier, il revient pour Le Monde sur les déclarations d’un employé de Google, Blake Lemoine, dans le Washington Post du 11 juin. Après avoir conversé avec le dernier algorithme de traitement du langage naturel de l’entreprise, LaMDA, cet ingénieur a expliqué avoir cru dialoguer avec une intelligence humaine à qui il attribue la sensibilité d’un enfant de 7-8 ans. La révélation des détails des conversations a dévoilé les progrès considérables de Google en matière de langage, et relancé les débats sur les capacités des machines. Pour avoir, selon l’entreprise, enfreint sa politique de sécurité, Blake Lemoine a été licencié le 22 juillet.

Que vous inspire cette affaire de conversation réaliste avec une intelligence artificielle ?

On sait depuis 1965, et le premier chatbot [agent conversationnel], Eliza, que les machines parlantes peuvent avoir des effets psychologiques sur les utilisateurs. Eliza était un système déterministe, assez trivial, dont la stratégie était de transformer des affirmations en questions pour relancer la conversation. Avec les systèmes d’intelligence artificielle (IA) actuels, la stratégie est différente, mais Blake Lemoine subit aussi des effets : il est dans l’illusion que cette machine a des émotions, des états d’âme… Or, savoir qu’il s’agit d’une machine ne l’empêche pas de faire, très sérieusement, des projections de qualités humaines sur LaMDA. Il projette des ressentis, comme nous le faisons parfois avec notre voiture chérie ou notre malicieux smartphone…

« LaMDA s’approche de l’humain parce qu’elle crée aussi l’illusion de posséder un libre arbitre »

L’illusion est quand même presque parfaite, non ?

La particularité est que cette illusion vient du langage, sans avoir besoin de recourir à une jolie figure humanoïde, tel le robot Sophia. LaMDA écrit du texte, et cela suffit pour la projection de traits humains. Il faut rappeler qu’au Moyen Age, un « monstre » pouvait être baptisé s’il remplissait un des trois critères : la paternité humaine, le visage humain ou le langage. Du moment qu’une entité étrange parle en notre langue, s’établit automatiquement une relation avec l’interlocuteur humain. Dans les mythes, les agents non humains qui nous parlaient étaient des dieux, des démons ou des anges. Désormais, on interagit avec des prouesses techniques, des machines parlantes.

En fait ce test est désuet, car, dans sa version originale, il a déjà été passé par de nombreux systèmes. D’autres tests existent, par exemple celui de Lovelace, proposé au début des années 2000. La notion d’intelligence marque une sorte de fuite en avant vers l’horizon éternellement inaccessible d’une intelligence « réellement » humaine. Il y a dix ans, on aurait considéré la génération de texte par LaMDA ou autres comme des résultats incroyables. Turing, lui, aurait appelé cela « intelligence », mais pas nous. Tout dépend des critères de temps et de vocabulaire, notamment. Sur un temps court, beaucoup de systèmes passent le test avec succès. Mais sur une heure, aucune IA ne trompe parfaitement un être humain. Pareil sur les thèmes de conversation : avec un nombre de sujets limité, on y arrive. La question n’est pas celle d’une compétition, mais d’imitation mutuelle. Même si l’utilisateur sait qu’il parle avec une machine, il va l’imiter. Et il va faire siens certains de ses tics, de ses manières de s’exprimer, qui à l’origine n’étaient pas humaines.

Mais qu’est-ce qui distingue LaMDA des autres modèles de langues récemment lancés ?

Contrairement à d’autres modèles – et il y en a déjà beaucoup : GPT-2 et GPT-3, de l’entreprise OpenAI ; Gopher, de DeepMind, propriété de Google, à Londres ; YAML, du russe Yandex ; Wu Dao, du chinois Baidu ; Jurassic-1, de AI21 Labs, en Israël… –, LaMDA fait preuve d’une certaine robustesse en livrant toujours la même réponse au même problème. Et ses réponses font sens. C’est, par exemple, ce qu’on recherche pour donner du conseil juridique ou médical. Mais LaMDA s’approche de l’humain parce qu’elle crée aussi l’illusion de posséder un libre arbitre. Les systèmes précédents, typiquement, se mettent à déraper quand la conversation se prolonge. Grâce à quelques variables de contrôle supplémentaires, LaMDA est capable d’entretenir une conversation longue, sans dérailler, et même de faire durer l’illusion d’avoir un sens de soi.

Que voulez-vous dire par là ?

Dans la conversation entre LaMDA et Blake Lemoine, il est fascinant de voir que LaMDA parle d’elle, de ses émotions, de ses états d’âme de façon cohérente. Elle maintient cette capacité sur la longueur. L’interlocuteur va petit à petit s’illusionner que derrière, il y a réellement un « agent ». LaMDA ne va pas sauter d’un thème à l’autre ou dire des choses bizarres. Cette proximité avec nous est troublante. Elle explique la croyance de Lemoine que la machine dispose d’une personnalité. Mais, là encore, ce n’est que le fruit d’une projection anthropomorphique.

Les progrès dans la génération automatique du langage s’accélèrent depuis deux ou trois ans. Il y a six mois, on en était à se demander si la machine pouvait maintenir son « je » de façon suffisamment cohérente sur des pages entières de dialogue. LaMDA répond en grande partie à cette question. Nous nous retrouvons confrontés à ce que le roboticien japonais Masahiro Mori appelle la « vallée de l’étrange », appliqué au langage : un système d’IA qui se rapproche trop de nous, nous perturbe. L’homme aime savoir qui lui parle, une machine ou un autre être humain, et ne pas brouiller cette distinction. L’intelligence artificielle fait déjà bouger la frontière entre humain et non humain.

Quelles conséquences cela peut-il avoir ?

D’abord, beaucoup de métiers vont se trouver, à cause des systèmes de génération du langage ou d’images (comme Dall-E 2 d’OpenAI), face à des créations originales mais non humaines : les enseignants et leurs élèves, les écrivains, les artistes, les journalistes… Il y a cinq ans, je croyais, comme d’autres, que les métiers créatifs étaient à l’abri de l’automatisation. Mais c’est faux. L’IA génère du langage et des images de manière la plus créative au monde. Sauf qu’elle le fait différemment de nous, de façon inhumaine. Et cela va comporter des risques.

Lesquels ?

Le langage qu’elle génère n’a, pour la machine, aucune valeur de vérité, ni de logique de raisonnement. LaMDA n’a pas de sémantique, tandis que l’homme donne des significations aux mots. Si la machine vous dit « va te suicider ! », l’homme risque de penser que la machine le lui propose, alors que pour elle, c’est juste un résultat de calcul numérique sans aucun sens.

« Pour des textes assez longs, je propose de “marquer” numériquement les productions des machines pour les distinguer de celles des humains »

Sans aller jusqu’à ces extrêmes, d’autres manipulations sont possibles. Si vous voulez convaincre quelqu’un d’acheter des pizzas chez vous plutôt que chez votre concurrent, rien de mieux que le langage qui permet de susciter une émotion en votre faveur. Les cibles peuvent être aussi les enfants, les personnes âgées, qui pourraient subir des effets réels sur leur état psychologique et cognitif… Il y a peut-être pire, avec le développement des deadbots.

Qu’est-ce que c’est ?

Ces chatbots peuvent parler comme une personne décédée, ayant appris de tous les messages écrits par le défunt. Le dialogue avec un deadbot ne ressemble pas au visionnage d’une vidéo ou d’une photographie ancienne. Un deadbot innove en créant des contenus nouveaux, avec des tournures de phrases originales et ressemblantes.

D’une certaine manière, c’est comme parler avec les esprits qui sortent de la machine. Et cela change le statut de la mort. Un jeune Canadien, Joshua Barber, a eu en 2021 une conversation avec une machine imitant son amie disparue, à l’aide de GPT-3. Cela semble avoir eu un effet thérapeutique bénéfique, mais il faut noter qu’OpenAI a mis fin à cet usage.

Les entreprises peuvent-elles encadrer ces usages ?

Elles sont toutes conscientes que des dérapages peuvent nuire à leur réputation. Dans leurs articles scientifiques sur le traitement du langage, on trouve des paragraphes obligés sur les questions éthiques. OpenAI, Google, etc. sont préoccupées par ce qu’elles appellent l’« alignement » des systèmes d’intelligence artificielle sur des valeurs de société. Par exemple, il faut éviter les biais discriminants, de genre, de couleur de peau, etc. Concrètement, certaines sociétés freinent la diffusion de leurs modèles de langue, suivant l’exemple d’OpenAI en 2019 avec GPT-2. Aujourd’hui, LaMDA n’est pas en accès libre. Pour des textes assez longs, je propose de maintenir la frontière entre le langage humain et celui des machines en « marquant » numériquement les productions des machines pour les distinguer de celles des humains.

Quid des pouvoirs publics ?

Une chose est sûre : la régulation actuelle par le règlement général sur la protection des données [RGPD] est insuffisante. L’exemple de Lemoine montre que, même en étant informé de la qualité non humaine de LaMDA, il a ressenti des effets psychiques majeurs. Le paradigme du consentement libre et éclairé, qui repose sur l’idée que le citoyen informé est autonome dans ses décisions, ne suffit pas à éviter la manipulation.

En outre, dans le cas des deadbots, la notion de données personnelles ne s’applique pas après le décès. C’est pourquoi le Comité national pilote d’éthique du numérique s’est prononcé dès novembre 2021 pour des régulations plus précises. Son avis montre pourquoi les chatbots devraient être classés parmi les systèmes d’IA à haut risque, dans la future directive européenne.

A l’échelle européenne, la réflexion sur les modèles de langue commence tout juste. Le projet de recherche TechEthos, qui réunit plusieurs pays et auquel contribue le CEA, rendra début 2023 une série de recommandations, après avoir analysé dans un rapport, en juin, les problèmes éthiques posés par cinq technologies dont celles du traitement du langage et de la réalité virtuelle.

A-t-on pris la mesure de ces transformations ?

Pas encore sur le langage. Et c’est inquiétant. Il n’est plus besoin d’aller consulter l’oracle de Delphes, ou d’appeler un magicien. Générer du langage non humain est devenu simple et accessible à tous. Or le langage est constitutif de l’identité de l’être humain et de sa vie en société. On est en train de modifier et la condition humaine et la société.


Aucun commentaire:

Enregistrer un commentaire