vendredi 23 juin 2023

Panique room Après l’éco-anxiété, l’«IA-anxiété» ?

par Clémence Mary  publié le 19 juin 2023

Comment ne pas succomber à la panique collective générée par le lancement de ChatGPT ? En se rappelant que, derrière le boom de l’intelligence artificielle, se cache un marketing de la peur qui s’ancre dans une histoire du progrès technologique.

De ChatGPT à Midjourney, les intelligences artificielles sont devenues omniprésentes dans l’actualité… et dans nos vies. «Libération» a demandé à Cédric Villani d’être son rédacteur en chef d’un jour pour un numéro spécial entièrement consacré aux IA. Retrouvez tous les articles de cette édition ici, et le journal en kiosques, mardi 20 juin.

Esquiver les conversations sur le sujet, détourner le regard, zapper de chaîne télé ou radio, bref faire comme si ChatGPT n’existait pas.Il a fallu se rendre à l’évidence : l’espace d’un instant, l’intelligence artificielle (IA) a plongé l’autrice de ces lignes en plein déni. Pas encore de palpitations, d’insomnies ou autres symptômes dépressifs mais une angoisse sourde qui pourrait ressembler à ce qui porte désormais un nom : l’éco-anxiété, ce sentiment de désespoir et d’impuissance face à la crise écologique et l’hypothèse d’un effondrement de la civilisation. Serait-on en train d’assister à la naissance d’un nouveau mal du siècle en voie de labellisation, l’IA-anxiété ?

Initiative inédite, signe et source d’un vent de panique, une pétition signée par plus de 1 300 experts et personnalités internationales a été publiée fin mars pour réclamer un moratoire sur le déploiement de la solution et un arrêt de la recherche sur l’IA pendant six mois. Raison évoquée : un «risque majeur pour l’humanité» et des «perturbations économiques et politiques dramatiques en particulier pour la démocratie», ainsi que le refus de laisser à des leaders technologiques non élus la décision de développer ces «cerveaux numériques», au risque «d’automatiser les emplois». Mais l’apparence hasardeuse des modalités proposées – pourquoi six mois ? – a contribué à semer le doute dans l’opinion publique sur la capacité des dirigeants, politiques ou spécialistes, à maîtriser l’engin.

Parmi les voix portant et nourrissant ces inquiétudes, celle de l’astrophysicien Stephen Hawking qui alertait, dès 2014, sur le risque que l’intelligence artificielle mette fin à l’humanité, laquelle serait peu à peu remplacée par des robots ; celle de Geoffrey Hinton, «parrain» de l’IA chez Google, qui a expliqué dans le New York Times pourquoi, inquiet, il quittait le navire, une partie de lui regrettant «l’œuvre de sa vie». Sans compter celle d’Elon Musk, signataire de la pétition susmentionnée et qui ambitionne de son côté de lutter contre le potentiel de «destruction civilisationnelle»de l’IA par un contre-projet annoncé il y a quelques semaines.

«Panique générale façon Tchernobyl»

Spécialistes de la santé mentale, de l’innovation ou anthropologues s’accordent sur un constat : l’arrivée de l’agent conversationnel a créé «une perte de repères, une panique générale façon Tchernobyl qui va au-delà de l’anxiété», confirme le philosophe Thierry Ménissier, titulaire de la chaire «Ethique & IA» à l’université Grenoble Alpes. Reste à savoir si ce qui se passe est réellement inédit sur le plan de la réception collective ou de l’innovation elle-même. Contrairement à l’éco-anxiété vécue comme une dépression intime, décrite par exemple par la philosophe Corine Pelluchon, la singularité de l’«IA-anxiété» réside peut-être dans son caractère collectif : les symptômes sont encore peu identifiés à l’échelle individuelle, mais à longueur d’articles de presse, de tribunes – de traducteurs inquiets, par exemple – ou en creux via les discours de scientifiques qui se veulent rassurants comme Laurence Devillers ou Aurélie Jean, s’expriment une «angoisse» et une «peur» souvent mal définies.

Si «l’inquiétude majeure porte sur les emplois», résume le psychiatre Serge Tisseron, son caractère diffus s’expliquerait par l’inconsistance de son objet. «On a peur de ce qu’on ne connaît pas, et cette technologie, on ne la maîtrise pas, décrypte Vanessa Lalo, psychologue spécialiste du numérique. Comme on ne sait pas quelle question se poser, le pire est envisagé. La défiance et la crainte ne portent pas sur des enjeux précis.» Comme face à un monstre invisible, la machine à fantasmes se met en route, nourrie de tout un imaginaire de science-fiction grouillant de robots typiques des années 50-70, à l’image même des illusions, langagières ou visuelles, créées par ChatGPT. De son côté, le psychologue Frédéric Tardo fait face à l’essor de «patients qui se sentent vides, comme atteints d’une angoisse à être, simplement». Pour le co-auteur (avec Serge Tisseron) de Comprendre et soigner l’homme connecté. Manuel de cyberpsychologie (Dunod, 2021), les progrès de l’IA ont entraîné une partie des travailleurs de l’industrie, soumis à une concurrence croissante avec la technologie et une vision de plus en plus désincarnée de leurs tâches, vers «une mélancolie du lien social».

Si l’anxiété n’explose que maintenant, c’est selon lui que «l’IA, qui se résumait jusqu’à présent à des algorithmes dans le secteur industriel, s’incarne pour la première fois dans le langage, qui est le propre de l’homme et dont elle semble nous déposséder. Et comme l’IA se met désormais à produire de l’art, de quoi va-t-elle nous déposséder plus tard ?» postule-t-il. En simulant des comportements humains, ChatGPT crée un sentiment quasi-freudien «d’inquiétante étrangeté» fondé sur l’illusion d’un rapport à l’autre, similaire mais non-vivant. Cette angoisse du remplacement serait au fond une atteinte narcissique, une remise en cause de l’estime de l’homme pour lui-même et de sa croyance en ce qu’il a de plus singulier.

Retournement d’une invention contre son créateur

«Le problème, c’est que la dramatisation empêche de penser rationnellement», pointe le philosophe Philippe Huneman, directeur de recherche au CNRS.

Le spécialiste appelle à distinguer les craintes légitimes, portant sur des aspects précis, comme le rapport à la vérité et à la réalité, que risque de brouiller la création de fausses informations et d’images, et les angoisses plus existentielles sur une éventuelle domination, à long terme, des robots sur les humains, façon Golem ou Frankenstein, éternel mythe du retournement d’une invention contre son créateur.

Précisément, «ce marketing de la peur a toujours été lié à des finalités commerciales, cette panique n’a rien de spontanée», observe Antonio Casilli, professeur de sociologie à Télécom Paris. L’auteur d’En attendant les robots (Seuil, 2019) rappelle que ce sont les producteurs eux-mêmes qui diffusent ces discours anxiogènes pour entretenir l’idée d’une technologie hors sol, qui se développerait sur un mode magique et difficile à maîtriser. Il distingue trois vagues prophétiques, depuis la fin des années 80. C’est alors la première grande phase de l’IA, marquée par l’essor des «systèmes experts» (logiciel capable de répondre à des questions) qui suscite déjà au mitan des années 90 les prémices du débat, opposant d’un côté Jeremy Rifkin, qui publie en 1995 la Fin du travail, et, en France, des sociologues comme Dominique Méda.

Une approche «réductionniste»

Quelques années plus tard, en 2013, c’est une étude de deux chercheurs d’Oxford sur l’autonomisation des tâches qui ranime la controverse en annonçant que 47 % des emplois américains seraient remplacés à l’horizon 2030. «Aujourd’hui, ce n’est pas ce qui se profile», modère Casilli, qui déplore une approche «réductionniste». «Un métier ne se résume pas à une somme de tâches ! La réalité est toujours différente de la théorie. Il existe des lois, des tensions sociales, humaines et politiques qui ne sont pas prises en compte dans ces prédictions.» En janvier 2023, le schéma se répète avec la parution de l’étude de chercheurs issus entre autres d’OpenAI, selon laquelle 80 % des employés américains risquent de voir 10 % des tâches qui constituent leur travail prises en charge par ChatGPT. «Les tâches cognitives routinisées qu’on trouve dans les métiers de l’information ou juridiques par exemple… Mais l’objectif d’OpenAI n’est pourtant pas de détruire le monde du travail ou l’humanité mais simplement de battre la concurrence et les Gafam», tempère Casilli.

Et l’on pourrait dérouler encore le fil de l’histoire, jusqu’à remonter à l’aube de l’ère industrielle, dès la fin du XVIIIe siècle, quand les «briseurs de machines» étudiés par les historiens François Jarrige ou Eric Hobsbawm – soit des groupes d’ouvriers, fileurs de laine notamment – se rassemblent pour faire valoir leur travail et leurs revendications en détruisant les mécaniques, «tueuses de bras», en Angleterre puis en France… Encore plus loin, l’invention de l’imprimerie charriait déjà au XVe siècle son lot de critiques, d’affolements et de transformation des métiers.

Comme toute technologie, «l’IA est un miroir tendu à nos propres pratiques, conclut Thierry Ménissier. La panique s’empare de la société quand il y a une imprécision dans les énoncés, comme quand ChatGPT fait des erreurs factuelles sur la base d’une mauvaise compilation de données. Mais cette machine ne pense pas». L’enseignant milite pour mettre en place des conventions citoyennes participatives, afin de nourrir le débat éthique d’une meilleure connaissance des expériences des acteurs, qu’ils soient usagers, concepteurs ou prescripteurs. Contre la peur de l’inconnu, comme une manière de réarmer l’intelligence collective, qui n’a rien d’artificielle.


Aucun commentaire:

Enregistrer un commentaire