blogspot counter

Articles, témoignages, infos sur la psychiatrie, la psychanalyse, la clinique, etc.

dimanche 3 septembre 2023

Prémices du grand remplacement : l’IA est-elle l’avenir de l’homme ?

Publié le 02/09/2023

Dans cette tribune, le psychiatre Alain Cohen, dont les lecteurs du JIM connaissent bien les contributions, en multipliant les références toujours pertinentes à la littérature (de science-fiction bien sûr), à l’histoire et à la philosophie nous invite à aller bien plus loin que les habituelles digressions sur l’intelligence artificielle en médecine (et en psychiatrie notamment). Car on n’y évoquera pas les limites de l’intelligence artificielle ou les peurs qu’elle provoque, mais on découvrira comment cette innovation éclaire d’un jour singulièrement nouveau la question centrale de Dieu (entre autres) … A ne remplacer par une autre lecture sous aucun prétexte.

Par le Dr Alain Cohen

      « Quelque chose est passé dans le réel, et nous sommes à nous demander –peut-être pas très longtemps, mais des esprits non négligeables le font– si nous avons une machine qui pense. » (Jacques Lacan, conférence du 22 juin 1955, Psychanalyse et cybernétique ou de la nature du langage)

       « Sous l’impulsion de l’IA, un grand nombre de gens ont soulevé d’intéressantes questions concernant le langage, la lecture et la compréhension […]. En tentant de reproduire nos processus de pensée en machine, nous en apprenons sans cesse davantage sur ce que signifie ‘‘être humain’’. Au lieu de nous déshumaniser, ces recherches nous ont contraints à prendre conscience des qualités et des facultés humaines. » Roger Schank, The cognitive computer : on language, learning, and artificial intelligence, 1985, cité in D. Crevier, À la recherche de l'intelligence artificielle, trad. N. Bucsek, Flammarion, 1999.

     « Quand vous lirez ceci, le chatbot d’intelligence artificielle GPT-4 aura pris le contrôle éditorial du British Journal of Psychiatry et produira régulièrement de meilleures colonnes mensuelles que celle-ci »[1] : par cette introduction provocatrice, le psychiatre britannique Derek K Tracy nous invite à réfléchir sur les bouleversements que ne vont pas manquer d’apporter les applications ubiquitaires des systèmes d’intelligence artificielle (IA) dans toutes les professions, et en particulier dans notre propre discipline. En paraphrasant l’opinion de Louis Aragon sur « l’avenir de l’homme », on doit donc s’interroger sur le rôle croissant des technologies d’IA dans nos activités humaines. Gains de productivité, synonyme de chômage dans des métiers (col blancs, cadres, professions libérales) jusque-là plutôt épargnés par le déferlement des machines et des ordinateurs ? Disruption ? Ou même grand remplacement de l’homme au travail par l’IA ?...

Vers une singularité technologique ?

Pour le psychologue universitaire Sylvain Missonnier, les avancées « stupéfiantes d’une IA évolutive rapprochent singulièrement les robots des systèmes autonomes envisagés par la science-fiction[2]. » Elles « brouillent les cartes et sèment le doute dans la distinction entre les catégories de l’environnement humain et non humain. » Cette incertitude sur la nature (vivante ou non vivante) d’une chose suscite le concept d’« inquiétante étrangeté » (uncanny) proposé en 1906 par le psychiatre allemand Ernst Jentsch (1867–1919), puis développé par Sigmund Freud en 1919 dans son essai Das Unheimliche[3], traduit en français par Marie Bonaparte sous le nom L’Inquiétante étrangeté.

Ce concept connaît une nouvelle actualité avec l’incertitude sur le statut (humain ou mécanique ?) d’un robot humanoïde et sur le statut (intelligent ou non ?) relatif à une machine, autrement dit la question de savoir si une machine est désormais apte à passer le fameux test de Turing[4]. Comme le rappelle le psychiatre et psychanalyste Philippe La Sagna[5], « l’idée demeure de faire que la machine se substitue à l’humain ; les sciences ne se penchent plus sur le grand livre de la nature mais sur celui de l’artificiel qui devient plus réel que le monde. » Mais selon un aphorisme d’Herbert Simon (1916–2001), pionnier de l’IA et Prix Nobel d’économie 1978, on peut contester cette opposition entre « naturel » et « artificiel » : « Quoi de plus naturel que les sciences de l’artificiel ? ».

Philippe La Sagna nous invite à réfléchir sur la finalité de cette compétition homme/machine : « Face au bond technologique que réalisent les machines et la fameuse IA, tout le monde se désole de l’inertie qu’introduit la ‘‘lenteur’’ de la race humaine. Chacun attend le moment, ‘‘la singularité’’, l’émergence de l’esprit chez les machines, avec une naïveté confondante. Le ‘‘but ultime’’ sera : anticiper les besoins de chacun, prédire les comportements, orienter les choix et peut-être les opinions[5]. » Cette « singularité » est un scénario où l’émergence de l’IA amorcerait « un emballement de la croissance technologique entraînant des changements imprévisibles dans la société humaine. » Avec un risque (possible ? probable ? inéluctable ?) de « grand remplacement » de l’homme dans nombre de ses activités ?...

Homme ou machine ?

Dans Blade Runner (le film de science-fiction de Ridley Scott), des protagonistes ont des doutes sur la réalité de leur propre statut : sont-ils eux-mêmes des robots ou des humains ? Ils doivent alors passer le test de Turing[4] pour trancher ! Selon Alan Turing, on pourra qualifier une machine d’« intelligente » quand, lors d’un dialogue entre cette machine et un humain, il deviendra impossible d’opérer la distinction entre les deux locuteurs. Par généralisation de ce test, peut-on imaginer une IA capable de stipuler la nature (humaine ou non) d’autres IA ? En d’autres termes, deux IA communiquant entre elles pourraient-elles simuler un statut humain l’une par rapport à l’autre ? Ou à l’inverse, deux humains se faire passer abusivement pour des machines ? Questionnant la pertinence épistémologique du test de Turing, ce problème de la discrimination homme/machine a passionné le philosophe américain John Searle, auteur d’une célèbre expérience de pensée (dite de la « chambre chinoise[6] ») où même un Chinois ne pourrait plus savoir si son interlocuteur est un vrai Chinois ou un automate parfaitement instruit de la langue chinoise ! Dès la fin du XVIIIème siècle, il existe un phénomène précurseur de ce thème, quand le baron Wolfgang von Kempelen exhibe un mystérieux automate joueur d’échecs.

Célèbre sous le nom du « Turc[7] », et battant même Napoléon lors d’une partie au château de Schönbrunn à Vienne en 1809, cet automate défraye la chronique européenne puis américaine, après son achat par le musicien Johann Nepomuk Mælzel, l’un des inventeurs du métronome. Mais cet automate se révèle n’être qu’une mystification où un joueur humain (de petite taille mais de grand talent) se dissimule dans la machine ! « Affaire entendue, aucune machine ne peut supplanter l’homme ! » s’écrient alors ceux qui avaient pourtant accrédité l’éventualité ! Or l’essor de l’informatique entraîne un tête-à-queue complet de cette conviction : avant d’attribuer à un être humain des performances exceptionnelles en calcul mental ou aux échecs, il faut désormais s’assurer qu’il n’est pas discrètement aidé par un ordinateur, comme cet automate jadis assisté d’un humain !

Réactualisant sans tricherie le défi de Von Kempelen, les machines jouant aux échecs sont devenues réelles : longtemps Saint Graal de l’informatique, cette victoire mythique de la machine sur le meilleur joueur mondial survient en mai 1997 quand Garry Kasparov est battu par l’ordinateur Deep Blue[8], programmé par une équipe à laquelle IBM aurait ouvert un « crédit illimité » pour améliorer le logiciel antérieur, Deep Thought. Kasparov estimait pourtant qu’aucune machine ne pourrait jamais le battre, « faute d’intuition, ou de faculté d’adaptation à des situations imprévues ». La question est aujourd’hui réglée : aux échecs (jeu longtemps tenu pour exemplaire des facultés cognitives), les ordinateurs peuvent rivaliser même avec le champion du monde ! Déjà ouvriers, partenaires de jeu, les robots avec IA vont-ils concurrencer l’homme pour d’autres tâches intellectuelles ?...

Pour approfondir ce thème, rien de mieux que de s’adresser à une IA elle-même, en l’occurrence au chabot conversationnel, hébergé désormais par Bing (le moteur de recherches de Microsoft Edge). Nous lui avons donc soumis cette question : « Quel est l’intérêt de l’IA en psychiatrie ? ». Voici en résumé sa réponse : « L’IA peut apporter des bénéfices potentiels en psychiatrie, comme l’amélioration de l’accès aux soins, la réduction des coûts, l’optimisation du temps médical, la personnalisation des interventions ou l’implication du patient. Cependant, elle pose aussi des défis et des limites, comme les questions éthiques, juridiques et sociales liées à la protection des données personnelles, au respect de la confidentialité, à la responsabilité en cas d’erreur ou à la relation thérapeutique. »

À ce propos, Derek K Tracy[1] rappelle que, contrairement à HAL 9000 (l’IA de science-fiction dans le roman d’Arthur C. Clarke 2001, l’Odyssée de l’espace), les IA « ne tuent pas intentionnellement des humains », mais que « dans le domaine des sollicitations de conseils médicaux, cela pourrait être un résultat involontaire, notamment si la préconisation est en apparence raisonnable et non manifestement trompeuse. » Autre sujet à méditer, cette référence explicite à la psychiatrie dans les dysfonctionnements des IA : « les fausses réponses sont appelées ‘‘hallucinations’’ dans le jargon des chatbots ». Dès les années 1960, on suggère qu’une machine sera vraiment intelligente le jour où, pour corriger une panne, on hésitera entre la consultation d’un ingénieur informaticien ou celle d’un psychothérapeute...

Effet Eliza

Entre 1964 et 1966, l’IA connaît une avancée « psychiatrique » quand l’informaticien Joseph Weizenbaum (1923–2008) conçoit le programme Eliza qui propose une simulation informatique d’une psychothérapie. Plus précisément, la simulation d’un psychothérapeute rogérien, connu pour reformuler la plupart des affirmations du patient en lui renvoyant ses propos exprimés différemment. Rappelons que Carl Rogers (1902–1987) est un psychologue américain, promoteur de psychothérapie non-directive et de l’approche centrée sur la personne (client-centered therapy, person-centered approach). Célèbre dans dans les années 1960 et 1970, cette thérapie non-directive consiste à s’abstenir de toute pression susceptible de suggérer au sujet une direction ou d’inspirer ses évaluations et ses choix.

Depuis l’essor de programmes de type Eliza, on désigne par « effet Eliza » la tendance à « assimiler de manière inconsciente le comportement d’un ordinateur à celui d’un être humain », par analogie avec la tendance de certains patients à doter le prototype d’agent conversationnel Eliza d’un statut humain. L’universitaire américain Douglas Hofstadter donne un exemple courant d’effet Eliza (prêter des sentiments, une humanité, ou une IA à une machine) avec le cas d’un distributeur automatique affichant « MERCI » à la fin d’une transaction : « certaines personnes pourraient penser que la machine exprime sa gratitude ; or, elle ne fait qu’afficher une suite de symboles pré-programmés. » Dans ce cas, l’effet Eliza désigne « la prédisposition à attribuer (aux messages de la machine) plus de sens qu’ils n’en ont réellement. »

Parry

Outre les classiques modèles animaux des maladies, la médecine (et notamment la psychiatrie) vont s’enrichir désormais de modèles informatiques des maladies. Exemple avec cette question soumise à l’IA de Bing : « Quels seraient les équivalents d’une dépression, d’une psychose, d’une anorexie mentale, ou d’un trouble du spectre de l’autisme  pour une IA ? » Réponse édifiante du chabot de Microsoft : « Les troubles mentaux comme la dépression, la psychose, l’anorexie mentale et les troubles du spectre de l’autisme sont des conditions complexes affectant les êtres humains. Ils sont liés à des facteurs biologiques, psychologiques et environnementaux complexes et ne peuvent pas être directement comparés ou appliqués à une IA. Une IA est un programme informatique conçu pour effectuer des tâches spécifiques en utilisant des algorithmes et des modèles d’apprentissage automatique. Elle ne possède pas de conscience, d’émotions ou de capacités cognitives, similaires à celles des êtres humains. Par conséquent, elle ne peut pas être affectée par des troubles mentaux comme les êtres humains. Cependant, il est possible que des erreurs ou des dysfonctionnements dans les algorithmes ou les modèles d’apprentissage automatique d’une IA puissent entraîner des comportements imprévus ou indésirables. Ces erreurs ou dysfonctionnements peuvent être corrigés en mettant à jour ou en améliorant les algorithmes ou les modèles d’apprentissage automatique. »

Mais dès 1972, Kenneth Colby, un psychiatre de l’université de Stanford (États-Unis) crée Parry[9], une simulation symétrique d’Eliza portant cette fois, non sur le thérapeute mais sur le patient ! Kenneth Colby propose à un groupe de 33 psychiatres de soumettre au test de Turing[4] cet agent conversationnel Parry, première simulation informatique d’un malade mental, destinée à modéliser le comportement d’un sujet atteint de schizophrénie paranoïde, Et « dans 48 % des cas, les praticiens ont identifié Parry comme une entité artificielle. » En d’autres termes, plus d’un psychiatre sur deux a cru se trouver en conversation, non avec une IA, mais avec un vrai patient ! Mais la rencontre la plus spectaculaire se déroule en janvier 1973 entre le pseudo-patient Parry et la pseudo-psychothérapeute Eliza (au MIT), lors d’une conférence internationale en informatique (avec Arpanet, l’ancêtre d’Internet), sous l’initiative de l’ingénieur informaticien Vint Cerf (co-inventeur des protocoles utilisés pour le transfert des données sur Internet). Cette conversation historique débute ainsi :

« Eliza : S’il vous plaît, pouvez-vous me dire ce qui vous tracasse ?
Parry : Les gens me tapent sur les nerfs.
Eliza : Je ne suis pas sûr de vous comprendre parfaitement.
Parry : Vous devriez m’accorder plus d’attention.
Eliza : Supposons que je vous accorde plus d’attention... »

JAMA Psychiatry réfléchit aussi à « l’impact des grands modèles linguistiques alimentés par l’IA[10] » : « Les applications de l’IA en psychiatrie sont variées et comprennent le développement de modèles de prédiction pour la détection et le pronostic des maladies, la création d’algorithmes pouvant aider les cliniciens à choisir le bon plan de traitement, le suivi des progrès des patients en fonction de données provenant d’appareils portables, la création de chatbots offrant des interventions plus personnalisées, et en analysant les transcriptions des séances de thérapie pour améliorer la fidélité et la qualité du traitement. » Mais le déferlement de l’IA suscite aussi de sérieuses inquiétudes, résumées dans une récente lettre ouverte. Signée par Elon Musk (accessoirement, seconde fortune mondiale, et pourtant l’un des investisseurs dans OpenAI, société-mère de ChatGPT), par le cofondateur d’Apple Steve Wozniak, par le cosmologiste Max Tegmark (auteur en 2017 de l’ouvrage La vie 3.0 : être humain à l’ère de l’intelligence artificielle posant notamment ces questions : « Ne sommes-nous pas en train de fabriquer ce qui fera notre perte ? Comment éviter que les machines prennent le dessus ? Quel futur voulons-nous pour les générations à venir ? » et par d’autres, cette lettre ouverte demande « un moratoire » sur l’application ubiquitaire de cette technologie prométhéenne...

Vers un effet Theuth ?

Terme utilisé pour décrire les possibles effets pervers d’une invention culturelle sur nos facultés cognitives. l’effet Theuth fait référence à un passage du Phèdre de Platon où le dieu Theuth présente l’écriture comme remède au défaut de mémoire. Or un roi des Égyptiens dans l’Antiquité, Thamous, félicite Theuth pour sa découverte, mais le met aussitôt en garde contre son usage car « en dispensant les hommes d’exercer leur mémoire, l’écriture produira l’oubli dans l’âme de ceux qui en auront acquis la connaissance. » Comme Thamous, le dieu-soleil Râ prévient Theuth qu’en voulant « aider les hommes à se souvenir », il leur donne du même coup « le moyen d’oublier tout ce qu’ils savent, sans nécessité de s’en souvenir, en se contentant de tout consigner par écrit, sans réfléchir ! ».

Savoir lire et écrire abêtirait-il les humains ? À l’instar du dieu Râ, Einstein met en garde contre les excès pernicieux de la lecture : « Passé un certain âge, lire détourne trop l’esprit de ses activités créatrices. » Nommé par Joël Candau, professeur d’anthropologie à l’Université Côte d’Azur, dans son livre Anthropologie de la mémoire (2016) pour décrire les effets indésirables d’une invention culturelle, l’effet Theuth concerne d’autres innovations, porteuses d’effets pervers sur nos facultés cognitives et sensorielles, comme l’utilisation excessive des smartphones et des réseaux sociaux pouvant affecter notre capacité d’attention et notre mémoire. Parallèle évident à faire entre l’IA et l’effet Theuth : aura-t-on tendance à négliger certaines tâches intellectuelles, à s’en décharger sur des IA ? Éclairage de Xavier Aimé[9] : « Depuis la nuit des temps, l’homme ne cesse de s’augmenter, sur le plan mécanique ou cognitif. À ce titre, l’écriture fut le premier moyen d’étendre sa mémoire. Avec l’avènement de l’IA, c’est non seulement sa capacité à mémoriser qu’il étend encore plus, mais aussi sa capacité à raisonner et manipuler une quantité phénoménale de données en temps record. Ce nouveau paradigme cognitif change la donne. La médecine est sans doute le domaine où l’IA est le plus en pointe. La psychiatrie semble rester en phase de découverte... Mais l’IA la touchera également en lui apportant son lot de sujets pathologiques souffrant d’un nouveau trouble dissociatif, celui de l’homme et de son alter ego virtuel. »

IA et religions

Le mot « ordinateur » date de 1955, proposé par Jacques Perret (1906–1992), professeur de philologie latine à la Sorbonne, à la demande du responsable publicitaire d’IBM souhaitant un nom pour communiquer sur le « calculateur », traduction littérale du mot « computer. » Comme l’appellation « calculatrice électronique type 650 » ne paraissait pas assez « sexy » » pour une publicité, Jacques Perret propose le mot « ordinateur », un mot du vocabulaire théologique tombé en désuétude, désignant selon le Littré « Dieu mettant de l’ordre dans le monde. » Selon le Dictionnaire des sciences dirigé par Michel Serres et Nayla Farouki, le terme « ordinateur » évoque « un vieux mot de latin d’église qui désignait dans le rituel chrétien celui qui procède à des ordinations et règle le cérémonial. »

Rappelons aussi l’étymologie du terme anglais « computer » : le verbe latin « computare » (calculer), à l’origine du terme « comput » (calcul du calendrier des fêtes mobiles). Ces connotations religieuses dans l’informatique sont-elles contingentes, ou au contraire révélatrices de liens plus profonds ? Dans la nouvelle de science-fiction Bonnes nouvelles du Vatican, Robert Silverberg évoque un robot intelligent qui devient pape ! Einstein est plus réservé : « Les machines pourront un jour résoudre tous les problèmes, mais jamais aucune d’entre elles ne pourra en poser un » : cette absence de problème constituera-t-elle un nouveau problème à soumettre à ces machines intelligentes ? Voltaire met en garde : « Si l’homme était parfait, il serait Dieu ». Une créature de l’homme

pourrait bien rechercher elle-même un créateur divin pour son propre créateur humain. Jacques Van Herp rappelle ainsi comment l’idée de Dieu procède d’une récurrence gigogne dans Dialogue avec le robot (The Quest of saint Aquin) d’Anthony Boucher : « Remontant aux causes premières, le robot créé par l’homme en déduisait que l’homme nécessitait (également) un Créateur ». Et dans la saga de Clifford Simak, Demain les chiens (où l’humanité abandonne la Terre à une race de chiens intelligents qu’elle a créée), le souvenir de l’homme tend à devenir chez ces chiens une figure divine, mythique et controversée. Dans la nouvelle de Frederic Brown, Answer (La réponse), écrite en 1954, bien avant l’Internet et les IA, on s’apprête à relier tous les ordinateurs de tous les systèmes stellaires colonisés par l’homme, pour les relier en un supercalculateur et soumettre à leurs puissances de calcul cumulées cette question suprême encore en suspens : « Existe-t-il un Dieu dans l’Univers ? ».

Dès que l’interconnexion définitive de tous ces calculateurs est établie, la réponse si longtemps attendue tombe enfin, avec un grand éclair lancé par le supercalculateur : « Oui, maintenant, il y a un Dieu ! ». Variation sur l’IA : on demande dans un avenir (proche ?) au superordinateur Alpha-Oméga quelle est sa finalité. Réponse de la machine pensante : « fabriquer d’autres superordinateurs Alpha-Oméga qui domineront la Terre à votre place et auxquels vous, êtres inférieurs, rendrez un culte mérité ! ». Combinant la notion d’automate autoreproductible de Von Neumann[11] avec la réversibilité du mythe de la Genèse, ce scénario débouche sur l’aspect démiurge des recherches sur l’IA : ce n’est plus Dieu qui aurait fait jadis l’homme à son image dégradée, mais, comme dans La réponse de Frederic Brown, l’homme faustien risque un jour de faire Dieu à son image améliorée !... Par paraphrase de Clemenceau (affirmant que « la guerre est trop grave pour la confier à des militaires »), doit-on penser que le concept de Dieu serait trop important pour être abandonné aux seules religions ?

Dr Alain Cohen

Copyright © 2023 JIM SA. Tous droits réservés.


Aucun commentaire: