blogspot counter

Articles, témoignages, infos sur la psychiatrie, la psychanalyse, la clinique, etc.

samedi 29 octobre 2022

Surveillance, travail : les leurres de l’intelligence artificielle

par Marc-Eric Bobillier Chaumon, Professeur, titulaire de la chaire de Psychologie du travail du Conservatoire national des arts et métiers à Paris

publié le 28 octobre 2022

 Pour assurer la sécurité des citoyens ou améliorer l’efficacité dans le monde du travail, suffit-il de mettre en place les bons outils numériques ? Répondre «oui», c’est céder à une vision techno-centrée qui réduit les humains à de simples exécutants, analyse le chercheur Marc-Eric Bobillier Chaumon.

Lors du procès de l’attentat de Nice, qui se tient actuellement au tribunal de Paris, Christian Estrosi qui était alors, en 2016, adjoint chargé de la sécurité, s’est défendu de toute négligence en arguant du fait que cette catastrophe aurait pu sans doute être déjouée par un système à base d’intelligence artificielle (IA). Cette IA aurait pu permettre de visionner et d’analyser les images fournies par les quelque 1 836 caméras disséminées à l’époque dans la ville (contre 4 000 actuellement) et de lancer l’alerte : «Il aurait fallu avoir recours à l’intelligence artificielle, à des algorithmes qui nous sont aujourd’hui encore interdits», affirme-t-il (Libération, daté du 20 octobre 2022).

Une nouvelle fois, le leurre de l’IA refait surface. La technologie n’est plus vue comme une solution possible pour résoudre des difficultés ou encore améliorer le quotidien de leurs usagers, mais elle devient la solution pour régler tous les problèmes, les plus exceptionnels comme les plus quotidiens, qui peuvent se poser dans le travail afin d’optimiser son fonctionnement et sa performance. Dans cette vision essentialiste et très déterministe, il suffirait en somme de mettre en place les bons outils : améliorer l’intelligence collective par des outils collaboratifs ; disposer de plus d’efficience et de créativité par le déploiement de l’IA qui libère les individus de tâches inutiles ou à faible valeur ajoutée, avoir des personnes mieux formées et plus compétentes grâce à des environnements immersifs d’apprentissage (métavers), compter sur des salariés plus impliqués et fidèles à l’entreprise par la mise en place de modalités de travail hybrides, (flex office) ou encore, manager des personnes épanouies et heureuses grâce à des technologies qui prennent en charge le bien-être au travail («happy tech» et «smart working» qui n’en ont que le nom).

Il est urgent de reconsidérer cet absolutisme

Dans ces exemples, ces technologies sont vues au mieux comme des systèmes qui viennent pallier les déficiences, les fragilités ou les incompétences des personnes, au pire comme des outils qui font supposer à leur promoteur que ces dispositifs feront davantage et surtout mieux que les salariés (comme dans le contrôle des vidéos à Nice). Surtout, ces outils représentent un atout de taille pour les organisations : ils réalisent les tâches demandées, selon les standards de qualité et de production attendus, sans s’en écarter comme le font les professionnels.

Cette vision techno-centrée relègue les individus au second plan, comme de simples exécutants de technologies omniscientes et omnipotentes. Or, dans le cadre du déploiement rapide et souvent brutal des innovations techniques dans le monde du travail, il est urgent de reconsidérer cet absolutisme. Il y a au moins trois raisons qui le justifient.

D’abord, ces technologies émergentes ne sont pas intelligentes par elles-mêmes ; c’est bien l’activité humaine qui permet à ces artefacts techniques d’être intelligents, ou, en tout cas, de déployer des conduites en cohérence avec les circonstances et les attendus particuliers de la situation. Ainsi, un robot aspirateur ne pourra bien faire sa tâche que si l’usager a auparavant veillé à arranger l’espace domestique pour supprimer les potentiels obstacles (chaussette, jouet…) qui pourraient bloquer l’aspirateur. Même chose pour les assistants vocaux (de types Alexa, ou Google Home…) où ce sont les usagers qui doivent ajuster leur langage (débit, vocabulaire simplifié, articulation) pour être compris par le système. C’est donc l’individu qui s’adapte à la technologie et non le contraire.

Ces dispositifs génèrent trop de données à traiter

Autre problème, le risque de soumission à une autorité technologique : d’abord, parce que ces systèmes sont annoncés comme infaillibles ; comme le commentaire de Christian Estrosi le laisse supposer. Or, les scènes enregistrées par la vidéo sont à la fois si complexes et singulières qu’elles ne peuvent être interprétées par la seule machine : comment décrypter l’implicite des interactions sociales filmées, interpréter le sens des situations en contexte, comprendre la signification des intentions humaines (comme des adolescents qui chahutent, une personne qui court après une autre ou une chute accidentelle) ?

Ensuite, parce que ces dispositifs génèrent un nombre si important de données à traiter qu’il est tout simplement impossible pour un individu de gérer cette masse ininterrompue d’informations et surtout d’en comprendre les tenants et aboutissants. On va donc s’en remettre à une technologie qui va traiter les données qu’elle a elle-même générées. Cet état de soumission et de dépendance, que Stanley Milgram avait qualifié d’«Etat agentique», retire tout sens critique et pouvoir d’actions et de décisions aux individus, qui obéissent aveuglément aux injonctions de l’autorité.

Enfin, le manque d’entretien de la compétence professionnelle, qui se trouve déléguée à la technologie, favorise sa déliquescence mais induit également une moindre confiance dans sa maîtrise ; ce qu’on appelle le sentiment d’efficacité personnelle (Albert Bandura). En clair, en salle de contrôle des vidéos, le professionnel devient non seulement moins bon dans l’analyse des scènes dont il a la responsabilité, mais il doute également de son expertise et de ses analyses.

En définitive, l’intégration de technologies émergentes telles que l’IA dans des activités complexes et sensibles ne peut se décréter ni s’imposer du fait d’une simple décision organisationnelle ou politique (comme on l’a encore vu sur le non-recours aux aides sociales du fait d’une digitalisation excessive des démarches). La conception de tels outils et du projet de changement associé doit se faire dans le cadre d’un dialogue professionnel constant avec les principaux concernés – les salariés qui sont experts de leur métier – et d’une connaissance préalable de l’activité qui se fait. Le projet de transformations digitales peut aussi être l’occasion de repenser collectivement le travail d’avant, pour mieux penser et concevoir celui d’après : avec ou sans les technologies en identifiant bien la place et le rôle qu’elles doivent jouer dans l’activité et au côté des sujets.


Aucun commentaire: