par Nicolas Celnik publié le 27 octobre 2021 à
Les algorithmes n’ont plus le vent en poupe. Il n’y a pourtant pas si longtemps, ils étaient encore présentés comme les instruments de la disruption, et les garants d’une justice objective et équitable. Mais les différents travaux de recherche qui se sont penchés sur les biais algorithmiques et leurs effets sur la société ont sérieusement écorné cette image : il en ressort que l’algorithme de YouTube favorise les contenus complotistes, que celui de Twitter diffuse plus largement les contenus politique de droite, que ceux utilisés par certains Etats américains pour faire de la justice prédictive sont plus sévères contre les Africains-Américains. Ou encore que celui de Google proposait des contenus pornographiques aux requêtes sur les «filles asiatiques» ou les «femmes noires». Tout récemment, Frances Haugen, la lanceuse d’alerte à l’origine d’une fuite de documents internes de Facebook, s’en est pris aux algorithmes de l’entreprise : «Facebook a montré que s’il revoyait son algorithme pour qu’il [affiche moins de contenus haineux aux utilisateurs], les gens allaient passer moins de temps sur le site, cliqueraient sur moins de publicité et généreraient donc moins d’argent.» D’autres documents internes laissent à penser que les programmes auraient en outre échappé au contrôle de leurs créateurs.
Mais les biais des algorithmes suffisent-ils à tout expliquer ? Pour certains chercheurs, il y aurait là une méprise : à trop regarder les effets des algorithmes, on oublie de les étudier eux-mêmes. Comme s’ils étaient des «boîtes noires» impossibles à ouvrir, à peu près autonomes – la preuve, il y a encore des débats pour définir ce qu’est un algorithme.
Pour montrer qu’il n’en est rien, le sociologue à l’université de Lausanne Florian Jaton a entrepris d’étudier un sujet négligé jusqu’à présent : les conditions sociales de fabrication des algorithmes. Dans The Constitution of Algorithms (MIT Press, 2021), il rend compte de plusieurs années d’enquête ethnographique au sein d’une équipe de développeurs dans un laboratoire à Lausanne. Avant lui, Bruno Latour et Steve Woolgar avaient montré que les discussions entre scientifiques à la machine à café ont des conséquences sur les théories qu’ils produisent ; Donald MacKenzie, Fabian Muniesa et Lucia Siu avaient étudié les économistes pour prouver qu’ils influençaient le marché avec leurs théories économiques. L’hypothèse de Florian Jaton est similaire : les conditions dans lesquelles les équipes de développeurs travaillent ont des conséquences sur le programme qu’ils vont fabriquer, et donc sur l’impact qu’aura ce programme sur notre société. Autrement dit, maintenant qu’on connaît les effets des algorithmes, il est temps de s’intéresser aux causes de ces effets.
Un certain rendement des «pisseurs de code»
Pour mettre en lumière les moments clés où les ingénieurs prennent des décisions qui changent la nature de leur programme, Florian Jaton a identifié trois étapes par lesquelles passe le programme de reconnaissance d’images produit par l’équipe qu’il étudie : la constitution d’une base de données, la formulation d’un cadre de fonctionnement qui repose sur des fonctions mathématiques, et des activités de programmation qui consistent à «interagir avec un ordinateur en passant par des pratiques assez bizarres comme écrire des listes de symboles numérotés», s’amuse le sociologue. Le profil des ingénieurs et leur environnement de travail peuvent modifier les pratiques au cours de chacune des trois étapes. Un exemple : pour collecter les images sur lesquelles entraîner son programme, l’équipe a aspiré celles postées sur la plateforme Flickr. «C’est une décision qui a été prise un peu par défaut, parce que les ingénieurs utilisaient Flickr dans leur vie quotidienne, remarque Florian Jaton. Mais ce n’est pas sans importance : Flickr est une plateforme utilisée par des gens issus d’un certain univers socio-économique (des hommes blancs aisés qui postent des photos de leurs vacances, pour simplifier), et les photos postées sur la plateforme reflètent cet univers. En conséquence, l’algorithme sera mieux entraîné à reconnaître des images qui proviennent de ce milieu.» D’autres éléments peuvent entrer en compte : des ingénieurs auxquels l’on demande un certain rendement – ceux que leurs confrères appellent des «pisseurs de code» – ne prendront pas le temps de rendre leur programme lisible, donc compréhensible et réutilisable par d’autres développeurs.
Remonter dans les cuisines des algorithmes permet à Florian Jaton de suggérer, à rebours de ce que l’on entend souvent, que «les biais ne sont peut-être pas les conséquences des algorithmes, mais l’un des éléments qui leur permet d’exister. D’où l’importance d’insister sur leur existence, de les rendre visibles, et, enfin, de les aligner avec les valeurs que les programmes sont supposés véhiculer», argumente le sociologue. Un peu à la manière d’un écrivain qui parle d’un point de vue situé pour donner à comprendre la manière dont il conçoit le monde, un algorithme pourrait un jour avoir à faire de même pour que les utilisateurs comprennent quels biais il peut véhiculer. Et si on a jusqu’à présent occulté la fabrique des algorithmes, c’est, pour Florian Jaton, en grande partie à cause du mathématicien et physicien John von Neumann, l’un des pères de l’informatique.
Une rockstar du monde scientifique
Un peu de contexte. La Seconde Guerre mondiale se profile, et les Etats-Unis planchent sur deux technologies qui leur permettraient de la plier en leur faveur : le projet Manhattan, qui donnera naissance à la bombe atomique, et le projet Eniac, le premier calculateur électronique programmable, qui doit permettre aux Américains de calibrer les trajectoires de vol de leurs armes à longue distance. John von Neumann dirige les deux projets, et publie en 1945 un rapport sur Eniac pour rendre compte des avancées du calculateur. Ce rapport, baptisé «First Draft», pose les bases de ce qu’est l’informatique selon Von Neumann ; il aura une influence déterminante sur son développement après-guerre. Mais il y a un hic : Von Neumann est à l’époque une sorte de rockstar du monde scientifique, et ses quelques visites sur le site ne lui permettent pas d’apprécier le projet dans son ensemble. Avant qu’il arrive, on fait le ménage dans le hangar, et on lui présente les résultats les plus satisfaisants. Le mathématicien ne voit qu’un programme (on entre des chiffres dans une machine, il en ressort d’autres chiffres, et c’est bien pratique pour savoir comment tirer un missile), là où toute une communauté de travailleurs est nécessaire à l’activité de programmation. Des travailleuses, surtout, dans la mesure où une grande partie des ingénieurs qui travaillent sur le projet sont des femmes – leur rôle dans le développement de l’informatique n’a été réhabilité que récemment par la sociologie féministe. Si le rapport de Von Neumann avait inclus l’ensemble de la chaîne de fabrication de l’ancêtre de nos ordinateurs, «on aurait peut-être aujourd’hui une conception de l’ordinateur beaucoup plus large, réfléchit Florent Jaton. On pourrait par exemple penser la chaîne opératoire qui fait fonctionner ces machines à calculer comme une sorte d’institution politique, qui regrouperait les développeurs et développeuses, les cartes perforées qu’elles utilisaient, les techniciens, les commanditaires…»
C’est d’ailleurs parce qu’il essaie de penser les algorithmes comme des institutions que Florian Jaton a parlé de leur «constitution» – à la fois au sens de leur fabrication, et parce qu’à l’instar d’une loi fondamentale, ils déterminent ce qu’il est possible de faire ou non. La métaphore peut d’ailleurs être prolongée en faisant un petit effort d’imagination. Jérémie Poiroux, doctorant au Centre Marc-Bloch de l’EHESS, propose de considérer que «les utilisateurs d’un service [Facebook, par exemple, ndlr] existent uniquement parce qu’ils sont représentés par un algorithme». Autrement dit : un utilisateur du réseau social interagit avec ce réseau grâce à un algorithme (qui lui propose un fil d’actualité personnalisé). Du point de vue de Facebook, l’utilisateur n’existe que par l’intermédiaire de cette interaction. On peut donc considérer que l’utilisateur est représenté par l’algorithme, de la même manière qu’un citoyen est représenté par un député dans une démocratie représentative : le citoyen délègue sa voix à un représentant qui sera chargé de défendre ses intérêts. Mais il est nécessaire de «rappeler que l’algorithme est là pour l’utilisateur, et pas pour ses propres fins», souligne Jérémie Poiroux. Donc, que si l’utilisateur d’un réseau social accepte de déléguer sa voix à l’algorithme qui le représente, il est en droit d’exiger que celui-ci défende ses intérêts (proposer une meilleure interface, lui soumettre moins de contenus haineux, ou ne pas chercher à capturer son attention).
Penser l’organisation qui entoure les algorithmes comme on pense une institution politique, avec ses différents corps, peut-il permettre d’imaginer qu’un jour les utilisateurs seraient amenés à élire l’algorithme qui les représentera comme ils élisent un président ? L’idée est tentante. Mais ce serait oublier qu’en fin de compte, «on ne négocie pas avec la machine», souligne Florimond Manca, un ingénieur qui a quitté un précédent emploi pour en chercher un autre plus aligné avec ses valeurs. «A quel point peut-on réformer le numérique ? Ça reste du calcul, qui assigne des 1 et des 0. Donc si on remplace un humain à un guichet par un programme informatique, il devient strictement impossible de négocier ou de trouver des compromis dans le cas où l’utilisateur ne rentre pas dans une case prédéterminée.»
Clarifier les conditions de production des algorithmes pourrait alors avoir un autre intérêt : «On a étudié les effets des algorithmes parce qu’on n’avait pas interrogé la manière dont ils étaient fabriqués, chemine Jérémie Poiroux. Maintenant qu’on a étudié leurs conditions de production, il faut peut-être remonter une étape au-dessus, et interroger les personnes qui prennent la décision de fabriquer ces programmes.» Il ne reste alors plus qu’à demander à Mark Zuckerberg comment les utilisateurs de Facebook sont représentés par les algorithmes du réseau social. Une chose est sûre : il ne s’agit pas d’une démocratie représentative.
Aucun commentaire:
Enregistrer un commentaire