vendredi 18 octobre 2019

L’INTELLIGENCE ARTIFICIELLE À PILE OU FACES

Par Clémentine Mercier Envoyée spéciale à Milan
— 

Erreurs, préjugés, sexisme, racisme… Dans leur exposition milanaise, la chercheuse Kate Crawford et l’artiste Trevor Paglen explorent les risques et les aberrations d’une société quadrillée par des algorithmes peu regardants.

Visuel issu de l'exposition «Training Humans», à Milan.
Visuel issu de l'exposition «Training Humans», à Milan. 
Courtesy Fondazion Prada

Qui ose ouvrir la boîte noire du totalitarisme numérique dans lequel entrent nos sociétés ? A Milan, un duo de choc bouscule les fondements des intelligences artificielles, nerfs du monde connecté : dans l’exposition «Training Humans», à l’Osservatorio de la Fondation Prada, à Milan, la chercheuse australienne Kate Crawford et l’artiste américain Trevor Paglen ont été farfouiller dans les banques d’images utilisées pour entraîner les machines. Et ce qu’ils ont trouvé est plutôt… inquiétant. Kate Crawford est professeure à l’université de New York, chercheuse à Microsoft, spécialiste des conséquences socio-politiques du big-data et cofondatrice d’un institut de recherche sur les impacts des intelligences artificielles. En septembre, elle a donné la première conférence à la chaire de recherche en intelligence artificielle à l’Ecole normale supérieure de Paris. Trevor Paglen est artiste pluridisciplinaire, connu pour avoir participé au film Citizenfour sur Edward Snowden. Son travail artistique (photo, sculpture, écrits, investigation) porte sur la surveillance, le secret et la collecte de données. En 2018, il a envoyé une sculpture réfléchissante dans l’espace, premier satellite-objet d’art du cosmos. Ensemble, la chercheuse et le plasticien qui se connaissent depuis longtemps se sont posé la question : comment voient les machines ? Et plus précisément, comment nous voient les machines ? Alors que les outils de reconnaissance faciale se répandent, le duo soulève un lièvre : comment apprend-on aux ordinateurs à regarder l’humanité ?

Frisson d’inquiétude

«Personne ne s’intéresse à ces bases de données, pas même les scientifiques qui les utilisent sans les remettre en cause», s’étonne Kate Crawford, qui pointe un manque de rigueur alors même que les algorithmes élaborés à partir de ces bases sont vantés comme de purs produits mathématiques. «Ni Kate ni moi-même ne pensons que la technologie est neutre. Elle véhicule toujours une vision intrinsèque de la société», ajoute Trevor Paglen. En résumé, pour le tandem, l’interprétation automatisée d’images, sous les apparences d’une grande sophistication, est un projet politique et non pas un simple projet technique.
FERET Dataset, 1993-1996
National Institute of Standards
Dataset funded by the United States military’s Counterdrug Technology Program for use in facial
recognition research.
Portraits tirés de la base Feret utilisée par la Défense américaine dans les années 90. Courtesy Fondation Prada

Aux murs de l’Osservatorio, l’espace de photographie de la Fondation Prada, situé dans la galerie Vittorio Emanuele II, les images sont banales : amateurs de belles choses, passez votre chemin. Vous n’aurez pas là d’émotion esthétique, mais plutôt un frisson d’inquiétude. Pas étonnant, puisque les photos affichées ne sont pas destinées aux humains : par milliers, ces images (portraits, photos d’identité, clichés de bébés, selfies…) sont la nourriture de base des intelligences artificielles. Kate Crawford et Trevor Paglen en ont fait l’archéologie, puisqu’ils ont déniché les plus anciennes bases d’images utilisées par les ordinateurs, certaines encore sous le sceau du secret. Les premières expériences ont été menées dans un contexte militaire, à la CIA dans les années 60. Puis, ces bases de données se sont enrichies d’un nombre toujours plus grand d’images : dans les années 90, la base Feret (1 199 portraits) a servi à la Défense américaine : des photos d’identité sur fond blanc qui rappellent les premiers portraits de Thomas Ruff. Les machines ont aussi appris à détecter le vieillissement à partir d’un fichier de prisonniers multirécidivistes (MEDS, 2011) et à déceler les émotions à partir de photos de femmes japonaises issues du fichier Jaffe (Japanese Female Facial Expression, 1997). L’arrivée d’Internet a changé l’échelle : «Au début, on partait de collections de 20 images puis on est passé à des ensembles de 20, 40, 50 millions pour entraîner les machines. Certaines images sont utilisées sans autorisation, sans passer par un système de procédure comme dans un labo», précise Kate Crawford. Par exemple, la base Carc (Cross-Age Reference Coding) utilise 160 000 photos de 2 000 célébrités trouvées sur Wikipédia, sur les listes du magazine Forbes, sur la base de données de cinéma IMDB: pratique, on retrouve les stars à différents âges et photographiées sous différentes lumières.

Du bizarre au préjudiciable

A partir de 2009, les choses s’emballent : grâce à ImageNet - la plus grande base de données pour intelligence artificielle du monde créée à l’université Stanford -, les ordinateurs travaillent à reconnaître l’âge, le sexe, les émotions, les objets, à partir d’un fichier de 14 millions d’images. Mais la quantité ne garantit pas la qualité. «Pourquoi trouve-t-on dans ImageNet des catégories comme trompettiste, débiteur, politicien, docteur, alcoolique, mauvaise personne, menteur, perdant ou fasciste ? Il y a même la catégorie "daltonien" ! Comment le fait d’être daltonien peut-il se voir sur un visage ?» s’exclame Kate Crawford. De la description au jugement, de la photographie au préjugé, il n’y a qu’un pas, allègrement franchi par ces fichiers de photos. Ces collections d’images aboutissent à des résultats biaisés.
Ces incohérences ont inspiré ImageNet Roulette à Trevor Paglen, une application en ligne où l’on soumet sa photo à un algorithme entraîné sur cette base. Un utilisateur de Twitter y a par exemple été classé «suspect de viol» : pas si étonnant quand on sait qu’ImageNet comporte de nombreuses catégories qui vont du bizarre au préjudiciable. Trevor Paglen lui-même est qualifié de «skinhead» par la machine (l’artiste est certes un peu dégarni). L’idée d’ImageNet Roulette se retrouve dans l’expo sous forme d’installation : une caméra vous filme et détermine votre âge, votre sexe, vos émotions et votre métier. Ainsi, l’auteur de ces lignes serait une femme (vrai), aurait entre 60 et 100 ans (merci), serait de très mauvaise humeur (?) et pratiquerait la flûte : autant le dire, la machine est complètement à côté de la plaque ! «On voit bien apparaître le problème entre les promesses des intelligences artificielles et à quel point elles sont cassées de l’intérieur. Le système n’est ni neutre, ni objectif, poursuit Kate Crawford. Non seulement le système est bourré d’erreurs mais en plus, il est fondé sur le travail de petites mains sous-payées : les photos d’ImageNet ont été classées par les travailleurs d’Amazon Mechanical Turk, une plateforme de main-d’œuvre précaire pour entreprises du numérique.» Ces bases de données sont indissociables d’une fausse automatisation basée sur un prolétariat caché. ImageNet a annoncé, selon le site Hyperallergic.com, vouloir supprimer 600 000 images de sa base à la suite du travail de Trevor Paglen et Kate Crawford.
Kate Crawford et Trevor Paglen
La chercheuse Kate Crawford et l’artiste Trevor Paglen. Photo Marco Cappelletti

Un «aplatissement» de la réalité

Autres problèmes de taille dans la reconnaissance faciale : sexisme et racisme. Une étude a récemment montré la difficulté des logiciels à reconnaître les visages féminins, et plus particulièrement les visages de femmes noires. «C’est tout simplement parce que les visages sur lesquels ces machines s’entraînent sont majoritairement des images d’hommes blancs», explique Kate Crawford, qui rapporte que cette étude a été faite par deux consœurs proches, Timnit Gebru, chercheuse chez Google et cofondatrice de l’association Black in AI, et Joy Buolamwini, informaticienne fondatrice de l’Algorithmic Justice League.
Il est difficile de ne pas faire un rapprochement entre ces nouvelles technologies et les expériences anthropométriques du XIXe siècle (on pense à Alphonse Bertillon, père de l’anthropométrie judiciaire, et à Francis Galton, fondateur de l’eugénisme). «La phrénologie et la physiognomonie reviennent en force avec les intelligences artificielles, reconnaît Kate Crawford. Nous sommes à un moment de l’histoire où les enjeux ne peuvent pas être dissimulés. Si ces systèmes sont appliqués simultanément au système judiciaire, au système éducatif, au système de santé, à l’immobilier, à la sécurité routière, à la police, nous devons absolument les interroger en profondeur.» La chercheuse déplore aussi un «aplatissement» de la réalité via ces bases de données qui manquent de perspectives. «Il y a une perte de contexte, une perte d’empathie, une perte de spécificités, des caractéristiques pourtant si importantes dans la compréhension du monde et des autres. Si on abandonne cela, ces notions humaines vont disparaître. On ne reviendra pas en arrière.» Alors comment voient vraiment les machines aujourd’hui ? Kate Crawford et Trevor Paglen s’accordent : «Les intelligences artificielles voient avec les yeux de leurs maîtres.» Si leurs performances sont encore parfois dérisoires ou comiques, une question taraude face à ce nouveau champ de la photo vernaculaire : voulons-nous vraiment devenir des esclaves ?
Training humans de Kate Crawford et Trevor Paglen Jusqu’au 24 février à l’Osservatorio de la Fondation Prada, à Milan.

Aucun commentaire:

Enregistrer un commentaire