vendredi 23 mars 2018

Reconnaissance faciale : comment nos visages sont traqués

Dans la rue, dans les commerces, sur Internet, des algorithmes peuvent à tout moment nous identifier. Ces nouveaux outils, auxquels s’intéressent professionnels du marketing et forces de l’ordre, posent d’importantes questions éthiques.

LE MONDE IDEES  | Par 

Guim Tio
Notre visage est la source de l’éthique du fait qu’il est nu, expressif, doué de la parole humaine et semble nous dire : « Tu ne me défigureras pas » ou, plus profondément : « Tu ne tueras point », assure le philosophe Emmanuel Levinas (1906-1995). De son côté, l’anthropologue David Le Breton avance que le visage, auquel il a consacré plusieurs études, « incarne la différence infinitésimale portée par chaque homme », mais aussi, étant changeant et mobile, « donne vie à notre esprit », ce qui fait qu’« on tombe amoureux d’un visage, ou le déteste parfois »…
Aujourd’hui, nos traits sont devenus une donnée exploitable : les progrès de la numérisation en ont fait une marchandise convoitée par les géants du Web, les experts du marketing et les services de police. La publicité ciblée est en effet devenue le carburant de l’économie numérique. Avec le visage, le profilage systématique des internautes s’affine.

Prenez Facebook, ce grand « livre du visage », le réseau social aux 2 milliards d’utilisateurs actifs : il engage chaque jour les internautes à taguer les photos qu’ils publient avec les noms de leurs « amis ». Puis, grâce à DeepFace, son système de reconnaissance faciale, l’entreprise se constitue une gigantesque banque de visages identifiables. Du big data « très précieux » à l’heure du « boom du marketing personnalisé », fait remarquer Benjamin Sobel, chercheur en droit et technologie à l’université Harvard (Massachusetts), préoccupé par la disparition de l’anonymat sur le Web et les réseaux sociaux.

Repérer les voleurs jusque sur le trottoir


Sans surprise, Google s’y intéresse aussi. L’algorithme de reconnaissance faciale FaceNet de Google Photos est capable d’identifier, de nommer, de classer et de localiser d’innombrables personnes présentes sur les albums des internautes. Si cette fonction a été désamorcée en Europe à la demande des défenseurs de la vie privée, elle reste utilisable par quiconque domicilie ses recherches depuis un autre pays.

L’identification de nos visages intéresse particulièrement les enseignes d’e-commerce, les banques, les grandes surfaces… En 2017, ­Amazon a lancé Rekognition, un service de reconnaissance d’images permettant d’identifier des personnes. L’entreprise affirme avoir stocké plusieurs « dizaines de millions de visages » et pouvoir les détecter – déjà, la police américaine utilise cette application dans plusieurs Etats. Quant à la société californienne FaceFirst, elle vend un système de reconnaissance faciale permettant aux grandes surfaces de reconnaître leurs clients fidèles et de repérer les voleurs jusque sur le trottoir.

L’intrusion brutale de ces technologies de détection dans notre vie quotidienne suscite déjà de lourdes oppositions. En juin 2015, aux Etats-Unis, neuf associations de défense des libertés civiles et des consommateurs ont rompu leurs discussions sur la légalité de la reconnaissance faciale avec des représentants du commerce. ­Elles ont déclaré : « Au minimum, les gens devraient pouvoir marcher dans la rue sans craindre que des entreprises dont ils n’ont jamais entendu parler enregistrent chacun de leurs mouvements et les identifient par leurs noms. »

De l’importance de l’obscurité


Analysant l’échec de ces négociations, qui n’ont pas repris à ce jour, le professeur de droit Woodrow Hartzog, de l’université de Samford (Alabama), et le philosophe Evan Selinger, de l’Institut de technologie de Rochester (New York), ont défendu dans The Christian Science Monitor du 22 juin 2015 l’importance de l’« obscurité » dans la définition de la vie privée. Nous exhibions sans peur notre visage en public ou sur Internet, rappellent-ils, parce que nous avions l’habitude d’y conserver un anonymat suffisant : dans la rue, nous ne pouvons pas identifier tous les passants ; nous y sommes plus ou moins incognito. Aujourd’hui, cette part d’obscurité est menacée par la vidéo : assistée par l’intelligence artificielle, elle développe une capacité mémorielle supérieure à celle des humains, tout en stockant visages et données personnelles.

L’entreprise Affectiva certifie posséder « la plus grande base de données d’émotions faciales du monde : 6,3 millions de visages décryptés dans 87 pays ».








L’obscurité ne signifie pas l’« inaccessibilité totale », estime Woodrow Hartzog, mais le maintien d’une part d’ombre : pour cela, déjà, on renforce ses paramètres de confidentialité, on utilise des messageries cryptées, on enclenche la touche « Avion » de son portable. Cette « obscurité pratique », estime-t-il, devrait être renforcée avec l’extension des nouvelles technologies biométriques, afin de « favoriser l’autonomie, l’épanouissement personnel, la socialisation et la liberté face aux abus de pouvoir ».

Las, l’inverse se passe. Non seulement des entreprises du numérique nous fichent puis revendent nos données et nos visages à des services de marketing – et parfois, nous le savons depuis les révélations d’Edward Snowden de 2013, les divulguent à la police –, mais elles entreprennent d’interpréter les sentiments qu’exprime notre visage afin de prévoir nos comportements. Afin surtout – c’est le nerf de la guerre commerciale – de devancer nos désirs. Ainsi, le service Amazon Rekognition assure pouvoir détecter « l’état de bonheur, de tristesse ou de surprise à partir d’images faciales ».

Quelques applications sociales ou médicales


D’autres sociétés américaines, Affectiva, Emotient, Realeyes, utilisent des logiciels de « décryptage des émotions ». Les logiciels d’Affectiva filment et « numérisent en temps réel » les visages, « identifient les repères-clés, comme les coins de vos sourcils ou de votre bouche », puis les algorithmes les décodent en s’appuyant sur une grille de lecture émotionnelle – l’entreprise certifie posséder « la plus grande base de données d’émotions faciales du monde : 6,3 millions de visages décryptés dans 87 pays ».

D’où provient cette grille d’analyse de nos sentiments les plus intimes ? La société a été créée par des chercheurs en « informatique affective » (affective computing). Fondé en 1995 par la chercheuse du MIT Rosalind Picard, ce champ de recherche se situe au croisement de la morphopsychologie, de la biométrie et de l’informatique. Il s’inspire des travaux du psychologue américain Paul Ekman, qui a étudié dans les années 1970 les « micro-expressions faciales » de milliers de personnes jusqu’à prétendre identifier les sept « émotions primaires » exprimées par notre visage, selon lui « universelles », car léguées par l’évolution : la colère, le dégoût, la joie, le mépris, la peur, la tristesse, la surprise.
Pour l’informatique affective, ces sept expressions basiques peuvent être photographiées, numérisées, cartographiées, puis identifiées par des algorithmes d’intelligence artificielle. Un ordinateur ou un robot équipé d’un tel logiciel devient alors capable d’appréhender nos affects.

Guim Tio

Si quelques-unes de ces recherches visent des applications sociales ou médicales – lunettes pour aider les enfants autistes à décrypter les expressions, capteurs pour repérer de façon anticipée et objective un état dépressif –, beaucoup d’entre elles ont trouvé des débouchés commerciaux. Aujourd’hui, Affectiva vend ses produits à des publicitaires et des fabricants qui veulent tester en direct les réactions « spontanées » de clients à leurs produits : clip, jouet, habitacle de voiture…

Difficile de ne pas penser aux dystopies décrites par le roman Le Cercle, de Dave Eggers (2013, Gallimard, 2016) ou par la série britannique Black Mirror (2011-2018), un meilleur des mondes où nos visages et nos sentiments sont livrés en pâture aux algorithmes de décryptage qui nous traquent en tout lieu, prétendent nous connaître mieux que nous-mêmes – et juger nos comportements.

Un zèle décuplé


La grille émotionnelle des visages d’Ekman est très critiquée par les anthropologues et les ethnologues, pour qui les émotions faciales et leur signification – prenez le fait de pleurer ou de rire – varient considérablement d’un pays à l’autre : elles sont symboliques, liées à une culture, des habitus. Elles sont complexes, ambiguës, difficiles à cerner – et irréductibles à une lecture simpliste.

En septembre 2017, des chercheurs de l’université Stanford (Californie) ont annoncé avoir mis au point un dispositif de reconnaissance faciale capable de déterminer si une personne est homosexuelle avec une précision de 91 %.











L’anthropologue ­David Le Breton nous met en garde : « La morphopsychologie confond le “visage”, mobile, joueur, capable de simulation, et la “figure”, au sens géométrique. Elle résume notre face à un ensemble de points, qu’elle prétend lire comme une carte représentant un territoire figé, alors que la contenance et l’équivoque sont le propre de l’humain, qui peut rire et pleurer à la fois ! La grille d’Ekman n’est que statistique, elle génère beaucoup d’erreurs d’interprétation qui révèlent souvent les préjugés des chercheurs. »

De fait, en septembre 2017, des chercheurs de l’université Stanford (Californie) ont annoncé avoir mis au point un dispositif de reconnaissance faciale capable de déterminer si une personne est homosexuelle avec une précision de 91 %. Une avalanche de critiques a mis au jour leurs biais. David Le Breton ironise : « Nous ne sommes pas loin de la physiognomonie du XIXsiècle, la pseudoscience promue par le criminologue Cesare Lombroso qui prétendait définir le caractère et la dangerosité d’une personne au seul paramétrage de sa figure. »

Non seulement nos traits et nos expressions intéressent les grandes entreprises, mais la traque du visage est aussi, bien sûr, la grande affaire des services de police – qui la pratiquent avec un zèle décuplé depuis la vague d’attentats terroristes. Elle est d’ores et déjà mise en œuvre à travers deux technologies : la reconnaissance faciale associée à la vidéosurveillance « intelligente » et la constitution de portraits-robots à partir d’échantillons d’ADN. Aux Etats-Unis, la première n’est soumise à aucune loi fédérale, si bien que le FBI et les shérifs des comtés l’utilisent massivement.

« Sans précédent et très problématique »


Une étude d’octobre 2016 du Center on Privacy & Technology de la prestigieuse université de droit de Georgetown (Washington DC), un think tank spécialisé sur la vie privée, dresse un état des lieux inquiétant : les visages de 117 millions d’adultes américains figurent à leur insu dans les fichiers fédéraux et locaux ; 29 Etats autorisent la police locale à chercher des visages dans les fichiers des permis de conduire, et 17 Etats le permettent au FBI, qui se construit ainsi un réseau biométrique d’« Américains respectueux de la loi » – une pratique « sans précédent et très problématique », insiste Alvaro Bedoya, le directeur du centre.

Les juristes du Center on Privacy & Technology déplorent également que les services de police utilisent des algorithmes de reconnaissance « pour scanner en temps réel les visages des piétons », notamment lors de manifestations : cela constitue à leurs yeux « un risque réel (…) d’étouffer la liberté d’expression ». En France, la CNIL (Commission nationale de l’informatique et des libertés) s’oppose – pour l’instant avec succès – à l’utilisation systématique de la reconnaissance faciale (excepté dans les aéroports et certaines gares), mettant en garde contre le profilage « à la volée de l’ensemble de la population », et contre une surveillance omniprésente qui porterait atteinte à « la liberté d’aller et venir anonymement ». Mais pour combien de temps ? Les avis de la CNIL, ne l’oublions pas, n’ont qu’une valeur consultative.

Reconstruction d’un visage à partir d’une bribe d’ADN


Autre grand dossier sur lequel les juristes américains et européens s’interrogent : le « portrait-robot génétique », c’est-à-dire la reconstitution d’un visage à partir de traces ADN. Aux Etats-Unis, Parabon NanoLabs, une entreprise privée de Virginie, assure pouvoir fournir, à partir d’un échantillon d’ADN, un « instantané détaillé » comprenant « la couleur des yeux, de la peau, des cheveux, la morphologie du visage et l’ascendance biogéographique détaillée ». Sans surprise, elle travaille régulièrement avec les services de police aux Etats-Unis et au Canada. Pourtant, selon les spécialistes, la recherche est encore trop peu avancée pour reconstituer des visages fiables.

Le 17 mars 2016, critiquant un arrêt de la Cour de cassation, la Commission consultative des droits de l’homme s’est inquiétée, appelant à un encadrement légal strict du profilage génétique.









Nonobstant, en 2014, l’équipe de Mark Shriver, professeur d’anthropologie génétique à l’université de Pennsylvanie, a recueilli auprès de 600 volontaires une numérisation en 3D de leurs visages ainsi que leurs données génétiques. Le but : identifier les marqueurs génétiques affectant la morphologie faciale – c’est le phénotypage génétique (DNA phenotyping). L’étude révèle que « vingt gènes montrent des effets significatifs sur les traits faciaux » ; une séquence de huit gènes donne une bonne idée de la couleur des yeux ; deux sont en relation avec la calvitie, un seul avec les taches de rousseur…

Bref, la reconstitution d’un visage à partir d’une bribe d’ADN ne fait que commencer. En Europe, le projet Visage (Visible Attributes through Genomics), un consortium de treize partenaires provenant d’institutions universitaires, policières et judiciaires de huit pays (en France, seul l’Institut national de police scientifique y participe), a été lancé début 2017 pour affiner ces recherches. Son objectif est clair : mettre au point « une nouvelle boîte à outils » « pour produire des informations détaillées sur l’apparence, l’âge et l’ascendance biogéographique d’un donneur de traces inconnu, aussi vite que possible ».

Boîte de Pandore


Assurément, la reconnaissance faciale comme le portrait-robot ADN soulèvent de lourds problèmes éthiques, juridiques et démocratiques. En France, le 25 juin 2014, la Cour de cassation a admis la légalité d’un phénotypage génétique dans le cadre d’une affaire de viols en série à Lyon. Un « arrêt spectaculaire », d’après Etienne Vergès, professeur de droit à l’université de Grenoble, qui se demande s’il n’est pas contraire à l’article 8 de la Convention européenne des droits de l’homme sur les données personnelles.

N’a-t-on pas ouvert une boîte de Pandore avec cet arrêt ? Le 17 mars 2016, critiquant l’arrêt de la Cour de cassation, la Commission consultative des droits de l’homme s’est inquiétée, appelant à un encadrement légal strict du profilage génétique : seul un juge d’instruction devrait pouvoir l’ordonner, en veillant à ce qu’il soit limité « aux seuls traits objectifs, extérieurs et pertinents pour l’identification ».

La Commission consultative des droits de l’homme comme la CNIL ne s’inquiètent pas pour rien. En Chine, fin 2017, 170 millions de caméras de vidéosurveillance étaient déjà installées – 400 millions sont prévues d’ici à 2020. Dans les grandes villes, elles sont couplées avec des systèmes de reconnaissance faciale directement reliés aux fichiers des services d’identité et sociaux : le règne du big data global sur nos vies arrive.

Aucun commentaire:

Enregistrer un commentaire