Dans Les lois de l’imitation, un livre de 1890, le sociologue et criminologue Gabriel Tarde avait définit l’avenir des statistiques comme le “nouvel oeil des médias de masse”. Il écrivait : “Les [journaux] alors deviendront socialement ce que sont vitalement les organes des sens. Chaque bureau de rédaction ne sera plus qu’un confluent de divers bureaux de statistique, à peu près comme la rétine est un faisceau de nerfs spéciaux apportant chacun son impression caractéristique, ou comme le tympan est un faisceau de nerfs acoustiques. Pour le moment, la statistique est une sorte d’œil embryonnaire, pareil à celui de ces animaux inférieurs qui y voient juste assez pour reconnaître l’approche d’un ennemi ou d’une proie”. Pour le chercheur Matteo Pasquinelli (@mattpasquinelli), l’oeil des statistiques de Tarde annonce l’oeil algorithmique auquel nous sommes désormais confrontés, explique-t-il dans un récent article de recherche intitulé “La détection d’anomalies : la mathématisation de l’anormalité dans la société des métadonnées”.
Le but de ces algorithmes est de révéler un “nouveau sujet politique” : l’oeil des algorithmes tente désormais de distinguer l’individu “antisocial” de l’ensemble des individus, à l’image des travailleurs dont la productivité est mesurée par l’oeil des algorithmes comme le soulignait les travaux du groupe de recherche européen Forensic Architecture, qui dénonce les violences du développement de systèmes de contrôle sous forme de systèmes, d’”architectures”, véritables pathologies du monde moderne.
Le capitalisme du calcul : enfermé dans les datascapes
“L’oeil des algorithmes enregistre des modèles communs de comportement dans les médias sociaux, des mots clefs suspects dans les réseaux de surveillance, des tendances d’achats ou de ventes sur les marchés ou l’oscillation de la température dans certaines régions du monde. Ces procédures de calcul de masse sont assez universelles, répétitives, automatiques et inaugurent une nouvelle ère de complexité épistémique.”
Pour Pasquinelli, la gouvernance algorithmique repose sur la reconnaissance des formes et la détection d’anomalies, qui sont les deux faces d’une même pièce : une anomalie se détecte qu’au travers de la régularité d’un motif, et, inversement, une tendance se dégage que par l’égalisation de la diversité des celles-ci.
Pour Pasquinelli, le problème de la cartographie de l’internet est né avec lui, mais il a fallu attendre 1998 et la construction du premier centre de données de Google pour voir naître la société de métadonnées, capable de commencer à cartographier la topologie de l’internet. Si les réseaux étaient des flux d’information ouverts, comme le souligne Manuel Castells, les centres de données se sont construits sur l’accumulation de l’information sur l’information : les métadonnées. Les métadonnées divulguent “la dimension de l’intelligence sociale incarnée dans tout élément d’information”. Elles nous font passer d’une économie politique industrielle à la gouvernance algorithmique, ce “capitalisme du calcul”.
L’exploitation algorithmique des métadonnées permet de mesurer la production collective de la valeur et d’extraire la plus value des réseaux (ce que font les modèles d’affaires de Google ou Facebook), de suivre et prévoir les tendances et anomalies sociales (comme tente de le faire la science du climat ou les programmes de surveillance de la NSA), et d’améliorer l’intelligence machinique de gestion, de logistique et de conception des algorithmes eux-mêmes. Les centres de données ne sont pas seulement des espaces de stockage ou de calcul, mais des endroits d’où l’on ne cesse d’extraire du sens, rappelle le chercheur. En ce sens, ils sont des datascapes (despaysages de données), des représentations visuelles des forces quantifiables qui influencent le travail de celui chargé de les représenter, un moyen de rendre l’espace abstrait des machines perceptible comme le proposait William Gibson dans Neuromancien quand il représentait le cyberspace comme comme une ville de blocs de données entre lesquels circuler en 3 dimensions. Or, les structures algorithmiques représentent des modèles abstraits qui ne sont pas nécessairement associés avec l’expérience ou la perception. En ce sens, le processus algorithmique est un véhicule d’exploration qui s’étend au-delà des limites de la perception. Pour Pasquinelli, le datascape devient la carte qui permet de cartographier cet internet que l’on ne voit pas.