Par Gabriel Geiger (Lighthouse Reports), Soizic Pénicaud (Lighthouse Reports), Manon Romain et Adrien Sénécat
Publié le 4 décembre 2023
ENQUÊTE Depuis 2010, la CAF note ses treize millions de foyers d’allocataires pour orienter ses contrôles. « Le Monde » a enquêté sur ce système, accusé de discriminer les plus vulnérables.
Dis-moi qui tu es, l’algorithme dira si tu es suspect. A la Caisse nationale des allocations familiales (CNAF), où la recherche des erreurs de déclaration et des fraudes s’est industrialisée au cours des dernières années, un outil a été érigé en totem : le data mining (exploration de données). La priorisation des dossiers à contrôler repose aujourd’hui quasi exclusivement sur un « score de risque » calculé pour chaque allocataire suivant une batterie de critères personnels.
Ce système fait la fierté de l’institution, qui en vante les performances. Mais les alertes se multiplient sur les possibles dérives de cet algorithme, baptisé « data mining modèle entrant » (DMDE). Plusieurs associations ont accusé la CNAF de discriminer les plus vulnérables au sein des publics à qui elle verse chaque mois le revenu de solidarité active (RSA), les aides au logement ou encore les allocations familiales.
L’ancien Défenseur des droits Jacques Toubon a fustigé en 2020 une démarche fondée sur des « préjugés et des stéréotypes », tandis que de nombreux médias, du Monde à Radio France, en passant par StreetPress, ont documenté la détresse des allocataires face à un système implacable.