Discrimination, opacité : des associations attaquent en justice l’algorithme de la Caf

17 octobre 2024 par Rachel Knaebel

Face aux contrôles automatisés des Caf sur les allocataires du RSA ou de l’AAH, des organisations ont décidé de se tourner vers la justice. Pour elles, l’algorithme utilisé discrimine et porte atteinte aux données personnelles.

Publié dans Société

  • Temps de lecture :7 minutes

    En tant qu’allocataire du RSA, vous avez plus de chances d’essuyer un contrôle de la Caf si vous avez moins de 34 ans ou si vous avez un enfant à charge de plus de 12 ans. C’est le principe des « scores de risque » établis par la Caf de manière automatisée. En 2022, la Caisse nationale des allocations familiales (Cnaf), qui regroupe les Caf, annonçait qu’elle avait effectué 28,3 millions de contrôles « automatisés » sur l’année. Pour cela, elle utilise depuis les années 2010 un algorithme afin de repérer automatiquement les cas possibles d’indus ou de fraude, et engager ainsi des contrôles des allocataires du RSA, de l’aide au logement ou de l’allocation aux adultes handicapés (AAH).

    Un algorithme pour contrôler

    En moulinant des millions de données, cet algorithme attribue un score de risque aux allocataires. Ce score note la probabilité que la personne ait touché un indu ou commis une fraude. Cette notation déclenche ensuite des contrôles de l’organisme. En 2023, l’association La Quadrature du Net avait obtenu le code source d’anciennes versions de l’algorithme utilisé par la Cnaf. La Cnaf a refusé la communication de la dernière version.

    Le décryptage des anciennes versions du code source, utilisées jusqu’en 2018, réalisé par La Quadrature du Net, avait toutefois mis au jour certains critères qui augmentaient le score de risque. Le Monde l’expliquait alors dans une enquête sur le sujet.

    Action devant le Conseil d’État

    Mercredi 16 octobre, quinze organisations de la société civile, dont Changer le cap, La Quadrature du Net et Amnesty International, ont attaqué l’algorithme de notation des allocataires en justice, devant le Conseil d’État [1]. « Cet algorithme attribue à chaque allocataire un score de suspicion dont la valeur est utilisée pour sélectionner celles et ceux faisant l’objet d’un contrôle. Plus il est élevé, plus la probabilité d’être contrôlé est grande », détaillent les organisations dans un communiqué.

    Parmi les facteurs venant augmenter un score de risque, on trouve en plus de l’âge le fait d’avoir de faibles revenus, d’être au chômage, de bénéficier du RSA ou de l’AAH tout en travaillant, donc d’être travailleur handicapé. « Les personnes en difficulté se retrouvent surcontrôlées par rapport au reste de la population », résument les associations.

    32 millions de personnes concernées

    Le recours devant le Conseil d’État porte sur deux aspects : le droit à la protection des données personnelles et le principe de non-discrimination. « Nous rappelons que l’algorithme de la Cnaf traite les données des allocataires et de leurs proches, ce qui fait que près de la moitié de la population française est concernée (32,3 millions de personnes, dont 13,5 millions d’enfants d’après les chiffres de la Cnaf de 2023). Nous rappelons également que les données traitées pour calculer le score sont nombreuses et relatives à des informations très précises de la vie des personnes. Or, au regard de la finalité du traitement (identifier des dossiers dans lesquels il est probable de trouver un indu en cas de contrôle), ce traitement traite trop de données personnelles. Il est donc disproportionné », fait valoir la requête des associations au Conseil d’État.

    Selon les organisations, l’algorithme contrevient en ce sens au Règlement européen de protection des données personnelles, le « RGPD ». Car le RGPD interdit par principe, à son article 22, les traitements de données qui prennent des décisions automatisées. C’est pourtant ce que fait l’algorithme de la Caf : il conduit à une décision de contrôler une personne de manière automatique. « La personne concernée a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l’affectant de manière significative de façon similaire », stipule le RGPD.

    Demande de transparence

    D’un autre côté, pour les associations, l’algorithme de « scoring » de la Caf est discriminant. Car des critères comme l’âge, et le fait de toucher l’AAH et de travailler, donc d’être travailleur handicapé, augmentent la probabilité d’un contrôle. « Le traitement algorithmique crée une discrimination directe en érigeant certaines variables relatives à des catégories prohibées par la loi contre les discriminations comme des critères aggravant nettement le score », résument les associations.

    Les associations demandent au Conseil d’État d’utiliser ses pouvoirs pour exiger de la Cnaf la communication de la dernière version de l’algorithme. « Ce sont des algorithmes développés avec de l’argent public, mais dès qu’on essaie d’obtenir des informations sur la manière dont ils fonctionnent, c’est impossible, pointe Valérie Persan, de Changer le Cap, collectif engagé depuis des années auprès des allocataires de la Caf. Il faut obtenir la transparence des algorithmes. »

    Sur le même sujet

    Mais l’objectif de cette action au Conseil d’État, c’est aussi « l’abrogation de l’algorithme », ajoute Valérie Persan, qui sait bien que cela risque de prendre du temps. « Le contentieux au Conseil d’État va durer sûrement deux ans. Si on va ensuite devant la Cour de justice de l’Union européenne, ce sera encore plus long. En attendant, les gens sont toujours dans la même galère », souligne-t-elle.

    France Travail et Assurance Maladie

    L’enjeu est d’autant plus important que les algorithmes sont utilisés par d’autres organismes publics. En juin dernier, La Quadrature du Net publiait une première étude sur celui utilisé par France Travail. Là encore, l’organisme public a refusé de communiquer le code source de l’algorithme. Mais l’association avait obtenu, via l’accès à des documents techniques, la liste des variables utilisées.

    « On y retrouve une grande partie des données détenues par France Travail. Aux variables personnelles comme la nationalité, l’âge ou les modalités de contact (mails, téléphone…) s’ajoutent les données relatives à notre vie professionnelle (employeur·se, dates de début et de fin de contrat, cause de rupture, emploi dans la fonction publique, secteur d’activité…) ainsi que nos données financières (RIB, droits au chômage…). À ceci s’ajoute l’utilisation des données récupérées par France Travail lors de la connexion à l’espace personnel (adresse IP, cookies…) », détaillait La Quadrature. Sur le même sujet

    Selon ses recherches, l’algorithme de France Travail vise à l’heure actuelle à évaluer l’employabilité de la personne en recherche d’emploi. « Ici, l’IA doit permettre d’“augmenter la capacité de diagnostic” relative aux “traitements des aspects motivationnels” via la “détection de signaux psychologiques” », explique l’organisation de défense des libertés numériques. Cet algorithme vise à « anticiper les éventuels décrochages ».

    « Sur France Travail, on ne voit pas pour l’instant d’algorithme autour du contrôle de la recherche d’emploi », précise Bastien Le Querrec, de La Quadrature du Net. L’association travaille aujourd’hui sur d’autres organismes publics de protection sociale, comme la Mutualité sociale agricole, la Caisse nationale d’assurance vieillisse et l’Assurance Maladie…

    Autant d’organismes qui ont déjà recours à des algorithmes, assure La Quadrature du Net, et restent eux aussi opaques sur ce qu’ils en font. « Les administrations sont légalement tenues de vous communiquer les “scores de suspicion” qu’elles vous ont alloués ainsi que des explications concernant leur calcul », souligne l’association, qui met à disposition des ressources pour en faire la demande.

    Rachel Knaebel

    Notes

    [1] Les quinze organisations qui mènent l’action devant le Conseil d’État sont La Quadrature du Net, Association d’accès aux droits des jeunes et d’accompagnement vers la majorité, Aequitaz, Amnesty International, Association nationale des assistants de service social, APF France handicap, Collectif national droits de l’Homme Romeurope, collectif Changer de cap , fondation Abbé Pierre, Gisti, Ligue des droits de l’Homme, Mouvement français pour un revenu de base, Mouvement national des chômeurs et précaires, Le Mouton numérique, Syndicat des avocats de France.

    https://basta.media/discrimination-opacite-des-associations-attaquent-en-justice-algorithme-Caf

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

    Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.