Libertés
Par Hortense Chauvin
Des caméras aidées d’intelligences artificielles : un projet de loi examiné par le Sénat prévoit d’autoriser la « surveillance algorithmique » des Jeux olympiques de 2024. Cette surveillance de masse est une atteinte aux libertés.
La France, médaille d’or de la surveillance de masse ? Le Sénat a achevé d’examiner, mercredi 25 janvier, le projet de loi relatif aux Jeux olympiques et paralympiques, présenté par la ministre des Sports Amélie Oudéa-Castéra. L’article 7 de ce texte, qui sera voté solennellement le 31 janvier, prévoit d’autoriser le traitement des images de vidéosurveillance par des systèmes d’intelligence artificielle. Au risque de porter durablement atteinte au droit à la vie privée et à la liberté d’expression, selon des associations de défense des libertés individuelles. Elles réclament la suppression de cet article.
La surveillance « automatisée » (ou « algorithmique ») consiste à confier à un logiciel la tâche d’analyser les images de surveillance fournies par des caméras fixes ou des drones. Cette intelligence artificielle envoie une alerte à la police dès qu’elle détecte un comportement ou une situation qu’elle a été entraînée à identifier comme suspect. C’est l’État — ou les entreprises privées qui fournissent ces logiciels — qui détermine ce qui doit être considéré comme tel. Et ce, alors que cette technologie n’a jamais fait preuve de son efficacité. « Aucune étude ou évaluation sérieuse ne montre qu’elle est efficace pour lutter contre la criminalité », précise à Reporterre Katia Roux, responsable plaidoyer Technologies et droits humains à Amnesty International France.
Le gouvernement justifie pourtant la mise en place de ce dispositif par la nécessité d’« assurer la sécurité de manifestations sportives, récréatives ou culturelles qui, par leur ampleur ou leurs circonstances, sont particulièrement exposées à des risques d’actes de terrorisme ou d’atteinte grave à la sécurité des personnes ». Treize millions de spectateurs sont attendus lors des Jeux olympiques de Paris. « Déterminer ce qu’est un comportement suspect est très subjectif. Cette classification risque de refléter les choix stigmatisants de la police » © Yasuyoshi Suba/AFP
Selon l’étude d’impact qui accompagne ce projet de loi, cette technologie serait utilisée pour cibler les mouvements de foule, les objets abandonnés, mais également « les évènements anormaux » et les « situations présumant la commission d’infractions ». « C’est extrêmement problématique, estime Katia Roux. On se rapproche ici d’une technologie d’évaluation des comportements, qui essaie de déduire des intentions. Quid d’une personne en situation de handicap, qui n’aurait pas la même manière de se mouvoir dans l’espace public ? Des personnes qui restent statiques pendant longtemps, ou qui marchent à contre-courant ? Vont-elles être signalées ? »
Les sans-abri et les personnes marginalisées seront encore plus discriminées
Noémie Levain, chargée d’analyses juridiques et politiques à La quadrature du Net, partage ces inquiétudes. La surveillance automatisée pourrait selon elle renforcer la discrimination à l’égard de certaines catégories de personnes déjà marginalisées, comme par exemple les sans-abri. « Déterminer ce qu’est un comportement suspect est très subjectif. Cette classification risque de refléter les choix stigmatisants de la police », pense-t-elle.
Le développement de la surveillance automatisée pourrait également mener à une forme « d’autocensure », selon Katia Roux : « Lorsque l’on se pense ou que l’on se sait surveillé, on a tendance à altérer notre comportement, signale-t-elle. En cela, ces dispositifs comportent un risque pour le droit à la liberté d’expression et le droit de manifester. » Ces logiciels seront par ailleurs amenés à analyser des données comportementales, physiologiques et physionomiques, ce qui pourrait « porter atteinte au droit à la vie privée ».
Le gouvernement prévoit d’autoriser « l’expérimentation » de la surveillance automatisée dès l’adoption de cette loi, et jusqu’au 30 juin 2025. Soit onze mois après la fin des Jeux olympiques. Noémie Levain et Katia Roux craignent qu’elle ne s’installe encore plus durablement dans le paysage. « On l’a vu avec les boîtes noires [qui permettent aux services de renseignement d’analyser automatiquement les métadonnées des communications Internet] ou l’état d’urgence, note Noémie Levain. Ces dispositifs supposément temporaires sont toujours pérennisés. »
« Ces dispositifs supposément temporaires sont toujours pérennisés »
Dans un épais rapport publié fin janvier, La quadrature du Net rappelle, en s’appuyant notamment sur les travaux de la chercheuse Myrtille Picaud, que les méga-évènements sportifs jouent souvent le rôle de « catalyseurs » : « Ils permettent d’une part d’être des moments de laboratoire et d’expérimentation des technologies et, d’autre part, de jouer sur ce moment exceptionnel pour […] les rendre plus acceptables », écrivent ses auteurs. À l’occasion des Jeux olympiques de Tokyo, en 2020, le gouvernement japonais a ainsi fait passer une loi « anticonspiration », critiquée jusqu’aux Nations unies en raison des pouvoirs de surveillance étendus qu’elle conférait à l’État.
En France, le projet de loi relatif aux Jeux olympiques et paralympiques pourrait augurer un véritable « tournant », selon les associatifs. Dans les faits, une trentaine de villes – comme Toulouse ou Marseille – ont déjà eu recours à la vidéosurveillance algorithmique au cours des dernières années, selon les données du projet Technopolice. Jusqu’à présent, cette pratique n’était cependant pas « ancrée dans le droit ». La société civile pouvait donc déposer des recours. « Avec ce texte, on veut légaliser. C’est un vrai changement », estime Katia Roux.
Pour Noémie Levain, l’adoption de ce texte constituerait « un passage à l’échelle dans la surveillance de masse : on décuplerait le pouvoir d’omniscience de l’État ». Katia Roux se dit d’autant plus inquiète que ce texte s’inscrit dans un contexte de durcissement sécuritaire. « Que ce soit avec la loi Sécurité globale, ou le projet de loi sur la reconnaissance faciale défendu par certains sénateurs, on constate une volonté des autorités d’étendre leur pouvoir de surveillance », observe-t-elle.
Peu de garde-fous sont prévus dans la version actuelle du projet de loi. Aucun débat public n’a été prévu pour permettre à la population de s’exprimer sur cette question. Consultée, la Commission nationale de l’informatique et des libertés (Cnil) ne pourra rendre qu’un avis « consultatif ». « Elle n’aura pas la possibilité d’émettre un veto », précise Katia Roux. Les autorités auront donc les coudées franches.
Seul espoir des associatifs pour empêcher son développement : l’examen du projet de loi par l’Assemblée, prévu pour février. « Le débat s’annonce compliqué », anticipe Katia Roux. Retrait de l’article 7 ou non, promet-elle, « on continuera à se mobiliser pour que le recours à ces technologies n’affecte pas les droits humains ».
https://reporterre.net/JO-2024-la-France-championne-de-la-surveillance-de-masse
Commentaires récents