Vidéo-surveillance algorithmique : l’expérience “temporaire” généralisée

Extrême droite, Gouvernement, Technopolice

Une IA détecte une silhouette suspecte dans une foule à l'aide de la vidéo-surveillance algorithmique.

Quelle surprise ! Les Jeux Olympique de Paris ont été le théâtre d’expériences sécuritaires hors-norme, qui devaient être restreintes à la seule durée de Jeux olympiques et paralympiques. C’était notamment le cas pour la vidéo-surveillance algorithmique qui avait été autorisée par une loi JO validée par le conseil constitutionnel en mai 2023. Ces derniers jours Laurent Nuñez le Préfet de Paris a exprimé être «très favorable» à la généralisation de cette pratique.

Le Premier Ministre a embrayé sur la volonté d’étudier la «généralisation de la méthode expérimentée pendant les Jeux olympiques». Une preuve de plus que le pouvoir n’a aucune parole.

Néanmoins cette annonce n’est pas surprenante puisque dès septembre 2023 Amélie Oudéa-Castéra, alors Ministre des sports, annonçait déjà que «Si ça fait ses preuves et entouré des garanties […] les français attendent de nous qu’on agisse pour leur sécurité et qu’on fasse usage des moyens nouveaux, y compris numériques, pour favoriser cette sécurité». Et effectivement cette expérience temporaire encadrée par la loi contient déjà une application possible jusqu’au 31 mars 2025.

C’est tout le mensonge de la communication politique qui annonce une durée temporaire en prévoyant déjà une extension. C’est l’effet cliquet : un procédé théorisé par James Duesenberry, économiste américain, qui énonce l’impossibilité pour un processus de revenir en arrière une fois un certain stade dépassé.

La généralisation des méthodes liberticides présentées comme «exceptionnelles» et justifiées par «l’urgence» ou le caractère «inédit» d’une situation est désormais un grand classique. Le fichage ADN ne devait concerner que les criminels sexuels, la vidéosurveillance ne devait filmer que les lieux particulièrement concernés par la délinquance, les comparutions immédiates devaient permettre de juger rapidement uniquement certains délits lorsque les tribunaux étaient engorgés, la détention préventive ne devait concerner que les individus susceptibles de fuir ou d’avoir des conduites dangereuses le temps du procès… Autant de mesures qui sont aujourd’hui devenues la normalité policière et judiciaire.

Et c’est sans parler de l’état d’urgence anti-terroriste, dont la plupart des mesures sont rentrées dans le droit commun après l’élection de Macron, des LBD qui devaient se substituer aux armes à feu, de l’usage des QR codes pour se déplacer, qui devait rester strictement sanitaire, et qui a été recyclé pour les Jeux Olympiques, entre autres.

Une pratique qui ne fait pas ses preuves

Cette annonce de généralisation arrive avant même les conclusions définitives sur les hypothétiques apports de cette technologie, qui doivent être rendues en fin d’année.

La méthode algorithmique repose sur l’entraînement d’un algorithme d’intelligence artificielle se basant sur un «jeu de données». Ce jeu de données est issu de milliers d’heures de vidéos et permet d’en tirer pour l’algorithme une norme. C’est cette norme qui, par la suite, servira à détecter les «anomalies». Parmi les exemples de «signalements» on retrouve une personne qui s’arrête au milieu du trottoir, une personne qui remonte une file à contre-sens ou encore qui se baisse pour ramasser un objet. Ces signalements de la vie courante sont gravissimes pour la liberté de circulation. Imaginez-vous ramasser un mouchoir et subir un contrôle de police ou de militaire dans une gare pour avoir été considéré comme anormal par un logiciel.

Au-delà de l’aspect technique, les expérimentations qui ont été réalisées ne démontrent pas un réel impact. Laurent Nuñez lui-même l’a reconnu à demi-mot, lorsqu’il se glorifiait devant la Commission des lois de l’Assemblée Nationale des «baisses significatives de la délinquance» durant les Jeux, il l’attribuait au «plan délinquance zéro» qui concernait plus largement l’année 2024. Mais pour autant, selon lui, il faudrait généraliser la vidéo-surveillance algorithmique.

En 2019, Christian Estrosi, maire d’extrême droite de la ville de Nice, avait mis en place une surveillance sécuritaire avec reconnaissance faciale. Le bilan de la mairie était simple : «l’ensemble des scénarios déployés avait permis d’obtenir une détection et une reconnaissance des personnes d’intérêt dans 100% des cas». À peine croyable, et en effet, la CNIL, autorité qui veille au respect des citoyens dans l’usage de l’informatique, avait relevé des manquements. Le rapport omettait de préciser les cas où l’algorithme avait commis des erreurs. Par exemple, les faux positifs, qui signalent une personne alors qu’il n’y avait pas lieu après vérification.

Le biais est évident : si vous contrôlez 100 personnes sur 100, alors vous aurez un taux de détection des individus suspects de 100% mais vous pourriez aussi contrôler 100 personnes pour rien. Cela ne baisserait par le score de détection avancé par la mairie de 100% de réussite. Étonnamment en octobre 2023, Christian Estrosi demandait la dissolution de la CNIL. Cette entité préserve, très timidement, nos droits les plus élémentaires : il faut donc la supprimer.

En 2020 la RATP avait tenté de détecter le port du masque à l’aide de ces caméras. Le résultat avait été largement sous-évalué par l’algorithme. Si l’on se fiait à cet algorithme, encore plus d’amendes pour non port du masque auraient été injustement délivrées. Certes, ces expériences sont anciennes et les algorithmes ont évolué. Mais les biais relevés ne peuvent être complètement corrigés. Par exemple, en janvier 2023, des pulls à motif de girafe bloquaient la reconnaissance faciale. D’autres biais sont régulièrement mis en avant.

Tordre les mots plutôt que convaincre

Ces technologies sont issues d’un fantasme policier et d’une idée du contrôle dont rêve l’extrême droite. Alors à défaut de convaincre par les actes, les autorités diffusent des éléments de langage rassurants afin de rendre ces technologies acceptables. Il n’est pas question de reconnaissance faciale mais simplement d’«outil d’aide à la décision». C’est seulement pour «détecter un flux ou un mouvement anormal». Tous ces mots tendent à légitimer l’usage de la vidéo-surveillance algorithmique.

C’est pourtant bien la fuite en avant dans le contrôle algorithmique qui se joue ici. Il suffit de se rappeler de la pandémie de Covid : les pass sanitaires équipés de QRcode devaient répondre à un enjeu strictement sanitaire, mais sont redevenus obligatoires pour accéder à certaines rues de Paris durant les JO. Un autre effet cliquet…

Un appétit français pour le contrôle sans limite

La France est, à l’échelle de l’Europe, en avance sur les expérimentations techno-sécuritaires. Ce qui s’ajoute aux forces de polices bien plus lourdement armés que nos voisins européens. Si l’Espagne et le Royaume-Uni expérimentent aussi la reconnaissance faciale, l’expérience des Jeux Olympiques de Paris est sans précédent en Europe.

À l’échelle mondiale, le pays le plus en avance sur la techno-surveillance est la Chine. Ce qui en termes de droits et liberté devrait grandement nous alerter. Dans un district de Changping, à Pékin, les habitants de Tiantongyuan doivent scanner deux fois leur visage avec reconnaissance faciale pour rentrer chez eux. Le mixage parfait du QRcode pour l’accès aux espaces et de la reconnaissance faciale. Ce qui signifie que quotidiennement votre image est mise à jour dans les logiciels de surveillance et que l’on peut identifier votre présence à votre domicile.

Si le parallèle semble éloigné, la France n’a mis que 15 ans à déployer un usage massif de la vidéosurveillance dans les villes au point de les défigurer. Alors même que cette vidéosurveillance ne servirait que dans 1 à 3% des affaires pénales, quand les images ne disparaissent pas si elles mettent en cause des policiers ou personnes de pouvoir.

Certains de nos dirigeants ne cachent pas leur admiration pour la Chine. On se souvient que le patron du MEDEF, Geoffroy Roux de Bezieux, déclarait que «face à une pandémie, un système autocratique semble pour le moment mieux armé pour bloquer une pandémie que ne le sont nos démocraties. En Chine on n’aurait pas laissé les habitants aller dans les parcs ou les marchés».

Dans un État comme la France, où le droit de manifester est sans cesse réduit par la classe politique, il ne fait aucun doute que ces technologies serviront à contrôler et réprimer les mouvements sociaux. Des manifestants contre les mégabassines avaient déjà été identifiés par reconnaissance faciale en 2013. Le nouveau gouvernement d’extrême droite veut donc généraliser ces pratiques.

Un enjeu économique

Ces technologies en évolution constante vers le pire font aussi l’objet d’une course économique, dont les gagnants peuvent empocher le gros lot. L’intérêt grandissant des entreprises pour ces technologies, mais aussi de Macron et sa «Start-Up Nation», poussent à une légalisation des ces outils. En effet, avec la surveillance déployée partout, ce serait une augmentation forte des «jeu de données» dont pourraient se servir les entreprises françaises pour vendre leur savoir-faire à d’autres pays. Le contrôle des corps et la répression sont un business de plus en plus juteux, qui rapporte des milliards chaque année.


Les intérêts économiques des entreprises étant bien au-dessus des besoins de la population et libertés dans la pyramide mentale des macronistes et du reste de l’extrême droite, la légalisation de la viédo-surveillance algorithmique n’est qu’une question de temps.

https://contre-attaque.net/2024/10/04/video-surveillance-algorithmique-lexperience-temporaire-generalisee/


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.