Olivier Tesquet : « Dans la rue comme sur Facebook, notre visage ne nous appartient plus »
paru dans CQFD n°196 (mars 2021), par Emilien Bernard, illustré par 20100
État d’urgence technologique. Voilà le titre aussi parlant qu’alarmant du dernier ouvrage du journaliste Olivier Tesquet. Il y décrit comment la surveillance généralisée a étendu son emprise à la faveur de la pandémie, avec d’étranges acteurs aux manettes. Zoom, en sa compagnie, sur cinq entreprises méconnues du grand public qui propagent le germe du flicage technologique à vitesse grand V(irus).
En janvier 2020, au temps d’avant donc, le journaliste Olivier Tesquet publiait À la trace. Enquête sur les nouveaux territoires de la surveillance [1]. Un livre qui déjà faisait office de sonnette d’alarme, volume au max. Ce spécialiste des nouvelles technologies, qui bosse notamment pour Télérama, y disséquait la prédation de nos données par de multiples biais, des caméras de surveillance aux assistants vocaux en passant par les réseaux sociaux, nos achats en ligne ou nos brosses à dents connectées. Il y a le feu au lac dystopique, disait-il en substance.
C’est peu dire que la situation ne s’est pas améliorée depuis l’irruption planétaire du Covid. Le constat est simple : s’il y avait fuite en avant, il y a désormais grande ruée. Car la pandémie a encore accéléré le mouvement qui voit nos espaces publics et privés être envahis par des cohortes de prédateurs assoiffés de big data, ce nouvel or noir. Olivier Tesquet a donc planché sur un nouvel opus, publié en février : État d’urgence technologique. Comment l’économie de la surveillance tire parti de la pandémie.
Se complétant parfaitement, les deux ouvrages laissent une impression de grande foire d’empoigne – presque de mêlée furieuse. D’un côté, vulnérables et esseulées, nos données personnelles – ce qu’on consomme, ce qu’on aime, ce qu’on voit, mais aussi nos visages, nos démarches, nos maladies, nos émotions. Et de l’autre, prête à tout pour nous les piquer afin de les monnayer : une meute de charognards, excités par la crise et les opportunités qu’elle offre. Il y a les acteurs habituels bien sûr, au premier rang desquels les États, ravis de donner un énième tour de vis sécuritaire, notamment en matière de flicage des rues. Les GAFAM [2] ne sont pas en reste, eux qui ont fait sauter tous les verrous, opérant de grandes razzias sur les informations de leurs utilisateurs. Et il y a les autres, qu’on ne connaît pas, ou si peu, start-up aux crocs aiguisés, bataillant pour chiper une part du gâteau.
Semblant droit sorties de la série Black Mirror, ces entreprises portent des noms barbares tels que Hikvision, Humanyze ou Clearview AI. Pour les besoins de cet entretien, j’en ai sélectionné cinq, dont j’ai soumis le nom à Olivier Tesquet. Voilà ce qu’il m’en a dit.***Palantir : le loup dans l’hôpital
« Palantir est une entreprise positionnée sur le traitement des données. Tiré du Seigneur des Anneaux, son nom dit bien sa raison d’être, puisqu’il renvoie à des “pierres de vision” qui, dans l’univers de la saga, permettent de voir partout et tout le temps. Il s’agit bien de ça : que rien ne lui échappe… Depuis sa création, Palantir vend sa capacité à compiler de gigantesques quantités de données pour les concasser et en extraire du sens, avec des visées prédictives et de détection des menaces. C’est ainsi qu’elle a beaucoup travaillé avec la police et les services de renseignement de nombreux pays. En France, elle est depuis 2015 sous contrat avec la DGSI (Direction générale de la sécurité intérieure), sa mission étant de travailler sur les signaux faibles de terrorisme. Pendant le mandat de Trump, elle a aussi été le bras armé de la politique migratoire extrêmement dure de l’administration américaine, aidant à identifier, traquer et expulser les clandestins.
En partie grâce au Covid, Palantir a vécu une année 2020 exceptionnelle, avec une hausse de 35 % de son chiffre d’affaires, une introduction en bourse réussie et des contrats importants décrochés. Contrairement à d’autres sociétés abordées dans cet entretien, elle est là depuis longtemps, puisqu’elle a été fondée en 2004, en pleine Amérique post-11 Septembre, dans une optique sécuritaire et grâce notamment au fonds d’investissement de la CIA, In-Q-Tel. Elle est aujourd’hui considérée comme une des licornes [3] de la Silicon Valley – une valeur sûre.
Depuis le début de la pandémie, son champ d’action s’est élargi, à tel point qu’elle s’est imposée comme partenaire clé de certains États dans la gestion de la crise sanitaire et économique. C’est en quelque sorte un McKinsey [4] relooké comme un méchant de James Bond : la période lui a permis de consolider sa place aux côtés d’institutions publiques qui lui délèguent de plus en plus de fonctions régaliennes. Le meilleur exemple est sans doute le National Health Service [NHS, le service public britannique de santé], lequel lui a ouvert son réservoir de données sanitaires. Alors qu’elle vient du renseignement, Palantir est désormais en charge de pans entiers du système de santé outre-Manche. Ce n’est pas anodin comme mutation : une fois que l’on a commencé à déléguer à ce type d’entreprise, que ce soit pour lutter contre le terrorisme ou contre un virus, il est difficile de se désengager.
Dans ce genre de négociations avec des acteurs étatiques, Palantir sait ne pas brusquer les choses. En fait, l’entreprise commence par “offrir” ses services avec des produits d’appel, avant de finalement proposer des contrats sonnants et trébuchants. C’est exactement ce qui s’est passé avec le NHS. Au départ, Palantir devait toucher une livre symbolique. Puis un million. Désormais il est question de 23 millions de livres pour la fourniture de toute une infrastructure d’analyse. Alors même que la compagnie est désormais solidement installée au cœur de l’appareil d’État, avec ses données à disposition. Un pouvoir immense. »Clearview AI : trois milliards de visage en solde
« Si on n’a jamais autant gouverné par les données, les acteurs de cette gouvernance sont souvent dissimulés. Clearview AI représente parfaitement cette partie longtemps invisible et clandestine de la surveillance. Mais l’entreprise a été placée sous les projecteurs en janvier 2020, quand un article du New York Times [5] a révélé qu’elle avait aspiré 3 milliards de visages sur les réseaux sociaux, afin de construire la plus grosse base de données de reconnaissance faciale de la planète – 7,5 fois plus importante que celle du FBI. Et elle a opéré ce vol avec des bouts de ficelles, quelques millions de dollars, dont certains investis par Peter Thiel, personnalité pour le moins sulfureuse : cofondateur de PayPal et de Palantir, siégeant au conseil d’administration de Facebook, Thiel est par ailleurs libertarien revendiqué et ne voit pas vraiment la démocratie comme un horizon indépassable.
Depuis, Clearview AI a revendu ces données à des forces de police souhaitant s’appuyer sur ces visages pour identifier les contrevenants, aux États-Unis d’abord, mais aussi dans d’autres pays, notamment le Canada et la Suède [6]. Une catastrophe : cela a permis de légitimer ce gigantesque rapt, sans que l’entreprise ne soit traduite en justice. Le pire ? Dans le même temps, elle continue à prospecter de nouveaux clients sans être inquiétée.
Il faut dire qu’elle répond à une demande, accrue depuis la crise sanitaire : contrôler la circulation des corps possiblement malades dans l’espace public. On aurait pu croire qu’au niveau mondial, l’essor de la reconnaissance faciale serait ralenti par le port systématique du masque. Ce n’est pas le cas : les algorithmes ont simplement été améliorés et la capacité de traitement renforcée. Au sein de ce petit monde et dans cette guerre qui se joue autour de l’intelligence artificielle, la Chine a souvent un coup d’avance, ajoutant sans cesse de nouvelles fonctionnalités : on l’a vu notamment avec une entreprise nommée Hanwang Technology, qui annonçait dès mars 2020 être en mesure de faire fonctionner son logiciel sur des personnes masquées.
Pour ce qui est de la France, je suis assez pessimiste, avec notamment la perspective des Jeux olympiques de 2024 à Paris, événement annoncé comme un eldorado sécuritaire. C’est écrit noir sur blanc dans le Livre blanc de la sécurité intérieure, récemment publié par le ministère de l’Intérieur : “La reconnaissance faciale en temps réel dans l’espace public devra avoir été éprouvée” d’ici les JO, notamment à l’occasion de la Coupe du monde de rugby en 2023. Sachant qu’industriels et politiques tiennent toujours le même discours : il faudrait expérimenter, car la technologie existe et ne pourrait être “désinventée”, puis seulement ensuite élaborer un cadre légal. C’était déjà le cas avec les drones : les usages ont précédé le droit. Une manière d’assurer l’inéluctabilité de cette fuite en avant.
Nous vivons dans une société jamais rassasiée de données. Et ceux qui se concentrent exclusivement sur l’éventuelle efficacité de ces dispositifs dépolitisent la question, car on ne débat alors plus de leur légitimité. Il faut pourtant regarder les choses en face : la reconnaissance faciale est d’abord “un contrôle d’identité permanent et général”, ainsi que l’a récemment formulé un colonel de gendarmerie dans une note exploratoire. Je ne peux pas le formuler plus clairement. »Hubstaff : ton patron sur ton canapé
« Concernant l’invasion de l’intime par le travail, on est là aussi dans une logique d’accélération assez impressionnante. Dès le début de la pandémie, il y a eu une véritable explosion de l’utilisation de logiciels “mouchards”, qui décomptent le temps de travail des employés, voire installent des keyloggers enregistrant tout ce qui est écrit sur le clavier. On parle d’une croissance de 400 voire 500 %. Hubstaff, l’un des leaders en la matière, incarne bien ce retour de la pointeuse, mais à domicile.
À mesure que le télétravail est devenu la norme, ce nouveau régime de surveillance s’est répandu comme une vague, avec un envahissement du foyer par ces technologies. Que l’espace urbain soit désormais façonné en safe city, ville sûre, lieu où tout est rationalisé avec caméras et capteurs, sans angles morts, est déjà problématique. Mais là, il y a désormais une certaine continuité entre l’intérieur et l’extérieur, dans une forme de continuum carcéral, pour reprendre une terminologie foucaldienne. En pleine rue comme à la maison, on n’est plus jamais vraiment chez soi.
Les logiciels espions de type Hubstaff se présentent en outre comme des solutions conviviales. On dit aux salariés que ça va fluidifier les échanges. Cette psychologisation des rapports hiérarchiques me fait penser à une entreprise que j’étudiais dans À la trace : Humanyze. L’un de ses produits phares est une sorte de badge que l’employé porte autour du cou et qui enregistre des données pour son “bien-être”. Cela va très loin, car il peut repérer des variations de la voix ou de la vitesse de déplacement. La victoire du télétravail accentue le phénomène, dans la mesure où nos vies sont essentiellement médiées par les machines depuis un an.
À cet égard, le virus a accentué des dynamiques. On peut croire qu’elles disparaîtront quand il sera vaincu. Sauf qu’il faut considérer l’effet “cliquet”. Une fois un mécanisme enclenché, il n’y a pas de retour en arrière possible. L’histoire récente des dispositifs sécuritaires et antiterroristes le prouve. »Hikvision : la Chine, repoussoir ou aimant ?
« Florissante entreprise chinoise de vidéosurveillance, Hikvision a participé à l’élaboration de caméras et logiciels permettant de reconnaître les Ouïghours dans la rue, matérialisation technologique d’un génocide culturel. Dans le même temps, elle vend des caméras à la France, notamment les caméras-piétons équipant les policiers. C’est d’autant plus hypocrite que, sous nos cieux, la Chine est posée – à raison – comme l’archétype d’une dictature technologique et l’avatar des dystopies décrites dans la série Black Mirror. Mais s’il y a bien une différence fondamentale de régime politique, nous ne sommes pas si loin de suivre la même voie, surtout avec l’accélération due à la pandémie.
En matière de reconnaissance faciale, par exemple, on ne peut pas postuler une neutralité d’usage. Ce n’est pas un marteau, que l’on peut employer de diverses manières, mais une technologie mécaniquement autoritaire. Et qu’il faut absolument rattacher aux logiques économiques prédatrices et mondialisées des grandes plateformes, décrites par Shoshana Zuboff dans son ouvrage L’Âge du capitalisme de surveillance [7]. Car, dans la rue comme sur Facebook, notre visage ne nous appartient plus. On peut donc gloser sur certaines pratiques autoritaires chinoises, à l’image de la généralisation là-bas du “crédit social”, rien ne dit que nous n’adapterons pas ces pratiques dans nos démocraties libérales aux institutions encore à peu près fonctionnelles. Aux États-Unis, par exemple, où chaque citoyen est affecté d’un score de solvabilité depuis les années 1960, des assureurs travaillent en étroite relation avec les grandes entreprises technologiques et des courtiers en données, afin de dresser des profils sanitaires élargis des clients – une situation qui a des effets très concrets sur la population. »Two-I : tes émotions dans le viseur
« Two-I est une start-up créée à Metz et active dans le secteur émergent de la détection des émotions. Elle a par exemple démarché la mairie de Nice pour installer des dispositifs de ce type dans le tramway. Elle souhaite également s’implanter dans les stades et y proposer des outils de gestion des foules.
Si ces projets n’ont pas encore abouti, ils ne rencontrent pas de résistances politiques ou institutionnelles, alors que la détection des émotions pose énormément de questions. Sa promesse marketing : deviner ce que ressent une personne. La singularité d’un individu est alors concassée en une série d’expressions élémentaires et darwiniennes : colère, joie, peur… Ce n’est pas au point mais ça progresse, sachant bien qu’on demande là à une technologie de faire ce qu’elle est incapable de vraiment faire : interpréter des émotions.
Mais le réel problème est ailleurs. Cette technologie s’inscrit dans une longue tradition de pseudosciences racistes du XIXe siècle : physiognomonie, phrénologie… Il s’agissait alors d’interpréter la personnalité de quelqu’un en fonction des traits de son visage, afin d’élaborer par exemple un morphotype du criminel récidiviste. Déconsidérées, ces disciplines dangereuses sont remises au goût du jour par la biométrie, comme en Chine avec la surveillance faciale appliquée aux Ouïghours. Chez nous, cela passe par des itinéraires plus subtils mais tout aussi contestables. Ainsi, un récent article du site de CNN [8] s’enthousiasmait pour une intelligence artificielle qui permettrait à un professeur d’analyser le visage de ses élèves afin notamment de détecter les décrocheurs dans un contexte d’enseignement à distance.
Pour en revenir à Two-I, elle travaille sur une technologie émergente, encore faillible. Mais en la matière, les promesses marketing suffisent déjà à séduire les États, les collectivités ou certains acteurs du monde du football, qui ont fait part de leur intérêt. Et cela semble entériner le changement de paradigme : nous entrons dans une nouvelle phase du bio pouvoir à l’ère technologique. Il ne s’agit plus seulement de collecter des traces numériques et de reconstituer des doubles mathématiques qui ne nous appartiennent plus, mais d’analyser le moindre de nos faits et gestes. Dans cette optique, des éléments comme la démarche, le visage ou les émotions doivent forcément se traduire en signaux informatiques exploitables ou monétisables.
Qu’il s’agisse de Pékin ou de Nice, de la reconnaissance faciale ou de la détection des émotions, le fond de l’air est donc clairement dystopique. Face à cela, à cette montée annoncée comme inéluctable de la surveillance et de ses avatars, il est nécessaire de trouver des lignes de fuite, de repli. Ce n’est pas par hasard que l’écrivain Alain Damasio soit dans ce contexte une voix qui porte : ses fictions dessinent un futur très proche et inquiétant, tout en cherchant des voies de dégagement. À ce niveau, la science-fiction est une précieuse alliée, sachant que l’on vit un présent dilaté, pesant, où l’imagination peut servir de rempart. C’est pour cela que je conclus État d’urgence technologique en convoquant la figure du dessinateur Gébé et de son An 01, ou bien la pensée du philosophe Günther Anders, l’un des pères de la technocritique contemporaine, qui nous enjoint à devenir des “semeurs de panique”. Nous avons besoin d’autres horizons. »Propos recueillis par Émilien Bernard
Cet article a été publié dans le numéro 196 de CQFD, en kiosque du 5 mars au 1er avril.
- Ce numéro est disponible chez près de 3 000 marchands de journaux partout en France. Pour retrouver les points de vente près de chez vous, cliquez ici.
Pour recevoir les prochains numéros dans votre boîte aux lettres, vous avez la possibilité de vous abonner.
Notes
[1] Éditions Premier parallèle, comme le deuxième ouvrage cité.
[2] Google, Apple, Facebook, Amazon, Microsoft.
[3] Start-up valorisées à plus d’un milliard de dollars.
[4] Cabinet de conseil étasunien, mastodonte de son secteur. En France, le gouvernement a eu recours à ses services pour élaborer sa stratégie vaccinale.
[5] « The Secretive Company That Might End Privacy as We Know It », 18/01/2020.
[6] Dans ces deux pays, l’utilisation du logiciel par la police a d’ailleurs suscité de vives controverses et déclenché des poursuites judiciaires, mais aucune contre l’entreprise.
[7] Éditions Zulma, 2020.
[8] « In Hong-Kong, This AI Reads Childrens Emotions as They Learn », Cnn.com (17/02/2021).
Commentaires récents