Myriam Michel : Bonjour. Désolée pour les petits soucis techniques et le retard.
Très rapidement, pour nous présenter, Marne et Myriam, deux membres de La Quadrature du Net [1].
Aujourd’hui, nous allons vous parler de vidéosurveillance algorithmique.
La Quadrature du Net
Je pense je pense que pas mal de gens, parmi vous, connaissent La Quadrature du Net et ses activités. La question qui peut se poser c’est : qu’est-ce qui a amené La Quadrature à travailler sur ces sujets de vidéosurveillance et de vidéosurveillance algorithmique dans l’espace public ?
Quand La Quadrature a commencé ses activités, en tant que collectif en 2008/2009, c’était essentiellement sur des questions de partage de la culture, les lois HADOPI [2] étaient en discussion, ACTA [3] était en discussion, on était plus sur des questions de partage de la culture. On s’intéressait beaucoup à tout ce qui se passait sur Internet, les questions de censure, les questions de protection de données, mais c’était vraiment dans l’environnement internet. Petit à petit, les changements de contexte dans lequel on évolue, ont fait que La Quadrature a un petit peu étendu son travail. Un moment de basculement s’est fait en 2015 avec l’état d’urgence. À partir de là, on a commencé à beaucoup travailler sur des questions de surveillance et des questions de renseignement et à investir un petit peu toute la réflexion et le travail sur ce qui se passe dans l’espace public et pas seulement en ligne ; c’était 2015/2016. À partir de 2017, on a beaucoup travaillé sur les questions de données personnelles, on a notamment fait une campagne contre les GAFAM en 2018, c’était notre sujet principal à l’époque, et en même temps, dès 2017, on a commencé à travailler, à se renseigner, à voir un petit peu ce qui se passait dans l’espace public sur les questions de vidéosurveillance et,en 2019, ça nous a amenés à lancer une initiative qui s’appelle Technopolice [4].
Technopolice ?
Marne : Technopolice est parti d’une réflexion qu’on a eue. Nous nous sommes notamment demandés quelle est la place de l’intelligence artificielle dans les collectivités. Notre premier angle était plutôt celui de la smart city. Nous voulions nous renseigner un petit peu sur la réalité de la smart city sachant qu’à l’époque c’était un discours très en vogue, on avait tout un fantasme de la ville connectée qui nous était vendu dans les médias et tout ça, nous avons donc voulu chercher à nous renseigner là-dessus. Et très vite, en nous renseignant sur ce type de projet, nous nous sommes rendu compte que l’imaginaire qui nous était vendu ne correspondait pas du tout à la réalité, d’ailleurs, de plus en plus, le terme qui était utilisé ce n’était pas celui de smart city mais celui de safe city et, en réalité, l’usage d’algorithmes au service des villes était beaucoup plus incarné vers un aspect sécuritaire. Par exemple, à l’époque, nous nous sommes intéressés à un projet, à Marseille, qui s’appelait « Big Data de la Tranquillité Publique » [5], qui proposait déjà toute une panoplie d’outils au service d’une vision policière de la ville tournée autour de l’usage de drones, de l’usage de tout un tas de capteurs, dont les caméras mais aussi des micros, sur couche algorithmique pour analyser tout ça. Mais aussi du recoupement de données, l’utilisation de données disponibles sur Internet en source ouverte ou des données issues des hôpitaux, de la police, etc., avec une volonté de connecter tout ça pour avoir une meilleure connaissance de la ville, des gens, etc.
C’est comme cela que nous avons commencé à nous intéresser particulièrement à la vidéosurveillance algorithmique qui va être le sujet d’aujourd’hui.
Du coup, comme on avait tout un imaginaire très sombre autour de la Technopolice, représentant les dangers de ce que c’est et qui est un peu oppressant, nous avons décidé de faire cette conférence plutôt sur une ligne un peu plus cynique avec des couleurs plus gaies.
La VSA détruit nos vies
Marne : Pour le sujet d’aujourd’hui, il va être question de vidéosurveillance algorithmique.
La vidéosurveillance algorithmique c’est, en fait, une couche logicielle qui vient s’ajouter aux caméras de vidéosurveillance déjà existantes pour permettre d’analyser les images qui viennent des caméras et de mieux classer, répertorier, trier tout ce qui en sort.
La VSA a de deux grands types d’utilisation.
- La VSA en temps réel : les images qui sont captées par les caméras équipées de VSA sont transmises au centre de supervision urbain et le logiciel va, en fait, détecter ce qu’on lui a demandé de détecter et donner, dans ces cas-là, en direct, des alertes aux agents du CSU qui eux, vont pouvoir prévenir la police qui interviendra. C’est le premier volet, ça se passe vraiment en temps réel sur les images qui viennent directement des caméras. Sur ce volet-là, l’utilisation de la VSA provoque deux grands changements :
- le premier c’est un passage à l’échelle, puisqu’au lieu d’avoir un ou deux types derrière des caméras et qui n’ont pas la capacité physique de regarder toutes les caméras, on a un logiciel qui va tout regarder à leur place et les alerter, il y a donc vraiment un passage à l’échelle en termes de surveillance ;
- l’autre aspect, qui change beaucoup avec la VSA, c’est qu’on aura donné par avance, au logiciel, le type d’événements, de situations et de comportements qu’il doit détecter, ce qui fait que la VSA va cibler un certain nombre de comportements et discriminer un certain nombre de populations ; c’est un point sur lequel on reviendra.
Marne : Là, on parle essentiellement de la vidéosurveillance algorithmique à usage de la police. Pour la plupart, ce qu’on va vous dire concerne cet usage-là. Il faut savoir que la vidéosurveillance algorithmique existe aussi pour des usages privés, par exemple, il peut y avoir de la VSA dans les supermarchés pour traquer les vols, il peut y en avoir dans les entreprises, il peut y en avoir à plein d’autres endroits et, là, les informations sont encore plus difficiles d’accès. On va vous parler un peu de la façon dont on a récupéré toutes les informations sur la VSA, en l’occurrence il y a d’autres champs, mais nous parlons essentiellement de la VSA policière.
Myriam Michel : Déjà, pour avoir une idée de ce que sont les attendus de ces usages qui sont repérés, on va repartir à la source de ce champ de l’intelligence artificielle qui est utilisée par la VSA, la computer vision.
Voilà quelques exemples des algorithmes qui sont le plus utilisés dans la VSA :
- les premiers, ce sont les algorithmes de détection qui permettent d’isoler les différents éléments de l’image ;
- les deuxièmes, ce sont les algorithmes d’identification. Ce type d’algorithme est bien connu, ils sont entraînés sur des grosses bases de données d’images, on leur donne plein d’images de voitures, plein d’images de chats, etc., pour qu’ils apprennent une sorte d’empreinte, des corrélations entre les pixels et leurs couleurs pour pouvoir associer une image au mot en question ;
- ensuite, on a les algorithmes de suivi qui permettent, sur l’image, de voir les éléments se déplacer ;
- on a les algorithmes de franchissement de ligne, qui permettent, quand on détecte le suivi d’un objet, de savoir qu’il y a une intrusion dans une zone. En plus, c’est quelque chose qui marche assez bien, c’est donc quelque chose qui est beaucoup mis en place ;
- les algorithmes de reconnaissance faciale, basés sur les points du visage, qui permettent d’identifier de manière unique une personne ;
- les algorithmes de filature qui permettent, sur la base d’attributs physiques type la couleur des vêtements, la couleur de la peau, les cheveux, tout un tas de choses, sur un parc de caméras, sur un ensemble, de reconstituer le parcours que fait une personne ;
Ce sont un peu les briques algorithmiques qui sont utilisées et, ensuite, elles sont souvent assemblées les unes aux autres pour proposer tout un tas d’usages qui sont ceux qui sont vendus par les entreprises de VSA, sachant que les entreprises de VSA ne vont pas toutes mettre en avant les mêmes cas d’usage, elles ne vont pas toutes les formuler de la même manière en fonction de leur cible. Par exemple, on parle des algorithmes de reconnaissance faciale, toutes les entreprises de VSA ne vont pas les inclure. Certaines entreprises vont plutôt faire un produit à destination de collectivités de droite ou qui sont très orientées sécurité, où l’idée de pouvoir identifier les gens, de les retrouver sur la base de leurs visages va être mis en avant ; d’autres entreprises vont se présenter plus sous l’angle smart city, elles vont mettre en avant la détection de dépôts sauvages d’ordures ou les infractions routières, ce genre de choses.
On a d’autres algorithmes encore, qui permettent, par exemple, de lire les plaques d’immatriculation, il y a tout un tas de briques algorithmiques différentes qui sont compilées pour proposer un spectre d’usages extrêmement large.
Maintenant, on va se poser la question de ce que veut dire, ce que décrivait Myriam tout à l’heure, cette systématisation, cette augmentation des forces de la police, des forces policières qui ne s’impacte pas de la même manière dans toute la société. Elle est vraiment ciblée sur les espaces publics.
Déjà, on se pose cette question : qu’est-ce que veut dire renforcer la répression spécifiquement dans les espaces publics ?
Les espaces publics sont les espaces qui sont ressource pour les personnes qui ont le moins accès à un espace privé, donc, les personnes qui vont être le plus touchées par la VSA sont celles qui passent le plus de temps dans la rue parce qu’elles y vivent, qu’elles y travaillent. On voit donc qu’il y a déjà un ciblage qui n’est pas égal sur toute la population.
Ensuite, quand on regarde du côté des usages qui sont faits de la VSA par la police, ceux qui vont être le plus souvent mis en avant par les entreprises, ça va être la détection de personnes allongées, la détection de personnes statiques, la détection du maraudage, la détection de rassemblements. On peut voir, à chaque fois, que ça accompagne des logiques policières qui sont visibles par ailleurs. En fait, la VSA accompagne une politique, une vision de la ville, notamment certaines politiques de gentrification visant, par exemple, à renforcer le harcèlement des SDF pour les éloigner des centres-villes ou contre les personnes qui mendient ou contre les travailleuses du sexe. Et puis, bien sûr, les rassemblements de personnes, parfois ils disent carrément « rassemblements de personnes devant un hall d’immeuble », ce n’est pas formulé pareil en fonction des entreprises, mais on voit que les publics qui sont ciblés, là aussi, vont être des zonards, des personnes considérées comme nuisibles, qui sont souvent des jeunes qui se rassemblent, parce que, déjà, ils n’ont pas forcément les moyens d’aller dans un bar ou quelque chose comme ça et aussi parce qu’ils sont associés au deal et aux points de deal.
Ce qu’on peut déjà conclure de ça, c’est que la VSA cible vraiment, en priorité, les personnes précaires et les personnes marginalisées.
Après, de manière générale, on voit dans la VSA que les détections qui sont mises en avant sont beaucoup de petites choses qui ne sont pas du tout des infractions, qui ne sont pas du tout des choses illégales, ce sont même très rarement des choses illégales parce qu’on est borné par les capacités que permet la technologie. En fait, on a une approche qui est vraiment orientée autour d’une dialectique, d’un discours, repérer des signaux faibles, c’est comme cela que la chose est justifiée : se dire qu’il faut être au courant d’un rassemblement de personnes, parce que des personnes qui se rassemblent c’est un signal faible pour commettre une exaction.
On vient raconter un discours autour et tout cela confère une vision très normalisée de la ville. C’est un discours qui existe beaucoup sur l’impact de la vidéosurveillance : ça provoque, sur les gens, un effet d’auto-censure et d’auto-conformation à une certaine vision de la norme. La VSA vient vraiment renforcer ça et, au final, la VSA va avoir un impact sur tout le monde et elle va s’en prendre à toutes nos libertés de base : la liberté de se déplacer, la liberté de manifester, la liberté d’expression, le droit à l’anonymat, le droit à la vie privée qui sont atteints par la VSA, majoritairement les personnes précaires et les personnes marginalisées, mais, en fait, aussi tout le monde et cela métamorphose la ville.
Myriam Michel : L’image que ça donne, c’est un petit peu anecdotique, mais c’est un petit peu comme ce qui a pu se passer pendant le confinement et la crise sanitaire : en fait ces algorithmes, en détectant toute situation qui leur paraît anormale, viennent nous dire « la norme c’est vous partez d’un point A, votre domicile, et vous allez à un point B qui va être essentiellement votre lieu de travail ou des lieux de consommation ». C’est une manière de réduire la vie à, simplement, un modèle très, devrais-je dire capitaliste ?, je ne sais pas, en tout cas c’est chercher à réduire et à normer nos vies pour les centrer autour d’un certain nombre d’activités que la société, en tout cas ceux qui décident des algorithmes, parce que les algorithmes ne décident pas tout seuls, voudraient nous voir faire, Ça enlève effectivement énormément de choses, de richesses à l’espace public, à tout ce qu’on pourrait y faire et qu’on devrait pouvoir y faire sans pour autant alerter des algorithmes et des agents dans un CSU.
La VSA se glisse partout
Marne : Là, en gros, on a un peu fait le tour, grossièrement, de ce qu’est la VSA et de ses dangers. Maintenant, on va essayer de comprendre comment il se fait qu’une technologie aussi dangereuse a pu se développer massivement. Aujourd’hui, on a un peu commencé à recenser, avec Technopolice, toutes les villes où il y a eu de la VSA, on sait qu’il y en a plus de 200 en France. Plein de projets particuliers ont attiré notre attention et avec ce fait qu’en silence, tranquillement, cette technologie s’est déployée sur le territoire.
Myriam Michel : La question qu’on peut se poser c’est : est-ce que cette technologie-là est venue répondre à un besoin réel, à une problématique politique prioritaire qui aurait conduit à faire appel à ces algorithmes ? En fait, quand on regarde bien le sujet, eh bien non ! Les algorithmes de VSA sont venus s’installer sur les caméras à cause de la convergence d’intérêts de trois pôles : le pôle économique, le pôle politique plutôt des collectivités territoriales et le pôle de l’État.
On a un pôle économique très important, un nombre d’entreprises technologiques, de grosses entreprises souvent, quoiqu’aussi pas mal de startups, qui travaillent sur le marché de la surveillance, marché extrêmement juteux puisqu’on parle de plusieurs milliards, je crois, je n’ai plus le chiffre en tête, il est dans la brochure, dont on vous parlera tout à l’heure, qu’on a publiée récemment. La surveillance et les technologies de surveillance sont un marché extrêmement juteux et la VSA fait partie, actuellement, des marchés les plus juteux parmi tout cela. Donc, ces entreprises produisent des logiciels et elles vont soit répondre à des appels d’offres, mais aussi, très souvent, démarcher les collectivités, les villes et les villages, pour leur proposer des services dont on peut se demander si les communes en ont réellement besoin.
À côté de ça, elles alimentent un marché qui va répondre à des intérêts politiques et électoralistes de la part des collectivités territoriales. On a très souvent la vidéosurveillance et, encore plus, la vidéosurveillance automatisée qui sont mises en place pour répondre à des problèmes repérés par les élus, mais, quelque part, c’est chercher des solutions technologiques un peu magiques à des problèmes qui, à notre sens, devraient être réglés plutôt par d’autres manières et qui, parfois, sont assez dérisoires — dérisoires, je ne sais pas : est-ce que du dépôt d’ordures sauvages dans un petit village de 4000 habitants nécessite d’aller mettre plusieurs dizaines de milliers d’euros dans des caméras et de la VSA ?
Et puis, on entend aussi beaucoup quand on discute avec des élus, parce qu’il nous arrive de rencontrer régulièrement notamment des parlementaires qui ont aussi un mandat local pour discuter de ces questions, souvent leur discours c’est « mes concitoyens ont peur, ils veulent plus de sécurité, ils me demandent de mettre des caméras ». Ils ne le disent pas comme ça, mais c’est quand même clairement sous-entendu, « j’ai envie de me faire réélire, donc je vais mettre des caméras. Et, par cela, je vais donner l’impression que je fais quelque chose », alors qu’en fait la cause du problème n’est jamais prise en compte. Donc, on a vraiment un aspect très électoraliste.
Le troisième grand acteur, dans tout cela, c’est l’État et sa police qui, par ces technologies, notamment la VSA, cherchent effectivement à augmenter leurs capacités de surveillance globale de la population.
Je crois que j’ai à peu près fait le tour.
Marne : Oui, c’est ça. On ne va pas approfondir ce point-là mais, si ça vous intéresse, on a écrit pas mal de choses là-dessus dans la brochure dont on va vous parler.
Ce qui est sûr c’est que c’est une histoire de longue date qui est façonnée autour de la construction du sentiment d’insécurité. Depuis très longtemps, la manière dont est présentée la société et le discours du ministère de l’Intérieur viennent nourrir un sentiment d’insécurité pour orienter les populations, largement repris par les médias avec, aussi, la mise en avant de faits divers, etc., qui viennent renforcer la peur des gens et la croyance que de la surveillance les protégerait de cette peur fictive.
Myriam Michel : La question de savoir pourquoi cette technologie, aussi dangereuse, a pu se déployer alors que ce que nous constatons, que ce soit en discutant avec les élus ou en discutant, parfois aussi, avec des entreprises, c’est qu’en fait personne, au fond, ne sait exactement ce qu’est la VSA. On a souvent des algorithmes dont personne ne comprend trop comment ils fonctionnent. Depuis cinq ans que nous travaillons sur le sujet, nous nous sommes aperçus, tu le disais tout à l’heure, c’est qu’il y a une opacité énorme et voulue sur tous ces sujets-là.
Marne : La question c’est vraiment pourquoi n’y a-t-il pas un rejet de masse de la VSA équivalent à celui qu’on a sur la reconnaissance faciale ? On voit que la reconnaissance faciale bénéficie d’une vision largement nourrie par de la science-fiction, donc chacun se fait une représentation mentale de ce que c’est et a plus ou moins une idée de ses conséquences et des dangers. Et, comme personne ne sait ce qu’est la VSA, on ne peut pas avoir ce rejet de la population et c’est vraiment la base sur laquelle se déploie cette technologie, avec une opacité qui est entretenue, une volonté de ne pas porter à la connaissance du public ce que c’est réellement ou de le faire de manière très stratégique. On reviendra un peu après sur les stratégies en question.
Sur ce qu’il en est du déploiement de la VSA, on voit qu’il y a vraiment une opacité à tous les étages. Toutes les prises de décisions qui existent autour de son déploiement sont très difficilement accessibles.
Le premier niveau, on vous en parlait, c’est ce qui nous a motivés notamment à pousser l’initiative Technopolice pour avoir un maximum de groupes locaux qui se forment, c’est le fait que ça se déploie à une échelle locale et qu’aucune information n’est faite dessus.
Pour savoir, par exemple dans une ville, si de la VSA a été mise en place, la méthode qu’on utilise à La Quadrature c’est de faire des demandes d’accès aux documents administratifs, des demandes CADA [6]. Il faut le faire pour toutes les villes, elles répondent souvent assez peu. C’est un de nos moyens principaux pour le savoir. Quasiment toutes les villes qu’on a recensées, c’est grâce à une demande CADA qu’on a pu savoir qu’il y avait de la VSA. Ça nous a permis aussi, souvent, de savoir quelle est l’entreprise en question.
Le deuxième niveau d’opacité, ça va être l’opacité technique. C’est plutôt par rétro-ingénierie et en allant chercher quel était l’état de l’art de la computer vision, parfois un peu en discutant avec des gens qui sont au contact des entreprises qui produisent la VSA, qu’on a pu savoir ce qu’on vous a expliqué tout à l’heure sur les différentes briques algorithmiques de computer vision qui sont utilisées. Sinon, c’est très difficile et, ce qui est le plus difficile, c’est de savoir vraiment exactement quels sont les paramétrages, quelles sont les fonctionnalités. Par exemple, on ne peut pas avoir accès au logiciel, on ne sait même pas, du point de ceux qui vont l’utiliser, à quoi ça ressemble. De temps en temps, il y a des images de journalistes qui ont réussi à récupérer des choses, mais c’est très opaque.
En plus, il y a l’opacité qui relève du fonctionnement même de l’intelligence artificielle avec, notamment, ces algorithmes d’identification dont on parlait tout à l’heure, qui sont tous basés sur du deep learning ; souvent, même les concepteurs des algorithmes ont une connaissance très maigre des données qui vont être utilisées, ils entraînent leurs algorithmes sur des images sans vraiment savoir, de manière indifférenciée sur une voiture ou sur un humain. D’ailleurs, tout fonctionne de la même manière pour l’algorithme, il s’agit juste de faire des corrélations entre des pixels et, au final, il n’y a pas de prise de conscience de l’impact sur les libertés de ce qui est en train de se faire et on n’a pas du tout moyen d’avoir accès à la manière dont ces conceptions sont faites.
Et puis le dernier niveau d’opacité, qui est sans doute le plus dangereux, c’est l’opacité pratique. Des villes écrivent un appel d’offres pour avoir de la VSA, souvent, d’ailleurs, il est un peu coécrit avec des entreprises, etc., donc, pour nous, c’est très difficile : on peut juste avoir, via les demandes CADA, accès aux procès-verbaux des conseils municipaux, aux appels d’offres et aux réponses aux appels d’offres, mais c’est tout. Donc, les villes font la commande. Imaginons, par exemple, une ville qui dirait « je veux de la VSA pour faire de la détection de dépôts d’ordures sauvages », elle se tourne vers une startup, disons Wintics, une des entreprises qui a gagné le marché des transports de l’île-de-France pour les expérimentations légales de VSA dont on va vous reparler bientôt. Une fois que la police se retrouve avec le logiciel entre les mains, elle a, en réalité, accès à une panoplie d’usages de manière totale et on ne peut pas savoir de quelle manière la police va l’utiliser.
Il y a eu un petit scandale en novembre dernier lorsque le média d’investigation Disclose a enquêté sur BriefCam [7] une entreprise de VSA israélienne qui a récemment été rachetée par Canon, sur laquelle nous avions beaucoup travaillé depuis longtemps, d’ailleurs nous avions réussi à accéder au manuel d’utilisation de BriefCam via une demande CADA, ce qui nous en avait appris beaucoup plus sur le fonctionnement de ce logiciel-là ; on avait notamment annoncé que, dans les usages, il y avait une option, qui était juste une case à cocher, de reconnaissance faciale. C’est une des entreprises qui fait partie de celles qui proposent aussi de la reconnaissance faciale. Du coup, le média d’investigation Disclose a révélé, en novembre dernier, qu’en toute connaissance du ministère de l’Intérieur, etc., la police utilisait cette option de reconnaissance faciale.
Tout ça pour montrer que c’est très difficile quand on passe dans la rue, sous une caméra, de savoir s’il y a de la VSA dessus, même si on le sait, on ne sait pas exactement ce qu’elle fait et ce qu’on sait encore moins c’est comment la police va l’utiliser.
C’est l’opacité qui accompagne globalement tout le développement de la VSA.
Myriam Michel : Très rapidement, je ne vais pas vous détailler la chronologie, ce n’est pas du tout l’idée, c’est juste pour signaler que depuis 1995 et jusqu’en 2019, il y a eu un gros boom dans l’installation des caméras de vidéosurveillance classique dans les villes de France, notamment à partir du mandat de Nicolas Sarkozy. À partir de 2019, on a commencé à voir apparaître, dans les discussions politiques, des questions de reconnaissance faciale et de VSA, puisque, dès 2019, des élus ont proposé d’utiliser les Jeux olympiques de 2024 comme occasion pour faire avancer la législation sur ces questions, en parlant, au départ, de reconnaissance faciale. Ensuite, en 2020, un certain nombre de choses se sont passées, notamment la loi sécurité globale [loi pour une sécurité globale préservant les libertés] contre laquelle nous avions pas mal lutté, avec beaucoup d’autres associations, qui a aussi permis d’augmenter le nombre de caméras et de diversifier le type de caméras qu’on pouvait trouver sur la voie publique, notamment des drones, les caméras mobiles. On a eu, effectivement, une diversification des types de caméras, et puis, en 2023, est arrivé le projet de loi sur les Jeux olympiques et paralympiques de 2024 [8], qui a été une grosse occasion de tenter de légaliser la VSA, je laisserai Marne vous parler rapidement de cette loi puisqu’elle a été votée depuis.
L’idée c’était juste pour montrer que ce n’est pas un truc tout nouveau, les politiques en discutent depuis un petit bout de temps maintenant, au moins cinq ans, en tout cas plus ou moins publiquement, et, en fait, on est vraiment dans l’idée d’une stratégie des petits pas. Pour éviter, justement, que la population se braque contre un certain nombre de technologies problématiques, leur stratégie c’est de ne pas arriver avec tout d’un coup, mais d’y aller doucement, de légaliser un petit bout par ci un petit bout par là, etc., pour passer plus en douceur et rendre ça plus acceptable. On avait notamment, c’est certes un peu anecdotique mais ça décrit très bien cette stratégie, un député, Philippe Latombe, je pense qu’un certain nombre d’entre vous ont entendu parler de ce monsieur, qui a été récemment, puisque c’était en 2023 aussi, devant le lobby de la vidéosurveillance, l’AN2V [Association Nationale de la Vidéoprotection], décrire cette fameuse stratégie et il a dit mot pour mot que la reconnaissance faciale est un tabou ; que si on veut amener tout de suite la reconnaissance faciale dans le débat ça va bloquer pas mal de gens, donc, il faut faire les choses petit à petit pour ne pas crisper. Il a quand même dit « il faut y aller en touchant les choses du bout du doigt et en y allant dans des cas très particuliers, très bien protégés, très bien balisés ». Il y a vraiment toute une stratégie derrière ça et on va voir rapidement, par la suite, que « des cas particuliers très protégés et très balisés », c’est dans le discours ! Dans les faits, c’est un petit peu autre chose.
Marne : Donc, en 2023, pour la première fois en Europe, la vidéosurveillance est légalisée dans le cadre de la loi sur les Jeux olympiques, qui n’aborde pas vraiment beaucoup d’autres sujets que les sujets de surveillance, c’est un des éléments central de cette loi. Cette loi est orientée autour d’expérimentations qui sont vraiment bien cadrées dans le temps et dans l’espace, qui sont annoncées par des arrêtés préfectoraux. C’est annoncé comme étant surveillé par la CNIL, ça va durer jusqu’en mars 2025, ça concerne tout événement sportif, récréatif et culturel, pour huit usages qui sont :
- présence d’objets abandonnés
- présence ou utilisation d’armes
- avancer à contre-sens pour un humain ou un véhicule
- franchissement de zone, ce que je vous expliquais tout à l’heure, le truc qui fonctionne assez bien
- présence d’une personne au sol à la suite d’une chute, sachant que c’est la CNIL qui est venue ajouter le « à la suite d’une chute », parce que le fait que la VSA fait de la détection de personnes au sol avait déjà fait un peu polémique, du coup, pour adoucir, pour préciser que ça ne sera pas utilisé contre des personnes sans-abri, la CNIL a demandé de faire ce petit ajout
- mouvement de foule
- densité trop importante de personnes
- et départs de feu.
Déjà, on voit que ça ne concerne pas du tout que les JO, pour l’instant on n’est pas encore sûr qu’il va vraiment y en avoir pendant les JO, on ne sait pas. Pour l’instant, il y a eu deux séries d’expérimentations : une première pour le concert des Black Eyed Peas et le match PSG/OL le week-end des 20 et 21 avril et la deuxième qui était sur cinq jours pour les concerts de Taylor Swift aux alentours du 10 mai. On n’en est encore qu’au début.
On voit que c’est hypocrite de présenter encore ça comme étant pour les JO puisque les expérimentations durent jusqu’en mars 2025.
En plus, la CNIL a découvert la première expérimentation par la presse, donc, on a beau jeu de nous dire qu’elle supervisera tout ça !
Les arrêtés préfectoraux sont vraiment publiés au dernier moment. Pour la dernière expérimentation, celle de Taylor Swift, l’arrêté préfectoral a été publié à 22 heures pour une expérimentation qui commençait le lendemain matin à 8 heures. Du coup, nous avons mis tout un truc en place pour pouvoir arriver à repérer les arrêtés préfectoraux, en gros, on a mis en place un petit scraper qui va chercher sur les sites, dans les recueils d’actes administratifs, qui les « océarise » et qui fait de la recherche de mots-clés. Ce petit outil s’appelle « Attrap Surveillance » pour « Automate de Traque de Termes et de Recherche dans les Arrêtés Préfectoraux » et on a un petit robot qui lance une annonce sur Mastodon, sur Mamot, qui s’appelle « Attrap surveillance », @AttrapSurveillance chez mamot.fr [9].
Myriam Michel : On va repartir sur les usages, pour bien montrer la stratégie des petits pas, dont nous parlait Marne.
On a essayé de schématiser.
Le cadre le plus grand représente ce qui est techniquement potentiellement faisable, actuellement avec la VSA, comme types d’usage.
Le second cadre, c’est tout ce qui est actuellement utilisé, ce pourquoi on a eu des traces et des preuves par nos recherches avec les groupes Technopolice, mais c’est illégal.
Et, en rouge, tout ce qui est légalisé par la loi JO.
Là, on a vraiment la stratégie des petits pas. Ils ont légalisé une toute petite série de cas d’usages possibles en faisant semblant de ne pas voir, qu’en fait, tout le reste est déjà utilisé à part quelques cas potentiels. On a donc quand même actuellement, de manière tout à fait illégale, utilisé par un certain nombre de villes en France, de la reconnaissance faciale, de la recherche à partir d’ensembles de caractéristiques physiques, sachant que quand on parle de caractéristiques physiques, on peut très vite tomber sur des choses discriminatoires.
Ce qui est assez important à souligner dans la liste, c’est tout ce qui est l’analyse des émotions, vraiment des choses qui peuvent toucher à la personne en fait, donc, effectivement quelque chose d’assez problématique.
Après, dans les cas potentiels qui seraient techniquement possibles, mais qu’on n’a pas encore vus, on a aussi un certain nombre de choses qui peuvent être problématiques. Par exemple, techniquement, on pourrait actuellement détecter, dans une foule, des gens qui portent un voile, pour donner un exemple un peu polémique, volontairement, pour montrer à quel point ça pourrait entraîner un certain nombre de dangers.
Marne : En fait, on a un peu une crainte. Cette dernière partie vise aussi à ce que chacun se pose la question du pouvoir : le spectre d’usages est très large, ça pourrait accompagner d’autres politiques répressives. Par exemple, il y a un couvre-feu pour les mineurs de moins de 12 ans, chose qui arrive de nos jours, la VSA pourrait détecter quand un enfant n’est pas accompagné d’un adulte. En fait, chaque fois qu’on aurait des mesures répressives, la VSA pourrait être un instrument pour renforcer la répression sur ce genre de chose.
Tout ça pour en arriver au fait que tout cela nous est présenté comme une expérimentation, alors que ce qu’on voit, depuis des années et des années, tous ces usages qu’on vous a présentés il y a deux minutes, sont présents, sont utilisés h24 dans plein de commissariats. Dans plein de centres de supervision, c’est utilisé et tout nous est présenté comme une expérimentation. Le problème, c’est que ça n’en est pas. La preuve que ce n’en est pas, c’est qu’ils n’ont même pas attendu la fin des expérimentations pour continuer leur stratégie des petits pas et avancer dans le monde de la VSA puisque, le 15 mai dernier, la proposition de loi sur la sécurité dans les transports proposition de loi relative au renforcement de la sûreté dans les transports] a commencé à être discutée à l’Assemblée nationale. D’ailleurs, ils n’ont même pas voulu auditionner La Quadrature sur le sujet parce qu’ils étaient trop pressés, encore à cause des JO. Cette proposition vient légaliser une autre forme de VSA. Les critères de la loi JO c’est sur de la VSA en temps réel et là, la volonté, c’est d’amorcer la légalisation de la VSA à posteriori.
On voit que tout est absolument hypocrite, que c’est vraiment une stratégie d’amorcer la légalisation de pratiques qui sont illégales, qui sont déjà en place par la police et, en plus, même dans la manière dont c’est fait, tout est malhonnête.
Contre-attaquons
Myriam Michel : Du coup, maintenant qu’est-ce qu’on peut y faire ?
Marne : Ça fait très longtemps que nous travaillons sur la VSA et pourtant, ce n’est que maintenant que nous avons décidé de vraiment lancer une campagne parce que nos appels à visibiliser ce sujet – on a commencé à en parler pas mal en 2019 – avaient très peu de réceptivité. Le fait qu’il y ait une amorce légale permettait vraiment d’avoir un moment médiatique aussi.
Dans notre plan de contre-attaque, nous avons commencé par essayer de surfer sur ce moment, sur le fait qu’il y a les premières expérimentations et, d’un coup, une grande quantité de journalistes qui ne s’intéressaient pas du tout au sujet avant se sont mis à s’y intéresser. Sauf que nous nous sommes dit qu’on n’avait pas envie de se faire avoir par cette stratégie des petits pas qui va viser à ne nous faire parler vraiment que de la loi JO et si les usages de la loi JO, elle-même, sont problématiques, etc. Non. On s’est dit que c’était vraiment le moment pour que les gens réalisent les dangers de la VSA dans son ensemble, donc mettre aussi le doigt sur la VSA illégale.
On a organisé une conférence de presse et tout ça dans le but d’essayer de pousser un maximum aussi les journalistes à parler de la VSA illégale et, pour cela, on s’est servi du fait que le 21 avril, pendant la première expérimentation, celle pour le match PSG/OL, à Gare de Lyon, pendant qu’il y avait la première expérimentation de la VSA dans les petits cadres bien organisée de la loi, etc., on avait aussi un autre projet qui est le projet de VSA de la SNCF, qui s’appelle Prevent PCP. C’est un projet de VSA illégale, qui, au même endroit, fait de la filature automatisée.
Prevent PCP est, en gros, orienté beaucoup autour de la détection de bagages abandonnés. La VSA sait bien faire de la détection de bagages, ce qui est difficile c’est de qualifier un bagage comme étant abandonné ou pas et, pour pouvoir qualifier un bagage d’abandonné, ils ont recours aux algorithmes de filature qui permettent de savoir que la personne s’est suffisamment éloignée du bagage, etc. Du coup, pour repérer les bagages abandonnés, ils suivent toutes les personnes dans la gare sur la base de ré-identification de leurs critères physiques, souvent vestimentaires ou couleur de peau, couleur de cheveux, etc., ce genre de choses.
Du coup, pendant cette conférence de presse, nous avons annoncé que nous déposions une plainte devant la CNIL [10] contre ce projet-là, Prevent PCP, ce qui nous a permis d’avoir un peu plus d’écho médiatique et d’attirer le regard sur l’empire de la VSA, tout ce qui se passe derrière ces petites expérimentations qui sont, en fait, le premier contact que la majorité des gens aura avec ce qu’est la vSA.
Myriam Michel : En parallèle du dépôt de cette plainte, nous avons entamé une campagne de sensibilisation et d’actions. Nous avons publié une brochure détaillée [11]. Là, on vient de vous résumer, en un petit peu de temps quand même, un document qui fait 80 pages. Il y a énormément d’informations, donc, si le sujet vous intéresse, que vous avez envie de creuser un peu plus, n’hésitez pas, elle est téléchargeable sur notre site donc à l’adresse laquadrature.net/toutsurlavsa/.
Si ça intéresse des gens, on a aussi produit un certain nombre d’affiches, si vous avez envie d’aller faire des collages sur des futurs lieux d’expérimentation de la VSA, on a ce triptyque d’affiches [12]. L’idée c’est surtout que ça attire le regard, que les gens puissent savoir que ce sujet existe et creuser éventuellement derrière, mais ce n’est que le début de ce qu’on souhaite faire.
Marne : En effet, il y a un gros enjeu autour de l’information autour de la VSA.
Déjà, on a une petite victoire sur le fait que, maintenant, on parle de VSA et ça n’a pas été facile. Quand on a commencé à s’intéresser au sujet, en 2019, on ne parlait pas de vidéosurveillance algorithmique, les entreprises partaient de « vidéoprotection intelligente ». En fait, il y a eu un peu toute une guerre sémantique qu’on a, visiblement, plutôt remportée puisque maintenant les médias utilisent beaucoup plus VSA que VPI.
Il y a donc un enjeu sur la façon dont les gens vont être au courant de ce qu’est la VSA et vont savoir ce qu’elle fait : est-ce que ça va être avec le mot des promoteurs de la VSA ou est-ce que ça va être avec le mot des militants anti-VSA ?
Il y a aussi un autre enjeu qui est notamment pas mal mis en avant – là c’est un extrait du décret d’application de la loi de la loi sur les Jeux olympiques – sur le fait qu’il va y avoir un comité d’évaluation des expérimentations de VSA et, parmi les critères de cette évaluation, il va y avoir, notamment, la perception du public et aussi à quel point il a été procédé à l’information du public.
En fait, on trouve que c’est un moment opportun pour vraiment pousser le discours sur la VSA et on a envie de visibiliser le fait qu’il y a une opposition massive de la population contre la VSA, comme il y en a une pour la reconnaissance faciale.
Pour cela, dans la deuxième phase de notre campagne, on prévoit potentiellement d’aller sur des expérimentations et demander aux gens : est-ce que vous savez ce qu’est que la VSA ? Est-ce que vous savez que vous êtes sous de la VSA ? Sûrement que 90 % des gens ne sauront pas ce qu’est la VSA, qu’ils sont sous une expérience de VSA. Bref ! Essayer de produire un peu des chiffres pour montrer que le devoir d’information n’a pas été rempli. Et ensuite, montrer aussi qu’il y a une opposition. On envisage, par exemple, peut-être de venir par groupes pour volontairement déclencher une détection sur une densité de personnes trop importante, puis faire des demandes d’accès pour qu’il y ait matériellement l’expression d’interrogations de la part des gens. On veut pousser un maximum de gens à faire ça.
C’est plutôt ce qu’on prévoit de faire pour les expérimentations.
Là, ce sont de toutes petites affiches qui sont mises dans des coins, dans des gares, pour indiquer qu’il y a les expérimentations. On ne pense pas que les gens vont comprendre qu’ils sont sous de la vidéosurveillance algorithmique grâce à ça.
Myriam Michel : Pour terminer, l’idée, au-delà de la loi JO, c’était aussi profiter de ce moment pour réactiver un petit peu les groupes locaux Technopolice existants et, éventuellement, permettre à d’autres groupes de se lancer, s’il y a des énergies et des volontés dans certains coins. On cherche à essayer d’outiller au maximum les gens, on a notamment lancé, il y a un mois et demi/deux mois, trois mois peut-être, un groupe sur Paris et sa banlieue parce que, étonnamment, jusqu’ici il n’y avait pas de groupe Technopolice à Paris. Le plus actif est à Marseille, si jamais ça vous intéresse, ils font des trucs vraiment géniaux et il y en a d’autres.
L’idée c’est d’essayer d’outiller au maximum les groupes qui existent, les endroits où il y aurait des gens qui ont envie de faire quelque chose, sans forcément constituer un groupe très officiel, ça peut être juste ponctuel, pour des actions. Avec la brochure, les affiches et d’autres choses qu’on va créer, l’idée c’est d’avoir des kits de mobilisation qu’on va pouvoir envoyer aux gens qui le souhaitent.
En parallèle, on continue, bien sûr, à documenter. L’idée c’est notamment de documenter au maximum les expérimentations de la loi JO et celles de la loi transport si elle est votée.
On continue les demandes CADA et, bien sûr, si des gens ont envie de s’amuser un peu à faire des demandes CADA, parce que ça peut être sympa, contrairement à ce qu’on pourrait imaginer, il ne faut pas hésiter.
On aimerait aussi des leviers d’action vraiment locaux où là il n’y a pas nécessité forcément d’avoir des groupes constitués, mais des actions qui permettraient à deux/trois personnes, ou plus s’il y a plus de monde, d’interpeller leur municipalité. On va créer un modèle de lettre, des affiches d’information, etc., pour que chacun puisse demander à sa commune éventuellement un vœu, voire une décision plus officielle selon lequalle la commune n’installera pas de VSA chez elle. L’idée c’est d’essayer d’avoir le plus de communes en France qui soient au moins sensibilisées et, si possible, qui aient pris position contre la VSA.
Et puis, on a toujours deux lieux pour partager des infos, discuter de toutes ces mobilisations, un forum, forum.technopolice.fr, et un petit outil qu’on a appelé « Le carré » [carre.technopolice.fr], basé sur des pads, sur lequel on peut venir recenser toutes les informations qu’on a sur ces sujets-là.
Je crois qu’on a fait à peu près le tour. Tu veux conclure ?
Marne : Si jamais vous travaillez dans un secteur, une commune ou une entreprise qui fabrique de la VSA ou des sujets proches, on a une plateforme dédiée [technopolice.fr/leak].
Et si jamais vous avez envie aussi de vous mobiliser contre la VSA, il n’y a pas besoin d’avoir un groupe énorme, vous êtes trois copains dans votre ville, ça suffit pour lancer des demandes CADA, pour commencer à documenter et, éventuellement aussi, pour faire cette demande, si jamais il y a pas encore de VSA, que la mairie affirme qu’elle n’en installera pas, donc hésitez pas.
Notre but c’est aussi de fédérer tous les groupes qui luttent, se partager nos méthodes. En fait, chaque groupe a ses moyens d’innovation : comment visibiliser les caméras, plein de choses peuvent être faites. Pour nous, c’est hyper-important de faire le lien entre tous ces groupes. D’ailleurs, on va bientôt faire une réunion pour essayer de mettre plus en contact, à l’oral, tous ces groupes-là.
Donc, si jamais vous avez envie de vous lancer là-dedans, n’hésitez vraiment pas à envoyer un mail à contact chez technopolice.fr et à vous inscrire sur le forum, etc.
Myriam Michel : Nous sommes désolées, nous avons été un peu plus longues que ce qu’on pensait, ça va donc être compliqué pour des questions. Si le sujet vous intéresse, que vous avez des questions, envie de discuter de ça, n’hésitez pas à venir nous voir là, dans la journée, ou à nous contacter à l’adresse contact chez technopolice.fr. S’il y a des gens intéressés, même en dehors de ces réunions qu’on va organiser, on peut aussi discuter avec les gens, trouver du temps pour une petite visio, un petit coup de fil. Il ne faut surtout pas hésiter.
Marne : Si vous avez des questions là, maintenant, je peux y répondre dehors.
Myriam Michel : Oui, dehors il n’y a pas de souci, parce que là on va libérer la salle. Ce sont des sujets tellement denses que c’est compliqué.
[Applaudissements]
Myriam Michel : Et si jamais vous aimez bien ce que fait La Quadrature, n’hésitez pas à aller faire un tour sur notre site, éventuellement à faire un petit don, de temps ou d’argent, ce n’est pas forcément de l’argent. Si vous avez envie de faire un peu de bénévolat avec nous, n’hésitez pas non plus à nous contacter.