Diverses voix off : Assurer la sécurité des Jeux olympiques de Paris 2024, un enjeu majeur qui fait débat en France.
Des caméras dotées d’une intelligence artificielle capable de détecter les mouvements de foule, des comportements suspects et de les signaler.
Noémie Levain : C’est le fait de pouvoir repérer et suivre des personnes dans la rue en fonction de leurs attributs physiques.
Loïc Hervé : Il faut, encore une fois, peser lourdement les conséquences que ça peut avoir sur notre vie quotidienne et sur l’exercice de nos libertés publiques.
Voix off : Pourtant, certaines associations y voient les prémices d’une surveillance généralisée, avec reconnaissance faciale comme cela se pratique par exemple en Chine.
Noémie Levain : Nous dénonçons le basculement vers un État de plus en plus sécuritaire et qui a de plus en plus de dispositifs de surveillance.
Gérald Darmanin : Il faut imaginer qu’à situation exceptionnelle, moyens exceptionnels.
Noémie Levain : Je m’appelle Noémie Levain, je travaille à La Quadrature du Net [1] qui est une association qui se bat pour les libertés dans l’espace numérique, notamment contre la surveillance dans l’espace public.
Le Parlement a adopté très récemment la loi sur les Jeux Olympiques 2024 [2] qui vont avoir lieu à Paris, sauf que cette loi ne traite pas vraiment des Jeux olympiques. Elle est notamment utilisée pour légaliser ce que nous appelons la vidéosurveillance algorithmique ou automatisée, une technologie de surveillance de masse qui existait en France depuis pas mal d’années et qui attendait un texte pour la rendre légale. Les Jeux olympiques sont affichés comme le moment où des expérimentations auraient lieu pour mettre en œuvre cette vidéosurveillance algorithmique. Sauf que ça pose énormément de problèmes sur l’arrivée de cette technologie en France et, surtout, sur le cadre de cette loi qui n’est absolument pas limitée aux Jeux olympiques. Mais ça c’est pas très étonnant.
Avant de parler d’expérimentation, je vais parler de ce qu’est la vidéosurveillance algorithmique. C’est une technologie qui vise à mettre une couche logicielle, un algorithme, sur les caméras de vidéosurveillance qui existent déjà dans l’espace public pour repérer des situations qui auraient été définies comme anormales.
Voix off : À Nice par exemple, un logiciel de reconnaissance faciale sur la voie publique a été testé pendant le carnaval. L’objectif étant de rechercher des personnes disparues ou suspectes. Mais jusqu’où aller ? Certaines expérimentations sont loin de faire l’unanimité.
Noémie Levain : Concrètement, ça génère des alertes pour les personnes qui regardent les écrans quand il y a des situations qu’on a appris à l’algorithme à reconnaître. Évidemment, une situation suspecte, un comportement anormal, ça n’existe pas ; c’est la police qui définit ce qui est anormal ou suspect selon ses propres préjugés, selon ses propres stéréotypes et selon ses propres objectifs politiques. Par exemple, pour une entreprise française qui propose cette technologie, qui s’appelle EVITECH, la liste des comportements suspects c’est :
- des arrêts fréquents de quelqu’un ;
- quelqu’un qui marche à contresens ;
- une vitesse insuffisante ou excessive ;
- des silhouettes accroupies ou rampantes ;
- un temps de présence de la même silhouette dans la zone qui est trop long ;
- un arrêt près ou dans une zone sensible pendant plus d’un certain temps ;
- un groupe ou la taille du groupement ;
- un objet abandonné ou déposé ;
- un tag ;
- un objet retiré ou volé ;
- ou des combinaisons de conditions, d’autres observations ;
- etc.
Avec cette liste, je veux montrer que ce sont des comportements très classiques, mais la police décide qu’il faut regarder quelqu’un qui court, quelqu’un qui est statique parce que c’est l’idée que si on ne marche pas d’un point A à un point B, si on n’est pas juste un fluide dans la ville, c’est bizarre, il faut qu’il y ait une alerte, il faut qu’il y ait une notification.
C’est pour cela que nous dénonçons cette technologie comme un outil de contrôle social, un outil de normalisation de nos comportements. On va inscrire dans le code, on va inscrire dans l’algorithme ces mêmes stéréotypes. Et, sous couvert de l’utilisation d’un algorithme, sous couvert d’une apparente neutralité qui n’en est pas une parce qu’aucune technologie n’est neutre, l’institution policière et l’État vont se défausser en disant : « C’est l’algorithme, ce n’est pas moi ! ». Cela donne à nouveau à la police une capacité de surveillance bien plus grande parce que, en plus de la surveillance, l’analyse est automatisée et des choix politiques sont renforcés à travers l’utilisation de ces algorithmes.
C’est aussi la question de l’anonymat. Par le contrôle de « qui fait quoi, où ? », en tout cas pouvoir contrôler, pouvoir détecter certains comportements, il y a la question de pouvoir être qui on veut dans l’espace public.
Il y a une autre application de la surveillance algorithmique qui est développée par ces mêmes logiciels, qui n’est pas expressément visée par la loi sur les Jeux olympiques, mais qui est l’étape d’après, c’est le fait de pouvoir repérer et suivre des personnes dans la rue en fonction de leurs attributs physiques. La mairie de Nice, par exemple, qui a acheté un logiciel de vidéosurveillance algorithmique à une société qui s’appelle Avigilon propose, en tout cas a cette capacité, de suivre les personnes à travers leurs attributs biométriques. Par exemple ça permettrait, dans la rue, de me retrouver à partir de ma chemise verte et de me repérer sur tous les écrans.
On a, en fait, l’épouvantail de la reconnaissance faciale qui est hyper-dangereuse, c’est une technologie très intrusive, mais, pour nous, la VSA [Vidéosurveillance algorithmique] [3], c’est tout aussi dangereux. Il n’y a pas que le visage qui permet de nous repérer : tous nos attributs physiques et biométriques font partie de notre identité. À partir du moment où on donne la capacité de nous identifier, de nous retrouver à partir de notre corps, il y a la question de l’anonymat.
En Iran, par exemple, cette technologie est utilisée pour détecter les femmes qui ne portent pas le voile.
Donc cet article 7 [4] est le premier pas dans la porte pour légaliser ces technologies sous couvert d’expérimentations qui ne sont pas vraiment des expérimentations, qui les légalisent, pour la première fois, en France et en Europe. Au niveau de l’Union européenne, la France est le premier pays à adopter une telle loi et pousse pour plus de textes sécuritaires et de surveillance. Un règlement sur l’intelligence artificielle est en train d’être discuté au niveau européen. Il propose d’interdire un certain nombre de technologies, notamment la reconnaissance faciale en temps réel, notamment la catégorisation biométrique qui correspond à la vidéosurveillance algorithmique, et la France est le pays qui se bat pour qu’il y ait le moins d’interdictions possibles. Il faut regarder la France vis-à-vis de ses voisins, la France vis-à-vis de son histoire aussi, vis-à-vis de ses propres institutions qui a une police très centralisée, qui a un nombre de fichiers qui explose, qui n’a aucun contrôle dans la manière dont des photos peuvent être collectées et mises sauvagement dans des fichiers, c’est donc au regard de ce prisme là qu’il faut s’inquiéter. Nous dénonçons le basculement vers un État de plus en plus sécuritaire, qui a de plus en plus de dispositifs de surveillance et la vidéosurveillance algorithmique en fait partie. Et, l’étape d’après, va être le fait de pouvoir suivre les personnes dans la rue sur leurs attributs biométriques dont je parlais. Il y a aussi des propositions pour mettre des micros dans les villes, comme Saint-Étienne a essayé de le faire et aujourd’hui, c’est Orléans qui veut le faire. Il y a déjà la suite : des députés proposent d’expérimenter la reconnaissance faciale en temps réel ; des sénateurs proposent aussi une loi. L’étape d’après est déjà là alors même que la loi sur les Jeux olympiques est à peine adoptée.
Aujourd’hui il n’y a aucune démonstration, preuve tangible ou concrète de comment ça fonctionne et comment ça pourrait potentiellement aider la police. C’est pour ça que je dis qu’on est sur du discours parce qu’on n’a aucune démonstration. Et, dans le discours, on retrouve surtout celui des entreprises parce que, en France, énormément d’entreprises vendent ces logiciels, les conçoivent, donc nous avons aussi observé la manière avec laquelle elles ont fait pression, la manière avec laquelle elles essaient de peser, de montrer que le marché de cette technologie doit avoir un cadre réglementaire et nous avons retrouvé les mêmes éléments de langage dans la bouche du gouvernement et des entreprises. Nous n’inventons pas ce lobbyisme, on le voit, on voit le discours marketing de ces entreprises, on voit les salons où ces entreprises vont pour vendre leurs logiciels aux gendarmes et à la police.
L’année dernière, par exemple, la CNIL [Commission nationale de l’informatique et des libertés], l’autorité de protection des données personnelles, avait lancé une consultation sur le sujet et toutes les entreprises ont répondu en disant : « Oui, il faut une loi, oui le cadre actuel est trop restrictif. » Nous avons obtenu ces réponses, que nous avons analysées, et c’est énormément de discours, d’affichage pour qu’il y ait une loi, pour les intérêts économiques de la France avec, à nouveau, aucune preuve concrète que ça fonctionne mais en disant que ça va améliorer le travail des policiers etc. On est dans du discours, dans de la croyance que la technologie c’est de la sécurité et c’est une croyance qui est très forte aujourd’hui en France, même sur la vidéosurveillance classique, que nous combattons mais qui est difficile parfois à faire reculer. Et, quand nous essayons de poser ce débat là, on nous traite d’idéalistes, de laxistes ou que sais-je. On peut se poser la question : quels sont nos repères politiques ? Et, quand il n’y a aucune remise en question, c’est là où se fait le basculement. C’est quoi donner du pouvoir à la police ? C’est quoi donner des outils de surveillance à la police ?
Le Conseil constitutionnel a été saisi par le groupe de la France insoumise et des écologistes [5] le 17 avril. Il a donc un mois pour se positionner.
Nous avons aussi envoyé nos observations [6] avec d’autres associations, notamment la Ligue des droits de l’Homme, le Syndicat des Avocats de France, le Syndicat de la Magistrature, pour dire ce que nous pensons notamment de cet article 7. Des associations internationales ont aussi envoyé leurs observations.
Nous avons essayé de démontrer à quel point cette technologie, en tant que telle, est disproportionnée, est attentatoire aux libertés publiques parce que, dans son fonctionnement, elle est problématique et que, dans le fait, les évènements à détecter ne sont jamais définis et peuvent être laissés à la libre discrétion de l’État. On verra bien, mais on peut penser qu’il validera cette loi qui, à nouveau, touche à des sujets de sécurité, donc des sujets très politiques. Si la loi est adoptée [déclarée constitutionnelle, NdT], dans la foulée, dès cet été, on sait qu’il y aura des expérimentations de cette vidéosurveillance algorithmique parce que ce n’est pas du tout lié qu’aux Jeux olympiques : pendant les festivals, les marathons, les marchés de Noël, etc., il va y avoir des expérimentations, on va récupérer les images des caméras pour alimenter ces logiciels. Donc nous nous mobiliserons, évidemment, pour les visibiliser, pour les dénoncer, pour faire apparaître ce sujet comme prioritaire, en tout cas pour le mettre à la vue de tous pour combattre ces technologies dans les années à venir.