Salomé Saqué : Alors de la crise économique fait rage, une partie des entreprises a été plus épargnée que d’autres et certaines en sont même sorties gagnantes. C’est le cas de l’économie de la surveillance – drones, caméras, logiciels de traçage –, ces entreprises investissaient hier dans la sécurité après les attentats, aujourd’hui elles vendent la promesse de la traque des corps malades.
Comment l’économie de la surveillance tire-t-elle parti de la pandémie ?, c’est la question que s’est posée Olivier Tesquet. Olivier Tesquet bonjour.
Olivier Tesquet : Bonjour.
Salomé Saqué : Dans votre dernier livre publié aux éditions Premier parallèle : État d’urgence technologique – Comment l’économie de la surveillance tire parti de la pandémie .
Vous êtes journaliste, spécialisé dans les questions numériques à Télérama, vous êtes également l’auteur de À la trace, enquête sur les nouveaux territoires de la surveillance et coauteur de Dans la tête de Julian Assange . Vous publiez aujourd’hui ce nouveau livre. Pourquoi vous intéressez-vous à ce sujet ? Qu’est-ce qui vous a mis la puce à l’oreille en premier lieu pour parler de cette thématique ?
Olivier Tesquet : Je suis arrivé dans ce métier du journalisme au début des années 2010, à l’époque où Internet était encore vu comme cette merveilleuse révolution, on allait avoir une espèce de libération politique grâce à la technologie. C’était l’époque où on pensait encore – l’histoire a été révisée depuis – que les « Printemps arabes » devaient presque tout à ces outils numériques, donc on avait une vision très bienveillante de la technologie, des réseaux sociaux naissants. Et puis très vite, en fait, dans l’année ou les deux ans qui ont suivi à travers un certain nombre d’événements, que ce soit la répression contre Wikileaks [1], que ce soit l’affaire Snowden [2], on s’est rendu compte à quel point il y avait une face sombre de tout ça et à quel point les États, que ce soit des régimes démocratiques, que ce soit des régimes autoritaires, s’emparaient de ces outils technologiques pour assurer, quelque part, la rente de leur pouvoir. Chemin faisant, ayant toujours eu une appétence pour ce qui est caché, dissimulé, soustrait au regard, je me suis un peu orienté vers ces questions-là. Le spectre, le périmètre n’a cessé de s’élargir et de s’étendre parce que ce sont des questions qui deviennent de plus en plus centrales dans la manière dont nos pays sont gouvernés.
Salomé Saqué : Votre livre s’intitule État d’urgence technologique, qu’est-ce que c’est l’état d’urgence technologique ?
Olivier Tesquet : Déjà, j’ai choisi cette terminologie-là, état d’urgence technologique, parce qu’il n’aura échappé à personne qu’on vit aujourd’hui dans un environnement où c’est une terminologie, un vocabulaire qui commence à être assez tristement familier. On a eu l’état d’urgence sécuritaire après les attentats de 2015, on est maintenant sous l’état d’urgence sanitaire. Si on calculait, je pense qu’on a passé plus de temps dans un régime d’exception depuis 2015 que sous un régime normal, dont on peine d’ailleurs, finalement maintenant, à se souvenir de ce à quoi il correspond. Donc c’était un peu une référence aussi à ça, pour être dans cet environnement qu’on commence à connaître.
La différence de ces états d’urgence sécuritaire, sanitaire, qui sont quand même inscrits dans le temps et dans l’espace – surtout dans l’espace, un peu moins dans le temps, parce qu’on voit bien qu’après ils sont dilués dans le droit commun, etc. – l’état d’urgence technologique décrit finalement cette accoutumance à la fois de nos démocraties libérales, occidentales, mais aussi d’un certain nombre de pays beaucoup plus autoritaires, pour la technologie qui est vue comme l’alpha et l’oméga, qui va permettre de résoudre tous les problèmes du monde. J’ai choisi cette terminologie parce que, pour le coup, le point commun avec les états d’urgence politique dont je parlais juste avant c’est que ces états d’urgence, sanitaire, sécuritaire, sont marqués par ce que qu’on appelle l’effet cliquet, c’est-à-dire qu’une fois qu’on a déployé des mesures à titre exceptionnel, à titre dérogatoire, à titre expérimental, il n’y a pas de retour en arrière possible. C’est-à-dire que le mécanisme est enclenché et on ne peut pas le défaire, le temps est écoulé est du temps perdu à tout jamais. L’état d’urgence technologique c’est un peu la même chose, c’est-à-dire qu’une fois qu’on a déployé une technologie, qu’on a déployé un outil, en l’occurrence dans une crise sanitaire, on se rend compte et je pense qu’on va se rendre compte que c’est extrêmement difficile de revenir en arrière.
Salomé Saqué : À quelles mesures, en France en tout cas, pensez-vous, mesures d’ordre technologique qui ont été déployées sous l’état d’urgence ces dernières années ?
Olivier Tesquet : On a surtout vu une accélération de dynamiques qui existaient déjà, c’est-à-dire ce phénomène un peu de militarisation de l’espace public, de la montée en régime de la vidéosurveillance, de la vidéosurveillance qui devient intelligente, qui demain sera capable de faire de la reconnaissance faciale, voire dans le pire des cas et dans les cauchemars un peu dystopiques de la détection des émotions comme le markètent certaines entreprises.
Salomé Saqué : Pour vous c’est quelque chose qui est possible ?
Olivier Tesquet : C’est quelque chose qui existe déjà. C’était un marché émergent, c’étaient des marchés sécuritaires émergents avant la crise sanitaire et cette pandémie offre finalement de nouvelles possibilités à ces entreprises-là qui, hier, vendaient des logiciels capables de détecter ici une intrusion périmétrique, là un colis suspect et qui, maintenant, vont calculer la distance entre les personnes, le respect du port du masque, les gestes barrières. Finalement ce sont ces mêmes logiciels, vendus par les mêmes entreprises, avec des finalités qui sont des finalités différentes.
Après, la petite spécificité, je dirais quand même la nouveauté de la crise sanitaire, ce sont tous ces outils de suivi de contact, contact tracing comme on a dit sur les applications type TousAntiCovid. Pour le coup ce sont des outils assez spécifiques de la crise sanitaire qui sont des mutations d’outils de surveillance sanitaire pour lesquels il y a des doctrines qui existaient déjà mais avec un saut technologique qui, là aussi effectivement, va poser un certain nombre de questions sur lesquelles on aura probablement l’occasion de revenir.
Salomé Saqué : Vous dites, dans votre livre, « on a souvent imaginé que la surveillance de masse viendrait avec un régime totalitaire, mais ici la surveillance généralisée se met en place doucement », vous écrivez, je vous cite, que l’état technologique est un mode de gouvernement low cost. Qu’est-ce que vous entendez par là ?
Olivier Tesquet : On a quand même cette idée, au nom de ce qu’on appelle un peu le solutionnisme technologique – c’est un chercheur qui s’appelle Evgeny Morozov [3] qui avait forgé cette notion il y a quelques années qui est finalement la façon de cette idéologie de la Silicon Valley selon laquelle la technologie peut tout et la technologie doit tout –, eh bien cette technologie va permettre de résoudre tous les problèmes. En fait, les démocraties occidentales, dans ce contexte-là, sont particulièrement sensibles à ce discours parce qu’on vit dans des pays, on le voit bien en France, où les institutions sont fonctionnelles mais sont en crise, donc la technologie, dans ces conditions-là, est vue comme un moyen de préserver la rente du pouvoir, de pouvoir maintenir, justement, ces institutions fonctionnelles. Donc il y a une tentation très forte de recourir à la technologie comme il y a une tentation très forte de recourir à la force dans d’autres cas pour mater des mouvements sociaux ou des choses comme ça, avec parfois, d’ailleurs, une convergence assez nette et notable entre les deux. C’est low cost, en tout cas je dis que c’est low cost, parce que c’est un peu bricolé avec des bouts de ficelle, ça s’intéresse assez peu aux finalités, on le voit par exemple avec les applications qui sont déployées dans le cadre de la crise sanitaire où on se dit que si ça sauve une vie tant mieux et si ça ne sert à rien tant pis, ce qui me semble être une manière assez biaisée et spécieuse de présenter le dilemme auquel on est confronté. Donc puisque ça s’intéresse assez peu aux finalités, effectivement ça pose la question de la viabilité de ces outils dans une gouvernance, dans une démocratie digne de ce nom.
Salomé Saqué : Est-ce que ces outils sont tous détenus par les États, donc les gouvernements, ou est-ce que, finalement, on ne met pas aussi une partie de nos libertés publiques entre les mains d’entreprises privées qui vont elles-mêmes gérer les outils qu’elles sont en train de développer ?
Olivier Tesquet : C’est aussi low cost à cet égard-là, c’est-à-dire que ça montre l’affaiblissement de la puissance publique qui délègue des pans entiers de son pouvoir régalien à des entreprises privées, que ce soit des fonctions de police, que ce soit des pans de la politique de santé où, effectivement, on va charger des sociétés privées de tailles diverses, que ce soit des grosses ou des petites, plus ou moins publiques, plus ou moins avec pignon sur rue, plus ou moins fréquentables aussi, de contrôler l’espace public, qu’on va charger de détecter les citoyens suspects, les citoyens malades. Toutes ces choses, hier, étaient quand même la prérogative de l‘État et, de plus en plus, deviennent effectivement l’apanage de sociétés privées qui sont en cheville avec l’État mais qui, parce qu’elles sont des sociétés privées, échappent aussi souvent, assez largement, à l’œil du public, ce qui est un vrai problème. On est face à une vraie difficulté d’opacité, de manque de transparence de la manière dont les décisions sont prises, de la manière dont les libertés sont encadrées, contrôlées. C’est un des problèmes majeurs de la situation dans laquelle on est aujourd’hui.
Salomé Saqué : Vous prenez, à un moment, un exemple qui m’a interpellé. Vous rappelez que le 26 mars 2020 le patron d’Orange affirme que 20 % des habitants du Grand Paris sont partis. Ça veut dire qu’il a accès, comme ça, à nos données de déplacement sur notre téléphone. Est-ce que c’est légal de tracer les habitants comme ça ?
Olivier Tesquet : Ce qui s’est passé dès le début de la pandémie, c’est qu’on a eu comme une fusée à plusieurs étages. Ça c’était finalement l’étage le moins intrusif, c’est de la collecte de métadonnées anonymisées, c’est-à-dire qu’on a des idées de volume.
Salomé Saqué : Est-ce que ça pose un problème démocratique, par exemple ?
Olivier Tesquet : Il y a notamment des partenariats entre Orange et l’Inserm, l’Institut national de la santé et de la recherche médicale, avec cette idée que ces indicateurs de mobilité allaient permettre d’affiner la réponse politique à la crise sanitaire, parce qu’on connaissait avec une granularité plus grande, on va dire, les déplacements des individus, donc on pouvait ordonner, en conséquence, je ne sais pas, peut-être davantage de lits par ici ; ça offrait plus d’indicateurs pour pouvoir gouverner.
Ce qui me frappe, ce qui a un peu échappé à l’attention du grand public à cette occasion-là, c’est que les outils qui ont été mobilisés par Orange pour mesurer cette mobilité, qui ont été utilisés ailleurs par plein d’autres entreprises, que ce soit des opérateurs télécoms ou d’autres types de sociétés, c’est que ce sont des indicateurs qui normalement sont entre les mains de divisions ou de filiales à l’intérieur de ces opérateurs télécoms, qui sont chargées de revendre ces données à d’autres entreprises, c’est-à-dire que c’est du B to B comme on dit dans le lange marketing, ce sont des entreprises qui vendent à d’autres entreprises. En fait, ça lève un petit coin du voile sur toute cette industrie qui est notamment l’industrie des courtiers en données et qui, en fait, récupère tout un tas de traces numériques qu’on émet quotidiennement parce qu’on est allé d’un point A à un point B, on a commandé quelque chose sur Internet, on a horodaté comme ça tout un tas d’actions tout à fait anodines mais qui, mises bout à bout, commencent à dire quelque chose de nous, commencent à dire quelque de nos modes de vie.
Salomé Saqué : Mais individuellement.
Olivier Tesquet : En France et en Europe c’est beaucoup plus réglementé qu’aux États-Unis. Aux États-Unis c’est un peu le Far West, c’est-à-dire qu’à chaque personne est affectée dune note notamment parce que tout le monde a un score de crédit ; pour le coup, dans un pays de self made men, ce n’est pas complètement aberrant que ce soit l’indicateur ultime pour savoir si, oui ou non, vous avez le droit d’emprunter de l’argent pour accéder à la propriété, acheter une voiture, etc. En France et en Europe c’est beaucoup plus réglementé, mais vous pouvez avoir des idées de volume. Très vite en fait, au début de la pandémie, en France et ailleurs, on a mobilisé ce type de données qui sont des données qui, habituellement, échappent à l’œil du public, qui sont des données commerciales utilisées notamment à des fins publicitaires et qui, là, ont été mobilisées dans le cadre de la crise sanitaire. Encore une fois ça c’est le niveau le moins intrusif de ce qui a pu être déployé dès mars 2020.
Salomé Saqué : Quel est le niveau juste au-dessus ?
Olivier Tesquet : Le niveau au-dessus, c’est là où on rentre dans les questions qui sont plus liées à de la surveillance sanitaire telle qu’elle est pensée depuis déjà assez longtemps par l’Organisation mondiale de la santé ou d’autres grands organismes comme ça internationaux, qui est de savoir comment on fait quand on est dans une pandémie, qu’on a identifié des personnes malades et qu’on veut s’assurer que ces personnes ne vont pas en contaminer d’autres. Ce qui nécessite, du coup, de prendre des mesures privatives de liberté. Donc a eu le deuxième étage de la fusée qui était, finalement, d’imposer ces applications de suivi de contact avec des protocoles divers.
Salomé Saqué : Elles n’ont pas été imposées. Vous faites référence à l’application StopCovid ?
Olivier Tesquet : StopCovid qui est devenue TousAntiCovid [4]. Effectivement ce sont des applications, en tout cas chez nous, qui sont basées sur le volontariat avec quand même des systèmes assez incitatifs. On a vu d’autres pays, je pense notamment à l’exemple de Singapour qui a beaucoup été cité en exemple au moment où il a fallu retenir une solution. Très vite, évidemment, on nous a dit on va faire comme la Chine, on ne va pas faire comme la Corée du Sud. L’exemple de Singapour nous semblait assez intéressant, après avoir dit d’ailleurs, pendant quelques semaines, que c’était hors de question, que ce n’était pas du tout notre culture, puis finalement il y a eu un peu un switch qui s’est opéré très rapidement et on s’est dit que finalement on allait le faire. Or le modèle singapourien, quand on le regarde, était effectivement au départ un modèle basé sur le volontariat dans un espace qui est en plus, à priori, assez propice à ce que ça fonctionne, une cité-État avec une population très connectée. Singapour n’est pas une immense démocratie mais le modèle technologique ne nous semblait pas aberrant. Ce qui s’est passé très vite c’est que l’application n’a pas complètement fonctionné. Chemin faisant elle devient obligatoire et aujourd’hui on se rend compte que cette application est utilisée par les forces de police dans le cadre d’enquêtes criminelles.
On voit bien les effets pervers qu’il peut y avoir avec ce type d’applications qui sont, sur le papier, assez anodines. Il y a tout un tas de débats entre des chercheurs, des cryptologues, des cryptographes, etc., avec des protocoles extrêmement compliqués, on ne va pas rentrer dans le détail, pour savoir si c’est centralisé, décentralisé, qui a accès aux données, qu’est-ce qui se passe quand l’application émet une alerte. Ce sont des questions techniques extrêmement compliquées sur lesquelles on a mobilisé des centaines de chercheurs rien qu’en France, mais qui ensuite, à terme, peuvent générer des phénomènes discriminatoires parce que peut-être que si vous avez l’application vous allez pouvoir accéder à tel endroit, il y a déjà eu des tentations assez fortes, y compris en France.
Salomé Saqué : C’est-à-dire, des tentations ?
Olivier Tesquet : Le gouvernement, à un moment, a songé à imposer le téléchargement de TousAntiCovid pour pouvoir accéder à certains lieux, par exemple pour pouvoir retourner dans les restaurants cet été. La CNIL, la Commission nationale de l’informatique et des libertés, qui est un peu le gendarme de la vie privée en France, avait rappelé dès le début, avait expliqué qu’on ne pouvait pas subordonner l’accès à certains lieux au téléchargement de l’application. De la même manière, quand les centres de tests étaient saturés, on ne pouvait conditionner l’accès aux laboratoires au téléchargement de TousAntiCovid. Ce n’est pas parce que vous aviez téléchargé l’application que vous alliez avoir un coupe fil pour aller vous faire tester plus rapidement que votre voisin.
On voit que ces tentations politiques existent, que finalement le garde-fou est assez léger, c’est une vraie crainte par rapport à ce type d’outil.
Salomé Saqué : Le garde-fou est assez léger ! La CNIL est quand même intervenue.
Olivier Tesquet : La CNIL est intervenue. On sait que la CNIL est une autorité administrative indépendante qui a un pouvoir qui est relatif, qui est un pouvoir de recommandation. Je vais prendre un exemple très récent sur, un peu, les limites du pouvoir de la CNIL. Vous avez une société qui s’appelle Datakalab qui, au moment du déconfinement d’abord dans les transports à Cannes puis à la station Châtelet-Les Halles à Paris avait déployé une technologie qui était capable de détecter si les personnes portaient ou non le masque. On nous disait « ne vous inquiétez pas, ce n’est pas pour des objectifs de verbalisation, c’est juste pour avoir une idée du volume de personnes qui respectent les mesures sanitaires, les gestes barrières, etc. ». La CNIL est intervenue très vite en expliquant que ce type de traitement de données était illégal parce que, en fait, pour s’y opposer il fallait faire non de la tête et elle a estimé que le consentement n’était pas recueilli de manière suffisamment explicite. Que s’est-il passé ? Il y a quelques semaines, par décret, de manière quand même extrêmement brutale, le gouvernement a ravivé cette expérimentation et maintenant il n’y a même plus de droit d’opposition. C’est-à-dire qu’on peut avoir des technologies qui vont vérifier dans l’espace public que vous portez bien votre masque, mais vous ne pouvez même plus vous opposer à ce traitement-là. Donc on voit que l’avis de la CNIL, dans ce type de situation, où encore une fois c’est l’urgence qui prédomine, a de vraies limites.
Salomé Saqué : Instinctivement, quand on voit ce qui se passe à Singapour, ce que vous décrivez, on se dit que ça ne pourrait pas arriver en France, on est trop protégés, on est le pays des droits de l’homme, on protège nos libertés publiques. Ce que vous dites c’est que, finalement, on n’est pas aussi protégés qu’on le croit.
Olivier Tesquet : On n’est pas aussi protégés qu’on le croit. J’ai un peu tendance à prendre le même exemple, c’est un exemple encore plus spectaculaire que l’exemple de Singapour, c’est l’exemple de la Chine. L’exemple de la Chine, effectivement c’est la dictature technologique par excellence.
Salomé Saqué : C’est la dystopie.
Olivier Tesquet : C’est la dystopie totale. La Chine c’est le crédit social où tout le monde a une note qui affecte sa vie quotidienne, qui conditionne l’accès à certaines activités, si on peut réserver des billets de train, des billets d’avion. Soit dit en passant, on se rend bien compte que ce n’est pas si différent de ce score de crédit américain que j’évoquais précédemment, c’est juste que vous avez des régimes politiques qui ne sont évidemment pas les mêmes. On a cette image très dystopique, ce repoussoir absolu où on se dit « la Chine, on ne veut surtout pas ça ! »
Il y a quand même une tentation très forte en Europe, et en France par exemple, de recourir à des technologies qui sont massivement utilisées en Chine. Pour la reconnaissance faciale la Chine est quand même aujourd’hui un pays assez moteur et pionnier en la matière.
Salomé Saqué : C’est une notation qui aujourd’hui n’est pas appliquée parce qu’en France on ne fait pas de reconnaissance faciale.
Olivier Tesquet : On en fait un peu, on en fait de manière expérimentale avec des fortunes diverses. Par exemple dans la région Sud, à Nice et à Marseille ils ont voulu installer des portiques de reconnaissance faciale à l’entrée de deux lycées dans des quartiers populaires et, là aussi, la CNIL puis le tribunal administratif de Marseille ont expliqué que c’était illégal. On a eu les expérimentations de Christian Estrosi – Nice est quand un peu le showroom sécuritaire en France ; il a fait son expérimentation de reconnaissance faciale pendant le carnaval de Nice de la même façon. Vous avez déjà aujourd’hui la police qui fait un peu de reconnaissance faciale sur certains fichiers de police, par exemple le traitement des antécédents judiciaires, le TAJ, et surtout vous avez les Jeux olympiques de Paris en 2024. Je lis le livre blanc de la sécurité [5] qui a été publié par le ministère de l’Intérieur il y a quelques semaines, Gérald Darmanin dit « ce ne sont que des pistes, etc. », mais on sait que c’est quand même une tendance assez lourde. Ce qui est écrit noir sur blanc dans ce livre blanc de la sécurité intérieure c’est que la reconnaissance faciale en temps réel dans l’espace public, ce qui est vraiment, pour le coup, l’eldorado policier de la reconnaissance faciale, devra avoir été éprouvée avant les Jeux Olympiques de 2024, avec notamment aussi la perspective de la Coupe du monde rugby en 2023.
On voit bien aussi, dans tous les débats sur la proposition de loi sur la sécurité globale [6], le spectre de la reconnaissance faciale, même si elle ne figure pas dans le texte, elle n’est ni autorisée, ni interdite, sur ce régime de l’expérimentation qui est point sur lequel on pourra revenir.
Salomé Saqué : Puisque vous évoquez la loi de sécurité globale qui a fait débat ces derniers mois, notamment à cause de son article 24 [prévoyant de pénaliser la diffusion de certaines images de policiers, NdT] mais pas que, qu’est-ce qui pose, selon vous, problème dans cette loi, notamment en ce qui concerne la surveillance ?
Olivier Tesquet : Ce qui me pose problème ? Déjà une observation assez basique qui est de se dire est-ce qu’une pandémie est le meilleur moment pour discuter de mesures et de technologies qui sont possiblement attentatoires aux libertés ? Là, pour le coup, ce n’est pas Olivier Tesquet qui le dit c’est, par exemple, la Défenseure des droits qui a quand même alerté à de nombreuses reprises notamment sur l’article 22 qui concerne les drones.
Salomé Saqué : Les drones qui sont, finalement, déjà utilisés.
Olivier Tesquet : Voilà, en fait on en vient au nœud du problème pour moi. On a des technologies qui sont déjà utilisées par la police et la gendarmerie. Aujourd’hui vous avez déjà des drones qui sont en dotation dans la police et dans la gendarmerie nationale depuis quelques années. Vous avez, pour reprendre l’expression de Gérald Darmanin, expression qu’il avait utilisée devant la commission des lois de l’Assemblée nationale, un cadre juridique qui est un cadre juridique pas stabilisé, beaucoup de pudeur dans cette expression, donc, finalement, la loi vient blanchir des usages policiers qui existent déjà.
Salomé Saqué : Qui est donc de pouvoir déployer des drones dans des espaces urbains.
Olivier Tesquet : Pour faire du maintien de l’ordre ou ce genre de choses, qui sont exactement les activités qui étaient déjà menées par la police et ce n’est pas pour rien, d’ailleurs, que le Conseil d’État sur l’année écoulée a rappelé par deux fois au préfet de police de Paris, Didier Lallement, qu’il ne pouvait pas utiliser les drones que ce soit pour contrôler le respect du confinement ou que ce soit pour surveiller des manifestations.
Salomé Saqué : Ce que cette loi est en train de rendre légal, c’est ça, c’est de pouvoir déployer des drones et voir si les gens, si les individus s’apprêtent à commettre une dégradation.
Olivier Tesquet : Peuvent commettre des violences des dégradations, etc. Donc ça va être la rustine juridique qui va permettre ces usages-là.
On est sous ce régime de l’expérimentation : on essaye d’abord les technologies, on les déploie, et ensuite on fait des textes de loi pour border l’utilisation de ces technologies. Donc on est mis devant le fait accompli.
Salomé Saqué : En termes de vidéosurveillance, par exemple, qu’est-ce qui a été déployé et qu’est-ce qui a changé pendant la pandémie ?
Olivier Tesquet : Ce qui avait déjà commencé à changer un peu avant la pandémie c’est que, de plus en plus, vous avez des municipalités qui se sont massivement équipées ces dix ou quinze dernières années, c’est-à-dire que depuis le milieu des années 90 la vidéosurveillance est devenue la martingale politique pour à peu près n’importe quel élu, y compris dans des toutes petites communes où vous allez mettre un réseau de vidéosurveillance.
Salomé Saqué : Pour lutter contre la criminalité.
Olivier Tesquet : C’est l’assurance pour lutter contre la petite criminalité, les cambriolages, les vols, etc. Il y a eu un certain nombre d’études menées par des chercheurs sur la vidéosurveillance, je pense par exemple aux travaux du sociologue Laurent Mucchielli [7], qui ont montré que, finalement, elle ne faisait pas vraiment chuter la petite criminalité contre laquelle elle est censée lutter. Par contre elle solidifie, elle fortifie une économie, un secteur de la vidéosurveillance qui se porte assez bien et qui entretient des liens assez serrés, on va dire, avec la puissance publique.
Salomé Saqué : On y reviendra.
Olivier Tesquet : Quand vous avez cet équipement massif depuis quelques années, sur la situation à Marseille, par exemple, j’ai rencontré l’adjointe à la sécurité de Jean-Claude Gaudin, sur la mandature précédente, qui m’expliquait « depuis 2011 on a installé un certain nombre de caméras. Maintenant on a tellement de caméras dans la ville qu’on a besoin d’automatiser le traitement de ces images, donc on a besoin de vidéosurveillance intelligente avec des caméras qui vont être capables de détecter elles-mêmes un certain nombre de situations suspectes ». Sauf que quand vous mettez une couche d’intelligence artificielle sur des images de vidéosurveillance à des fins policières, ce n’est pas seulement un changement d’échelle, on change complètement de paradigme.
Ce que fait la crise sanitaire dans ces conditions-là, c’est qu’elle offre le prétexte parfait, finalement, pour banaliser l’utilisation de ces technologies-là. C’est-à-dire que quand je parlais tout à l’heure de cette entreprise Datakalab qui avait déployé ses outils à Cannes et à Châtelet-Les Halles pour vérifier que les gens portaient bien le masque, c’est beaucoup plus facile de faire accepter cette technologie – pour reprendre ce terme horripilant d’acceptabilité qu’on entend à toutes les sauces depuis des mois, sur l’acceptabilité des mesures, des technologies, etc. – dans un contexte sanitaire avec une technologie qui serait capable de détecter si les personnes portent ou non le masque que de dire « demain on va vous déployer la vidéosurveillance intelligente qui va s’assurer que vous n’êtes pas un terroriste en puissance quand vous montez dans le bus ».
Le levier sanitaire est finalement beaucoup plus fort que le levier sécuritaire. On est passé d’une situation où pendant 30 ans on nous a martelé que la sécurité était la première des libertés, qu’elle était la condition d’exercice de toutes les autres, et maintenant c’est la santé qui devient la première des libertés et on se rend compte que cette injonction-là, à être encore en bonne santé finalement, est beaucoup plus forte que l’injonction sécuritaire. Donc la pandémie agit comme cette espèce d’accélérateur qui va faciliter la banalisation de ces outils-là.
Salomé Saqué : Pourquoi ? Parce que les populations acceptent plus facilement d’être surveillées si c’est pour leur santé ?
Olivier Tesquet : Je pense que les états d’urgence dont on parle sont cumulatifs. C’est-à-dire que l’état d’urgence sécuritaire qui était d’abord exceptionnel, qui a été prorogé six fois et qui, ensuite, a été fondu dans le droit commun, en fait il est toujours là. Il a été fondu dans le droit commun, mais on vit toujours sous un état d’urgence sécuritaire un peu permanent. Et on a ce que j’appelle, qu’on pourrait appeler de plein d’autres façons, cet état d’urgence technologique. On a toutes ces couches qui se superposent comme un mille-feuille.
Salomé Saqué : Qui restreignent nos libertés publiques.
Olivier Tesquet : Qui restreignent nos libertés mais qui nous anesthésient aussi beaucoup, c’est-à-dire que c’est très difficile de s’organiser. C’est déjà quand même très difficile de s’organiser quand on est tous un peu cloîtrés chez nous avec impossibilité de sortir, ce n’est pas facile de s’organiser dans ces conditions-là, mais ça anesthésie beaucoup notre esprit critique, notre capacité à nous opposer à un certain nombre d’outils qui sont déployés, encore une fois, dans l’urgence, avec cette promesse que tout ça n’est que temporaire et que tout ça sera bientôt derrière nous.
On n’arrête pas de parler du monde d’après. Ce que je vois c’est que ces technologies qui étaient déjà un peu les technologies du monde d’avant c’est l’assurance, justement, qu’il n’y ait pas de monde d’après. C’est vraiment l’impossibilité de pouvoir se projeter dans un horizon un peu désirable. On est condamné à l’inéluctabilité de ces technologies qui sont imposées, encore une fois, à feu assez doux.
Salomé Saqué : Vous parlez d’horizon désirable. En quoi est-ce que c’est indésirable d’avoir cette omniprésence de la technologie ? Est-ce que ça n’apporte pas aussi finalement, de bonnes choses, pas moins de criminalité, mais une plus grande cohérence au sein de la population pour essayer de maîtriser la pandémie ? Est-ce que, par exemple, ça ne pourrait pas faire en sorte qu’on puisse plus rapidement retrouver notre vie d’avant parce qu’on est surveillés, parce qu’on sait qu’une partie de la population pourra rester chez elle est quand elle contaminée, parce qu’on saura qui, comment ? Est-ce qu’il n’y a pas plus de bons côtés que de mauvais côtés dans cette technologie ? Pourquoi ce n’est pas, selon vous, un horizon désirable ?
Olivier Tesquet : Je pense qu’il y a effectivement de dilemme, cette équation un peu illusoire. Si on pense vraiment que la technologie va nous aider à retrouver le monde d’avant, je pense qu’on commet une grossière erreur notamment parce que, encore une fois,il n’y aura pas de retour en arrière de la technologie qu’on est en train de déployer maintenant, c’est-à-dire qu’elle sera ensuite utilisée avec d’autres finalités ; elle est partie pour durer.
Quand je vois le mal qu’on a eu, au siècle dernier, à faire accepter l’idée que chacun devait justifier potentiellement, sur contrôle de la maréchaussée, de son identité dans l’espace public. Si on reprend les débats qu’il y a eu au début du 20e siècle là-dessus, plein de gens trouvaient ça absolument attentatoire à la vie privée, aux libertés publiques, qu’on puisse demander, qu’un policier puisse demander, dans la rue, de présenter sa carte d’identité.
Aujourd’hui on imposerait la reconnaissance faciale de manière tout à fait normale, fluide, etc. ! Je vais donner la définition de la reconnaissance faciale, qui est la définition d’un colonel de gendarmerie qui a fait une note pour le Centre de recherche de l’école des officiers de la gendarmerie nationale et qui dit que la reconnaissance faciale c’est le contrôle d’identité permanent et général. Bon ! C’est une définition très claire, je suis très à l’aise avec celle-là, en plus c’est la définition d’un policier, d’un gendarme. Ça a le mérite de la clarté, c’est-à-dire que si c’est le contrôle d’identité permanent et général, la manière dont on interagit les uns avec les autres, la manière dont on se comporte dans l’espace public, n’est plus la même. On a tous, aujourd’hui, des pulsions, des envies de se retrouver dans la rue, de faire corps tous ensemble, ces technologies me semblent préconiser tout l’inverse.
Ce que permettent ces technologies, qui sont contrôlées à distance depuis des centres de contrôle – aujourd’hui on appelle ça des CSU : vous avez des caméras partout dans la ville et vous avez un centre de supervision urbain où vous avez des écrans avec des policiers derrière qui observent les images et c’est une grande boîte noire ; c’est une grande boîte sur laquelle vous n’avez pas de visibilité. Donc parallèlement et concomitamment au fait que dans l’espace public il n’y ait plus d’angles morts, ces dispositifs-là, eux, deviennent assez invisibles, on n’a plus de prise sur eux. Et, pour le coup, ça me semble être une évolution de la société assez mortifère, d’autant qu’on fait rentrer, encore une fois, un certain nombre d’acteurs privés dont certains soulèvent quelques questions.
Salomé Saqué : Quels dangers ça pourrait poser dans le pire des cas ? Est-ce qu’on pourrait arriver à un scénario à la chinoise, à la Black Mirror où on est vraiment tous surveillés, où nos libertés publiques sont complètement anéanties, où on n’a plus aucune possibilité d’opposition politique ?
Olivier Tesquet : Je ne crois pas du tout à la vision orwellienne de la technologie, en tout cas où on aurait un Big Brother qui nous observe tous. Je crois qu’on est dans une imposition beaucoup plus douce, une imposition beaucoup plus douce parce qu’on participe assez largement à ces dispositifs-là. D’ailleurs, quand vous émettez un discours critique sur la reconnaissance faciale, les drones, on vous explique « eh bien oui, mais vous donnez vos informations personnelles à des grandes plateformes, vous utilisez un certain nombre d’outils dans votre vie quotidienne et ça ne vous pose aucun problème ! »
Salomé Saqué : Absolument.
Olivier Tesquet : Quand on me demande s’il faut davantage craindre la surveillance de l’État ou la surveillance des entreprises privées, ce que je crains surtout c’est l’alliage entre ces deux surveillances-là, c’est-à-dire que la surveillance par des entreprises privées peut servir ensuite des appareils d’État. Cela me semble être un vrai danger et, encore une fois, dans cet environnement surveillant où on est tous un peu participants et où, finalement, la température de la marmite se réchauffe, on ne se comporte plus tout à fait de la même manière les uns avec les autres. Je crois en la nécessité d’un discours techno-critique face à l’espèce de vague qu’on a, comme ça, face à nous, où les technologies s’imposent à des cadences toujours plus rapides sans aucun débat au fond, sans aucun débat sur leur légitimité et cela me semble assez dangereux, encore une fois.
Salomé Saqué : Pour revenir à des questions plus économiques, vous l’évoquiez tout à l’heure, vous craignez une forme de collusion entre l’appareil étatique et ces entreprises privées qui détiennent aujourd’hui des données considérables. Quand vous me parlez de votre téléphone qui est dans la pièce d’à côté, c’est avant tout à des entreprises privées que vous avez donné, justement, vos données. Comment serait-ce possible d’un point de vue économique ? Est-ce qu’il y a des intérêts économiques qu’on ne connaîtrait pas derrière tout ça ? Par exemple, si on résume tout ce que vous avez évoqué depuis tout à l’heure, on parle d’applications de vidéosurveillance, de reconnaissance faciale, de logiciels de traçage, tout cela coûte cher, ça doit représenter une part conséquente de l’économie. Est-ce qu’il y a des intérêts économiques cachés derrière l’agenda politique qui vise à imposer ces technologies dans l’espace public ?
Olivier Tesquet : Je ne sais pas si ces intérêts économiques sont cachés, en tout cas il y en a.
Je me souviens, peu de temps avant la pandémie, à l’hiver 2019, je suis allé comme tous les deux ans sur un salon qui s’appelle Milipol, un grand salon de l’armement qui se tient au parc des expositions de Villepinte, où vous pouvez acheter des chars d’assaut et vous avez des flics en civil qui posent une RTT, qui viennent essayer des gros flingues et puis vous avez tout un tas de sociétés qui vendent des technologies de surveillance en tout genre, etc. Ce qui m’avait frappé c’était que fin 2019, ce qu’on voyait vraiment partout, sur tous les stands, c’était la safe city, c’était la ville sûre. La ville sûre après des années où on a eu le paradigme de la smart city, la ville intelligente où on va rationaliser les transports, on va faire des économies d’énergie, on va fluidifier la circulation des individus, etc., qui étaient un peu des villes idéales comme ça, des monades. Ça a été complètement remplacé par l’idée ou l’idéologie de la safe city qui est finalement la même chose mais avec un gros vernis sécuritaire où vous avez des capteurs, des caméras, etc., qui vont permettre de contrôler un espace urbain qui est un espace urbain qui est forcément peu sûr. Quand vous écoutez, par exemple, des industriels de Thalès, pour citer une grande entreprise française, ils vous expliquent le devenir urbain : vous allez avoir une partie exponentielle de la population qui va vivre dans des villes, vous aurez 75 % de la population mondiale qui vivra dans des villes, donc, dans ces conditions-là, les villes vont être peu sûres, donc on aura besoin de technologie pour amener la police à l’intérieur de la polis on va dire.
On voyait déjà cette idée-là qui infusait et maintenant qu’on est dans un environnement, en tout cas dans une longue séquence pandémique où on voit bien que la question de la circulation des individus est quand même une question qui occupe beaucoup la puissance publique que ce soit chez nous ou ailleurs, cette idéologie-là me semble sortir assez fortifiée de la crise sanitaire qu’on est en train de traverser. J’ai des exemples en tête qui sont des exemples très précis. Palantir [8] est une entreprise américaine qui a été créée en 2003 après les attentats du 11 septembre grâce au fond d’investissement de la CIA qui s’appelle In-Q-Tel, qui a été fondée avec une vraie optique de lutter contre le terrorisme, qui a travaillé très tôt avec les services de renseignement américain, les forces de police, qui travaille aussi avec la DGSI en France, le renseignement intérieur, depuis les attentats de 2015, qui travaille aussi beaucoup avec de grandes entreprises en France et à l’étranger que ce soit Airbus, de grandes banques, etc., pour optimiser leurs chaînes de montage, rationaliser les coûts. Palantir, qui a passé des années à perdre de l’argent, toujours un peu en perte, a augmenté son chiffre d’affaires de 35 % sur l’année 2020, a été introduite en bourse après des années de rumeurs et de bruissements qui annonçaient cette introduction et surtout a profité de la crise sanitaire pour mettre la main sur des marchés qui sont quand même des marchés assez cruciaux. En France on leur a fermé la porte au nez, ils ont approché l’AP-HP, l’Assistance publique – Hôpitaux de Paris, pour traiter les données hospitalières et on leur a dit « non merci », notamment parce que le contrat avec la DGSI ne satisfait pas tout le monde en France pour des questions de souveraineté. Ils sont allés toquer à la porte du Royaume-Uni et là le NHS, qui est le système de santé public britannique, leur a ouvert grand les portes. Ils ont signé un premier contrat à une livre symbolique, puis un autre contrat, deux mois plus tard, pour un million de livres et finalement, l’hiver dernier, ils ont signé un autre contrat pour 23 millions de livres. En fait, ils développent des outils qui vont permettre au NHS de mieux mesurer, on va dire, à la fois dans l’urgence les indicateurs hospitaliers, médicaux, etc., et demain d’utiliser les données de santé pour faire de l’innovation, etc.
Salomé Saqué : Qui sont les bénéficiaires de cette diffusion de la technologie ?
Olivier Tesquet : Si vous en parlez avec Palantir ils vont vous dire que les bénéficiaires sont les États avec qui on traite, ce sont les entreprises avec qui on traite, et toutes les informations qui vont sortir de ce grand travail, de cette grande moulinette qu’on leur propose, c’est pour leur bénéfice. Or, ce n’est pas tout à fait ce qui passe. Par exemple, il y a quelques années, il y a eu un différend entre la police de New-York et Palantir. La police de New-York a souhaité casser le contrat, dénoncer le contrat, changer de prestataire parce que ça coûtait cher et elle n’était pas forcément pas très satisfaite. Quand elle a voulu dénoncer le contrat, elle a demandé à Palantir de lui fournir toutes les données qu’ils avaient. Le problème de Palantir ce n’est pas l’accès aux données, ce n’est pas un modèle de GAFA, c’est-à-dire qu’il n’y a pas prédation d’informations qui seraient ensuite en leur possession, ils n’ont pas les données médicales. En revanche, ils ont entre leurs mains l’analyse de ces données médicales ou l’analyse de ces données policières. Ils ont rendu les données à la police de New-York, par contre ils n’ont pas voulu rendre l’analyse qui était faite de ces données. C’est-à-dire que l’interprétation des données, la formule magique, la secret sauce, un peu le ketchup Heinz version algorithmique, appartient à Palantir. Cela me pose un vrai problème en matière de décision politique et de transparence des politiques publiques. C’est-à-dire que si vous déléguez à des entreprises privées, que ce soit une société américaine ou pas d’ailleurs, des décisions politiques aussi importantes que votre politique sanitaire ou vos opérations de police, la manière dont vous menez vos enquêtes, pour moi on est face à un plus gros problème. Là, pour le coup, on fait vraiment tout rentrer dans la boîte noire et on ne connaît pas la recette qui permet d’aboutir à tel ou tel résultat.
Salomé Saqué : L’éthicien italien Michele Loi qui a travaillé à l’OMS, à la doctrine de surveillance sanitaire, alerte, je cite, « nous sommes confrontés à la plus grande menace sur les libertés de notre génération ». Concrètement quelles libertés sont menacées, notamment en France, par ce déploiement technologique ?
Olivier Tesquet : Les deux normes qui sont finalement des normes assez fragiles et que je vois immédiatement menacées par la pandémie c’est le secret médical et la vie privée.
Le secret médical est une norme assez fragile parce que, en faisant mes recherches pour le livre, j’ai découvert qu’au siècle dernier le New-York Times publiait encore, en page intérieure, le nom et l’adresse des personnes qui étaient infectées par la polio. Je me suis demandé ce que ça donnerait, à l’heure des réseaux sociaux, si on publiait, en page intérieure d’un grand quotidien national, le nom et l’adresse des personnes infectées par le Covid, je pense qu’on aurait probablement des effets de foule par forcément très sympathiques.
Et puis, l’autre norme, c’est la norme de la vie privée qui est une invention juridique assez récente, assez floue, finalement il n’y a pas de définition extrêmement claire de la vie privée. Or, on sort de plusieurs années où finalement les gens se disaient « si je n’ai rien à cacher il n’y a pas de problème ». C’est par exemple ce qu’on a beaucoup entendu après l’affaire Snowden, on nous disait « les services de renseignement s’intéressent aux individus méchants et moi je suis un gentil, donc je n’ai rien à craindre ».
Face à ça j’aime beaucoup la formule d’une chercheuse américaine qui s’appelle Shoshana Zuboff [9], qui a écrit un gros pavé sur le capitalisme de surveillance qui est une notion qu’elle a contribué à forger et elle dit « si vous n’avez rien à cacher vous n’êtes rien ». C’est un peu asséné comme ça et c’est un peu brutal. Si on a une vision assez maximaliste et je pense que c’est bien d’avoir une vision assez maximaliste parce que les promesses marketing de ces technologies sont des visions maximalistes, donc on peut tout à fait envisager des scénarios qui sont des scénarios inquiets, je pense que la peur n’est pas forcément mauvaise conseillère en matière de technologie, il faut juste réussir à transformer l’angoisse en une peur qui peut, ensuite, permettre d’actionner des réflexions, un esprit critique, etc. Dans ces conditions-là, ce que je crains c’est qu’on ait effectivement des mesures de police prédictive par exemple, ou qu’on ait des discriminations amplifiées par la technologie. Sur la police prédictive c’est déjà, encore une fois, des choses qui sont un peu à l’œuvre, qui sont expérimentales aujourd’hui : si vous décidez d’analyser de grandes qualités de données, ensuite vous allez pouvoir déterminer quelle zone est plus criminogène que telle autre, on a eu des expérimentations de ce type aux États-Unis ; d’ailleurs un certain nombre ont été abandonnées parce qu’on s’est rendu que soit elles ne marchaient pas, soit elles amplifiaient des phénomènes discriminatoires. Si vous faites la même chose en France, vous allez peut-être vous rendre compte que, finalement, les zones les plus criminogènes sont déjà les zones où vous avez le plus de contrôles arbitraires de police, de contrôles au faciès, etc. et on en vient, du coup, au deuxième effet, c’est-à-dire que demain la technologie risque de créer des classes de citoyens soit en fonction de nos habitudes, de nos modes de vie, un peu sur le modèle chinois, le crédit social à la chinoise. On est immunisé, à priori, contre le régime politique chinois, je ne pense pas du tout qu’on vive en dictature, encore une fois on est une démocratie avec des institutions à peu près fonctionnelles, qui ne se portent pas très bien.
Salomé Saqué : Il y a quand même certaines personnes qui parlent de possible dictature sanitaire, par exemple.
Olivier Tesquet : Ce sont des mots qui reviennent et, surtout, ça traduit une défiance très forte de la population vis-à-vis de la parole politique, de la puissance publique, donc il ne faut pas l’éliminer d’un revers de la main. On voit surtout que cette intrication entre le public et le privé est de plus en plus forte. Encore une fois, on a des garde-fous qui sont plus puissants et plus efficaces en Europe et en France que, par exemple, aux États-Unis. Si on regarde ce qui se passe aux États-Unis, je n’ai pas envie d’une société dans laquelle suivant ce que vous avez commandé sur Internet, suivant la façon dont vous vous alimentez, va ensuite avoir un impact sur la note que vous donne une compagnie d’assurances qui va ensuite décider de vous coller un malus parce que vous avez du mauvais cholestérol, or c’est précisément ce qui est en train de se mettre en place. Aux États-Unis vous avez des gens qui souffrent d’apnée du sommeil, qui doivent porter un masque pendant la nuit, ces masques sont connectés. S’ils ne respectent l’observance thérapeutique, s’ils ne mettent pas le masque comme il faut, aux heures qu’il faut, le temps qu’il faut, etc., la compagnie d’assurances ne les rembourse plus.
J’aime bien cette image de l’observance thérapeutique parce que je crois que la technologie contemporaine, le monde dans lequel on vit aujourd’hui, est beaucoup gouverné sous ce régime-là. C’est-à-dire que vous n’aura pas de problème si vous observez l’observance thérapeutique, si vous suivez bien la notice, si vous prenez bien la petite pilule à heures dites, données, etc. ; si vous respectez bien les instructions de l’ordonnance, il n’y aura pas de problème. Mais si vous décidez de faire un pas de côté, si vous décidez d’avoir un autre mode de vie, OK, mais vous serez pénalisé, il y aura des choses que vous n’aurez peut-être pas le droit de faire qui seront plus compliquées ou dont l’accès sera moins facile. Et ça, pour le coup, ça me semble être un horizon qui n’est pas complètement fantaisiste. C’est un horizon dystopique, c’est certain, et ce monde-là ne me donne pas très envie.
Quand je vois une société israélienne, comme NSO [10] qui est une grosse société israélienne qui vend des logiciels espions à des régimes peu recommandables pour surveiller des opposants politiques, des journalistes, des militants des droits humains et qui, à la faveur du coronavirus, démarche tout un tas de régime occidentaux, démarche aussi le gouvernement israélien, sachant qu’il y a des liens très forts avec le ministère de la Défense pour vendre un tableau de bord qui permettrait de calculer un indice de contagiosité des individus en fonction de leur mode de vie, des endroits où ils sont allés, et ensuite, du coup, répercute une note qui peut avoir un impact sur la manière dont on a le droit ou non de circuler, ça m’effraie. Ça m’effraie, c’est-à-dire que demain on aura peut-être des régulations vraiment tout à fait à la carte en fonction de nos habitudes de consommation, de nos modes de vie. Ça me semble être un univers, encore une fois, un horizon pas très enviable.
Salomé Saqué : Et pourtant c’est la pente sur laquelle on est doucement, vous le dites, en train de glisser, notamment avec la loi pour une sécurité globale qui semble rendre plus importante la vidéosurveillance. Qui a intérêt à ce qu’on s’engage dans cette forme de dystopie ?
Olivier Tesquet : Aujourd’hui, je vois qu’il y a une offre qui rencontre une demande. C’est-à-dire qu’on a une demande jamais rassasiée de sécurité d’un côté.
Salomé Saqué : De qui ? D’une partie de la population ?
Olivier Tesquet : Une demande de la puissance publique, je pense, que ce soit le gouvernement, que ce soit les collectivités locales, en fait on a besoin de sécurité.
Salomé Saqué : Mais à des fins électorales ?
Olivier Tesquet : Auquel est adossé ce fameux sentiment d’insécurité qui justifie ces politiques sécuritaires. Donc, pour contrer ce sentiment d’insécurité, on va offrir un sentiment de sécurité, permis par les caméras, les drones, la reconnaissance faciale, tout un tas d’outils qu’on pourra déployer à ces fins-là.
On voit qu’on a déjà un intérêt politique à déployer ce type de technologie, on a fait des élus qui ont fait carrière là-dessus et qui continuent à le faire.
Salomé Saqué : Comme qui ?
Olivier Tesquet : Je pense évidemment à Christian Estrosi parce que c’est l’exemple le plus caricatural, mais on a plein d’exemples ailleurs. Il y a quand même pas mal d’élus du Sud-Est, qui sont sur cette ligne-là. Éric Ciotti, dès qu’il ouvre la bouche à l’Assemblée c’est quand même toujours pour réclamer plus de sécurité, de sécurité, croiser des fichiers, mettre des caméras partout, comme si ça allait tout résoudre. On rappelle quand même, à toutes fins utiles, qu’après les attentats de Charlie Hebdo, Christian Estrosi avait dit « à Nice, avec toutes les caméras qu’on a, les frères Kouachi n’auraient jamais passé trois carrefours ». Or tristement, et je suis loin de m’en satisfaire, un camion a déboulé sur la promenade des Anglais quelques mois plus tard. On voit bien que cette technologie, qui serait présentée comme une digue infranchissable, ce n’est pas tout à fait la réalité.
On a cet intérêt politique et puis, de l’autre, il y a un intérêt industriel parce qu’on a des entreprises qui sont assez motrices. Je pense, dans les années qui viennent, qu’on aura une demande très forte de la puissance publique pour expérimenter la biométrie, la reconnaissance faciale parce qu’on a des champions français comme Thales [11], comme Idemia [12] qui est moins connue mais qui est aussi un gros acteur du secteur, et qu’il faut permettre à ces entreprises de gagner des marchés non seulement en France mais aussi à l’étranger en se disant « si ce n’est pas nous qui le faisons, de toute façon ce seront d’autres entreprises », ce seront les Chinois, ce seront les Israéliens, ce seront les Américains et ce seront ces pays-là avec les modèles qu’ils ont. Le modèle américain est quand même un modèle de prédation des données, le modèle chinois est un modèle de prédation des libertés et le modèle israélien est, on va dire, un panachage un peu des deux.
Salomé Saqué : Vous l’évoquiez tout à l’heure, parfois ces dispositifs technologiques qui sont utilisés, en tout cas qui sont à la base imposés pour la sécurité de tous, notamment les dispositifs anti-terroristes qui ont parfois aussi été utilisés contre des militants écologiques, finalement on voit bien que ça peut devenir un formidable outil de domination et justement faire basculer un État totalement démocratique dans quelque chose de peut-être un petit peu moins démocratique. Est-ce que ce n’est pas dangereux, aujourd’hui, de mettre en place ces dispositifs sachant qu’il y a une élection présidentielle dans un an, qu’on ne sait pas du tout quelle en sera l’issue et que c’est même particulièrement incertain ? Qu’est-ce que de tels dispositifs pourraient donner entre les mains de l’extrême droite par exemple ?
Olivier Tesquet : Il y a évidemment la question de savoir ce que ça pourrait donner entre les mains de l’extrême droite, mais il y a déjà la question de ce que ça pourrait donner entre les mains du gouvernement actuel. On voit qu’il y a quand même un certain nombre de voix qui s’inquiètent de tendances libérales, autoritaires. On a entendu des parlementaires y compris de la majorité qui, sur la loi pour la sécurité globale, se sont émus de ce virage-là qui est assez bien incarné par le ministre de l’Intérieur.
On voit effectivement que ces outils, et vous avez tout à fait raison de le rappeler, qui sont à la base déployés contre des populations, en tout cas qui sont déployés à des fins antiterroristes, suivent ensuite des logiques répressives qui peuvent toucher tout un tas d’autres catégories de populations vues comme hostiles au pouvoir. Quand je parlais de ce fameux sentiment d’insécurité ou ce besoin de sécurité jamais rassasié, c’est que la menace étant en perpétuelle recomposition, le lundi ce sont les terroristes islamistes, le mardi ce sont les écologistes, le mercredi ce sont les militants végans qui vont dans les abattoirs, le jeudi ce sont les militants des libertés publiques et le vendredi ce sont les islamo-gauchistes. On peut avoir, comme ça, tout un tas de personnes qui se retrouvent prises dans ce grand filet dérivant de la surveillance et, effectivement, c’est comme ça qu’on tue une opposition politique légitime en lui imposant ces mesures. Je reviens un peu sur cette histoire de police prédictive. Quand on voit la chaîne répressive en France depuis des années, l’idée c’est quand même d’intervenir le plus en amont possible de la menace. On l’a vu sur la justice antiterroriste, on est passé de l’association de malfaiteurs en relation avec une entreprise terroriste, ensuite il y a eu le loup solitaire et le délit de terrorisme individuel, on va dire. On voit qu’on a la tentation de punir les gens de plus en plus avant même la commission des actes.
Salomé Saqué : Ne serait-ce que la loi « anti-casseurs ».
Olivier Tesquet : La loi anticasseurs, les arrestations préventives qu’on a sur les personnes qui se rendent en manifestation. On voit qu’on a déjà des entraves assez fortes. On a cette idée d’intervenir le plus en amont possible de la menace, on l’a bien vu pour un certain nombre de mouvements sociaux.
Salomé Saqué : Que permettront donc les technologies.
Olivier Tesquet : Les technologies peuvent, effectivement, permettre ça, l’identification des personnes, identifier tel individu avant qu’il se rende à tel endroit ou identifier tel individu pour qu’on le suive de manière un peu plus précise, un peu plus à la trace. Ça nous amène dans une société qui n’est pas tout à fait une dictature, mais qui n’est pas tout à fait une démocratie non plus.
Salomé Saqué : Face à ce que vous décrivez, on a la sensation de constater, finalement, une faible mobilisation citoyenne. Ce ne sont pas aujourd’hui les sujets qui sont dans les préoccupations de tous, en tout cas à l’heure où l’on parle. Comment expliquez-vous cette paralysie citoyenne face à des lois et à des dispositifs technologiques qui, après tout ce qu’on a dit, semblent de toute évidence poser des questions démocratiques majeures ?
Olivier Tesquet : Je pondérerais peut-être un tout petit peu ça en disant que je sens quand même, depuis la crise sanitaire notamment, une plus grande conscience de ces enjeux-là dans la population, de la nécessité de se mobiliser contre, par exemple, des textes liberticides. Quand je vois la mobilisation assez panoramique, on va dire, contre la loi pour la sécurité globale, avec des associations un peu habituelles mais aussi des magistrats, des personnes de la société civile, etc. On voit que ça rassemble quand même pas mal de personnes. Je n’avais pas vu vraiment de mobilisation comme ça sur les libertés publiques depuis le fichier EDVIGE il y a une dizaine d’années, fichier EDVIGE [Exploitation documentaire et valorisation de l’information générale] qui permettait le fichage politique de n’importe quelle personne de plus de 13 ans en France, à peu près, pour résumer très sommairement.
Ensuite, je crois que le gros problème aujourd’hui, cette paralysie que vous évoquez, c’est qu’on a déjà une paralysie du langage. En fait on manque de mots, avant de manquer de moyens d’action, pour s’opposer à cette surveillance. On manque de mots pour contrer la reconnaissance faciale, pour contrer les drones, pour contrer les courtiers en données. Il y a une espèce d’atrophie du vocabulaire, comme ça, qui, déjà, ne nous aide pas à poser le diagnostic et à penser la situation dans laquelle on est. Si on n’est pas capable de nommer le mal, c’est particulièrement difficile de le combattre et de trouver les clefs pour, ne serait-ce que s’asseoir autour d’une table et discuter collectivement, savoir quelles orientations techniques on veut donner à la société.
Cette paralysée du langage est, en plus, renforcée par le fait qu’un certain nombre de ces acteurs échappent quand même assez notoirement à l’œil du public, ne sont pas connus. Dans ces conditions-là, si on n’a pas les mots pour identifier tous les acteurs de cet écosystème et, en plus de ça, qu’on manque d’un champ lexical qui puisse nous offrir un horizon un peu plus désirable et proposer des alternatives, ça devient particulièrement difficile. C’est pour ça que je crois assez fort à la mobilisation du langage, pour sortir, justement, de cette idée très orwellienne de Big Brother, parce que, finalement, tout ça est assez grossier et ne permet pas, à mon sens, de penser vraiment la situation dans laquelle on vit aujourd’hui pour essayer d’élaborer une langue, quelque part, qui permette de contrer cette langue sécuritaire qui, elle, est très présente, a largement infusé l’espace politique, d’abord à droite puis ensuite à gauche. « La sécurité première des libertés », ça a commencé avec Peyrefitte à la toute fin des années 70 avec la loi sécurité et liberté, justement, et aujourd’hui ça a infusé complètement à gauche. Pour n’importe quel candidat en campagne c’est devenu rituel, il faut dire, à un moment ou à un autre, « la sécurité est la première des libertés ». On le voit, c’est une langue très forte, c’est un rouleau compresseur, je serais très intéressé à l’idée de lire des travaux de chercheurs sur la formation de cette langue technocratique et sécuritaire, un peu de la même façon que Klemperer avait documenté cette langue nazie avec la LTI [LTI, la langue du IIIe Reich] ; on va dire que le parallèle est un point Godvin, mais je crois qu’il y a un vrai enjeu autour du langage. Face à cette langue sécuritaire, encore une fois, on a peu de choses à opposer hormis quelques grognements.
Salomé Saqué : Merci beaucoup d’être venu sur le plateau de Blast aujourd’hui.
C’est la fin de cette émission. N’hésitez pas à vous abonner à notre chaîne YouTube si vous avez apprécié le contenu, à nous suivre sur les réseaux sociaux, sur Facebook, Twitter, Instagram et je vous dis à bientôt.