- Titre :
- Stop StopCovid ! - JOUR 41
- Intervenant·e·s :
- Asma Mhalla- Alexis Poulin - Antoine Gouritin
- Lieu :
- La République Inaltérable en confinement - Le Monde Moderne
- Date :
- 27 avril 2020
- Durée :
- 29 min
- Écouter ou télécharger le podcast
- Licence de la transcription :
- Verbatim
- Illustration :
- Invisibilities, Paula Klien - Licence CC BY-SA 4.0.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l’April, qui ne sera en aucun cas tenue responsable de leurs propos.
Transcription
Voix off de Agnès Buzin, ministre des Solidarités et de la Santé : Les risques de propagation du virus dans la population sont très faibles.
Voix off de Michel Cymes, médecin animateur de radio et de télévision : Si chaque année on fait des dépêches à chaque fois qu’il y a un mec qui a la grippe !
Voix off de Muriel Pénicaud, ministre du Travail : Le travail a repris, je crois que dans la plupart des endroits aujourd’hui, le problème est derrière nous.
Voix off de Sibeth Ndiaye, porte-parole du gouvernement : L’Italie, il y a quelques semaines, a pris des mesures, je pense par exemple au contrôle des températures à l’arrivée de vols en provenance de zones à risque, qui n’ont pas permis d’enrayer l’épidémie. Nous n’avons pas pris ce type de mesures.
Voix off de Emmanuel Macron, président de la République : Normalement vous aurez moins de contraintes qu’il n’y a en a en phase deux et un. Je ne dis pas de bêtise monsieur ?
Alexis Poulin : Bonjour à toutes et à tous et merci d’être toujours aussi nombreux au rendez-vous de la République en confinement, aujourd’hui avec Antoine. Salut Antoine, ça va ?
Alexis Gourin : Salut Alexis. Bien et toi ?
Alexis Poulin : On reçoit Asma Mhalla. Bonjour Asma.
Asma Mhalla : Bonjour Alexis. Bonjour Antoine.
Alexis Poulin : Asma, vous êtes prof à Sciences Po pour ce qui est économie du numérique, entre autres, et vous suivez, depuis quelque temps déjà, ces applications de surveillance, de contrôle. Il y en a une qui nous occupe particulièrement en ce moment, StopCovid [1], poussée par Cédric O et le gouvernement comme étant une panacée, même si ça ne fonctionne pas trop. Il va y avoir un débat, il y a un débat qui arrive le 28 [mai] me semble-t-il, avec quand même un vote qui a été obtenu de haute lutte par les oppositions, mais Gilles Legendre [président du groupe LREM] pensait que le vote n’était pas utile. Qu’est-ce que vous en pensez après avoir regardé en détail cette application StopCovid ? Est-ce que c’est bien ? Est-ce que c’est idiot ? Est-ce que c’est utile, est-ce que c’est inutile ? Est-ce que c’est dangereux ?
Asma Mhalla : La question est très vaste et elle suppose une analyse à plusieurs niveaux.
Est-ce que vous me permettez, Alexis, juste d’avoir deux propos en préambule, simplement juste pour avoir les termes du débat qui soient parfaitement clarifiés ?
La première chose c’est qu’en ce moment on a un débat qui est totalement idéologisé et hystérisé autour de ce qu’est la technologie. Simplement, pour remettre les choses dans leur contexte, la surveillance en tant que telle n’est pas un gros mot. La surveillance si elle est installée, si elle est appliquée avec bienveillance est quelque chose qui est absolument nécessaire dans un État de droit puisque c’est ce qui permet le contrôle du respect des règles. Ça c’est simplement le premier propos liminaire.
Le deuxième c’est qu’en réalité la technologie en tant que telle peut être un outil de politique publique et de politique sanitaire très utile si elle n’est pas associée à des appareils ou des dispositifs de répression d’État. Et c’est là où on commence à avoir un sujet politique majeur. On a vu beaucoup de solutions d’intelligence artificielle, d’open data, qui ont pu permettre de mieux comprendre la propagation du virus, de nouveaux champs scientifiques, la phylodynamique, etc., qui permettent de comprendre le génome d’un virus et, en ce sens, si elles sont appliquées à la connaissance, ces technologies-là sont bienvenues à priori.
Le cas du StopCovid n’est pas du tout sur ce champ-là. C’est-à-dire que ce qui a été fait, à mon sens, c’est qu’on a déporté la réponse sanitaire initiale, puisqu’on est dans une crise sanitaire, vers le champ techno-politique. En ce sens on installe, en fait, les premières briques d’une nouvelle, on dira, gouvernementalité ou une nouvelle bio-politique 2.0 à base de confinement, à base de mécanismes de contrôle soi-disant sur la base d’un volontariat. En effet, en ce sens, on respecte le cadre légal et le RGPD [2], mais, en réalité, on le contourne en installant les mécanismes de contrôle sur l’injonction morale, le nudge, les hashtags, toutes les vidéos qu’on voit sur les réseaux sociaux qui encouragent les différents publics d’influenceurs pour avoir tel ou tel comportement, la responsabilisation individuelle à outrance donc qui génère l’envers de ça, c’est-à-dire une forme de culpabilité et de peur permanente. En ce sens, on a une espèce de mix entre les sociétés disciplinaires de Foucault, les sociétés de contrôle de Deleuze, le tout sur un contournement de la loi, non pas de façon frontale, en fait, mais de façon latérale parce qu’on déplace aussi ça sur le champ de la morale. Et, en ce sens, ça pose des questions politiques hyper-importantes.
Alexis Poulin : Justement c’est important de citer à nouveau Foucault et Deleuze sur les sociétés du contrôle parce que la technologie est-ce que c’est une nouvelle donnée dans l’équation qui permet d’aller plus loin, qui permet justement ce nudge, qui permet de passer outre le débat politique, parce que finalement ça devient invisible ? C’est le principe, en fait, du contrôle. On en parlait aussi avec Olivier Tesquet dans le podcast : la surveillance est devenue totalement invisible c’est-à-dire qu’on l’a intériorisée via nos téléphones, via les dispositifs qui sont mis dans la rue qu’on ne regarde plus, qu’on ne voit plus, et le danger n’est-il pas justement d’aller beaucoup trop loin ? Et quelle est la responsabilité du politique quand il fait ce choix ? Pourquoi il le fait, sachant pertinemment que c’est une piste extrêmement dangereuse parce qu’on n’a pas les moyens aujourd’hui de savoir jusqu’où ça va nous emmener ?
Asma Mhalla : Il y a deux choses dans ce que vous dites. La première c’est l’invisibilisation de ces dispositifs de surveillance et ce qui est sous-jacent, en réalité, ce n’est même pas tant que ce soit invisible, mais c’est l’accoutumance que ça crée. Les débats ne sont pas neufs, c’est-à-dire qu’on a déjà eu toutes ces questions-là quand il y a eu le débat public sur la privacy, sur la reconnaissance faciale en fin d’année dernière. On se rendait compte, en fait, qu’on commençait toujours par les usages commerciaux d’une technologie quelconque, en l’occurrence la reconnaissance faciale par exemple ; ça commençait toujours pour vérifier que la photo était bien arrivée, qu’on pouvait délocker son smartphone, etc., et de là on anesthésie un peu, si vous voulez, l’esprit ou la distance critique ou l’esprit politique, on le dépolitise, on nous dépolitise et puis, petit à petit, en fait, ça rentre dans le champ sécuritaire, donc dans le champ potentiellement répressif. Ça c’est par rapport au point de l’accoutumance et de l’invisibilisation et de ce que peut-être Olivier Tesquet appelle l’effet cliquet.
La deuxième chose c’est sur : pourquoi l’État fait ça ? L’État fait ça pour des raisons il me semble assez évidentes. La première c’est qu’on est quand même en train de payer le détricotage de l’État social de ces trente dernières années en gros. En fait, on s’est retrouvés pris au dépourvu d’une crise qui était normalement tout sauf exceptionnelle parce qu’elle aurait dû être prévue et on aurait dû déjà être armés d’infrastructures hospitalières qui auraient pu faire face. Je regardais les chiffres la semaine dernière : à budget égal, l’Allemagne a beaucoup plus d’infrastructures et de lits par exemple en réanimation que nous. Ça pose vraiment la question de la gestion de l’argent public d’une part et puis cette doxa qu’on traîne depuis de nombreuses années sur le détricotage de l’État social. Donc il y a cette impréparation extrêmement évidente et visible qui fait que l’État, étant dépourvu, est bien obligé quand même de proposer quelque chose et c’est ce que je vous disais tout à l’heure, du coup la réponse est déplacée là où elle n’aurait pas dû être. C’est-à-dire que la réponse qui était initialement des lits d’hôpitaux, des masques, des tests, de la recherche hyper-poussée sur les vaccins, elle existe, mais on se retrouve quand même sans avoir la base de la réponse sanitaire, mais il faut bien agir, il faut bien donner l’impression d’une action politique et il faut bien avoir la matière pour le discours politique qui l’accompagne et, en ce sens, StopCovid a rempli le vide de ça.
Alexis Poulin : Alors le vide avec du vide ? Parce que derrière on se rend compte que l’appli est complètement mal imaginée puisqu’il faudrait changer la façon dont les téléphones sont construits par les constructeurs, que ça ne marche pas, et que, au final, sans tests ça ne sert à rien d’avoir une appli qui dit si vous avez croisé des gens qui avaient potentiellement le virus, vu que vous ne pouvez pas vous faire tester en étant asymptomatique. Donc ?
Asma Mhalla : Vous avez parfaitement raison. C’est-à-dire que prise toute seule, elle ne sert strictement à rien. Si elle n’est pas prise dans un ensemble de choses, ce qu’on disait tout à l’heure, les tests, le respect des règles sanitaires, la distanciation sociale, le diagnostic, le dépistage massif – le dépistage pas le pistage, on est d’accord – donc prise toute seule elle ne sert pas grand-chose, voire, en réalité, Singapour, Israël, etc. sont en train de revenir de cette solution. C’est-à-dire qu’on est en train de se rendre compte non pas qu’elle était neutre pas qu’elle était neutre ou inefficace, non, c’est qu’elle a amené le résultat contraire de ce qu’on voulait. C’est-à-dire que par le sentiment faux de sécurité qu’elle a généré, les gens sont sortis, ont cru qu’ils étaient sécurisés, qu’ils étaient protégés par cette techno, donc en fait on a augmenté le risque de propagation plutôt que de le réduire.
En effet, vous avez parfaitement raison, la solution qui est aujourd’hui sur la table à l’étude ne servira qu’à accroître un certain nombre de risques de souveraineté, de créer un précédent légal et technique en termes de surveillance de masse et un risque aussi de hacking. Vous l’avez dit, c’est-à-dire que l’architecture même de la solution, peu importe le débat qui n’est même pas tranché aujourd’hui dans la communauté scientifique de dire « est-ce qu’on centralise ou est-ce qu’on décentralise », les deux solutions en réalité sont problématiques d’un point de vue de la cybersécurité, mais on accroît de toute façon le risque de hacking. Et en disant « on centralise » qui est aujourd’hui l’option choisie par l’État français et qui est à l’étude par les chercheurs de l’Inria [Institut national de recherche en sciences et technologies du numérique], en fait on augmente davantage, si je puis dire, le risque de hacking parce qu’en plus c’est une entité étatique qui centralise, donc autant vous dire que ça va créer beaucoup d’appétit chez les hackers.
Alexis Poulin : Il y a le côté centralisé. Juste une question sur les acteurs privés, parce que là il y a l’État, effectivement, qui veut faire ce StopCovid, mais on voit que derrière Apple, Google, Orange, tous les acteurs télécoms, les constructeurs ont leur solution et voudraient absolument la proposer. C’est aussi grave, finalement, qu’avoir un État centralisé quand on voit le poids qu’ont les géants de l’Internet et de la technologie comme Apple ou Google proposer une appli de tracing, c’est encore pire d’une certaine façon.
Asma Mhalla : Pire par rapport à quoi ?
Alexis Poulin : Par rapport au risque des données, par rapport au risque, en fait, de faire avancer encore l’agenda de la société de la surveillance d’une marche.
Asma Mhalla : Oui. Quand je disais par rapport à quoi, c’est que vraiment la crise qu’on est en train de vivre actuellement ne crée rien, elle ne fait qu’amplifier ou plutôt mettre en lumière des phénomènes qu’on voyait depuis très longtemps. Les heurts permanents de souveraineté entre les Big Techs, les GAFAM, les géants, les industriels et l’État sur la question des données personnelles, cette histoire a maintenant plus de 15 ans maintenant, simplement elle n’était pas mise au jour parce que, c’est ce qu’on disait tout à l’heure, ce sont des sujets qui sont invisibles. La donnée personnelle est quelque chose qu’on ne voit pas, qu’on en sent pas. Ce n’est pas comme un virus qui peut nous mettre à plat et nous envoyer à l’hôpital. Donc en effet, le risque est toujours hypothétique.
Pour revenir sur les collusions permanentes entre privé et public, elles n’ont strictement rien de nouveau, ça a toujours été le cas. Si je reprends un peu l’exemple de ce qui se passait sur la reconnaissance faciale, en fait on a en permanence des transferts massifs de souveraineté du public vers le privé et, en plus, sur des fonctions régaliennes. Sur la reconnaissance faciale le sujet c’était la sécurité. Là le sujet c’est la santé, mais la problématique sous-jacente est toujours la même, c’est la question de la souveraineté et de la compétence de l’État sur ces nouvelles technologies-là, compétence que visiblement il n’a pas. C’est-à-dire que StopCovid démontre de façon évidente des compétences lacunaires, une compréhension lacunaire de ce qu’est une techno, mais réellement !
Alexis Poulin : Est-ce que ce n’est pas aussi le problème de la gouvernance à la française parce qu’on voit qu’au sein de l’Inserm [’Institut national de la santé et de la recherche médicale] le top management est aligné sur le politique alors que les chercheurs, eux, sont là à dire « mais vous faites n’importe quoi, on se désolidarise complètement de cette idée ». Est-ce qu’il n’y a pas aussi ce problème-là à un moment. C’est comme les drones. Je trouve que les drones c’est le sommet du ridicule technolâtre que peuvent avoir les élus : j’ai un drone, donc j’ai fait mon boulot. C’est super, regardez, j’ai mon jouet ! Le préfet Lallement qui était tout fier ! Ce sont des gosses ! On a l’impression que ce sont vraiment des gosses qui sont heureux avec ces nouveaux jouets dont ils ne maîtrisent pas les enjeux philosophiques et politiques de ce que ça implique ; le drone va aller filmer, peut potentiellement filmer chez des gens — la transparence qui est le fait de la société totalitaire décrite par Hannah Arendt — et on a l’impression de gosses qui sont très heureux d’avoir un nouveau jouet.
Asma Mhalla : Il y a un manque de littératie numérique. On a souvent parlé de fracture numérique en pensant, de façon un peu inconsciente et automatisée, aux banlieues, aux personnes âgées, etc., il y a, en réalité, une fracture numérique au sommet de l’État, mais vraiment ! C’est-à-dire qu’il y a une incompréhension, c’est ce que vous disiez, des enjeux politiques et éthiques sous-jacents à ça, ça c’est évident. Et puis il y a aussi ce réflexe, en tout cas c’est l’analyse que je fais depuis quelques années qui est de dire que détricotant l’État social, l’État doit se réinventer autour d’une nouvelle raison d’être. Et la raison d’être, là où il est légitime, là où les GAFAM n’iront jamais facialement et frontalement, c’est la question de la sécurité et de la coercition en réalité.
Donc on a une répartition des tâches entre privé et méga-plateformes qui vont être sur la captation de la donnée personnelle, plutôt sur l’exposition de soi, sur le narcissisme, sur tout ce qui est ludique, etc., et vous allez avoir l’État, qui a fondamentalement besoin des infrastructures informationnelles et de cette technologie très avancée de ces méta-plateformes, mais qui, lui, va se rabattre sur la fonction sécuritaire.
On parle souvent de transfert de souveraineté, j’en ai moi-même parlé, en réalité ce que je vois plus apparaître c’est une répartition d’une double gouvernance. Et ça permet aussi de répondre à votre point précédent, c’est-à-dire qu’on a une co-gouvernance, concept même qui a été évoqué par Macron lui-même en 2018 lors du Forum international sur la gouvernance de l’Internet où il parle maintenant de co-régulation. Donc vraiment l’État ne régule plus, l’État co-régule avec les méta-plateformes, avec les GAFAM, c’est ce qu’on fait à l’OCDE quand on veut travailler sur le projet de lissage de la taxation, etc. Donc on a un sujet fondamental qui est : qu’est-ce qu’est en train de devenir l’État ? Pour moi c’est vraiment cette question récurrente à laquelle on revient en permanence : qu’est-ce qu’est l’État ?
Pour répondre à l’Inserm, quand vous lisez le dernier article qui est sorti par l’Inria pour défendre le projet StopCovid d’un point de vue fonctionnel, d’un point de vue vraiment de l’architecture technique, à deux ou trois reprises j’ai relevé une phrase qui m’a un tout petit peu fait peur, qui est, en gros, de dire « nous, chercheurs, sommes à la disposition de l’État, nous ne faisons que fournir le protocole et la technique et c’est à l’État de choisir l’objectif et ce pourquoi il veut utiliser ce protocole-là ; c’est-à-dire l’usage final appartient à l’État et nous ne sommes que les humbles serviteurs de l’État ».
Je trouve que c’est un peu affolant que des chercheurs de très haut niveau, que des laboratoires et des centres de recherche de ce niveau-là se dispensent d’esprit critique et se mettent à ce point au service de l’État. Dans l’histoire on a vu ce que ça pouvait donner ! La science au service d’États qui n’avaient pas de vision ou qui avaient une vision très particulière du futur, de l’avenir et du monde ça peut quand même donner des choses terribles.
Alexis Poulin : Justement quels sont nos garde-fous ? Quelles sont les solutions qu’on peut avoir quand on voit cette montée de l’État autoritaire techniciste sur un modèle chinois on va dire, finalement ce sont eux qui vont sortir la tête haute de cette crise en disant « voilà ce qu’on a fait, prenez exemple ». Qu’est-ce qu’on peut faire quand on est conscient du risque au niveau de citoyens ? Est-ce qu’il y a des instances qui existent ? Est-ce qu’il y a des moyens, des garde-fous pour éviter les débordements ?
Asma Mhalla : Sur le fait que la France soit un État autoritaire techniciste, je ne sais pas. Ce n’est pas l’impression que ça me donne. L’impression que ça me donne c’est une impréparation fondamentale qui mène, en fait, à la manipulation de l’État de droit pour masquer un dysfonctionnement d’État. Donc là où la Chine crée volontairement, de façon très consciente et de façon très pensée et réfléchie un canevas autoritaire, en France j’ai l’impression que c’est un effet, un dommage collatéral qui n’est même pas pensé, qui n’est même pas conscientisé. C’est vraiment le dégât, l’effet secondaire, l’effet de bord d’une impréparation politique, réellement. C’est vraiment le sentiment que j’ai.
Alexis Poulin : Et c’est lié à une inculture complète aussi sur ces technologies justement.
Asma Mhalla : C’est lié, absolument, à une mécompréhension ou à une compréhension lacunaire des enjeux d’une techno qui, comme toute techno, forcément a une part d’idéologie puisqu’elle se met au service d’une vision donnée du monde ou d’une société.
Par rapport aux garde-fous et aux contre-pouvoirs possibles, dans un État de droit démocratique comme la France, on en a. Pour être tout à fait juste dans le débat, l’Europe s’est quand même positionnée comme le chantre ou la championne de l’éthique de l’intelligence artificielle, on a tenté d’avancer au prix de nombreuses années de combat sur la question de la privacy avec le RGPD, il y a un certain nombre de règles et de réglementations qu’on voit quand même apparaître. Ça reste toujours disproportionné ou plutôt pas à sa juste valeur, pas à sa juste mesure et c’est toujours un peu moins-disant que ce qu’on pourrait attendre, mais il y a quand même des choses qui se font.
En France, globalement, ce qu’on peut avoir comme contre-pouvoir, c’est la vivacité démocratique, en réalité c’est qui ? Ce sont les watch dogs, ce sont les quelques associations type La Quadrature du Net [3], etc., qui quand même se battent et qui se battent bien. Et le RGPD, de façon paradoxale j’ai envie de dire, à sa création même, donne en fait les moyens de faire des class actions, etc., au niveau européen. Donc en ce sens, on commence à avoir quelques armes légales pour, justement, faire entendre et faire valoir un certain nombre de droits et de libertés. Maintenant, en France, on a la CNIL [Commission nationale de l’informatique et des libertés] qui a des prérogatives sur la question de la donnée et vraiment sur le traitement des données. Là où on a un énorme trou dans la raquette c’est sur la question de l’éthique des algorithmes et de ces solutions techniques. Le seul sujet des nouvelles technos n’est pas que un sujet de data, c’est aussi un sujet de la façon dans laquelle on construit des algorithmes avec tout ce que ça peut supposer comme biais, comme discriminations, comme encodage d’opinions subjectives, culturelles, sociétales, etc. Et quand on sait que les développeurs sont essentiellement des hommes, blancs, jeunes, sur-diplômés, etc., en effet ça reproduit une certaine vision du monde. En ce sens, il nous manque quelque chose dans la gouvernance globale des nouvelles technologies par rapport à l’algorithmie et à l’éthique de l’algorithme et de l’intelligence artificielle. Ça c’est un fait.
Et puis, fondamentalement il faut, et c’est ce qu’on essaye de faire là, qu’il y ait une vivacité, une responsabilité collective qu’on a tous, à ne pas tomber dans le piège du débat inextricable pour ou contre la techno, sécurité vs liberté où, en fait, on s’enferme. C’est très piégeux ces dialectiques binaires-là parce qu’on tombe dans le piège. C’est pour ça que j’ai commencé le propos par vous dire quelques propos liminaires. C’est-à-dire qu’il faut toujours s’extraire des à-propos et des a-priori connectés idéologiquement quitte à en réinjecter plus tard pour avoir une vision politique des choses, mais ne pas tomber dans le piège du pour ou contre permanent qui polarise le débat et qui l’hystérise de façon un peu stérile en fait.
Alexis Poulin : On voit bien, s’il y a un pour, qu’on vend ça sur la santé, sur la sécurité, c’est comme ça qu’on fait acheter ces systèmes-là, qu’on les vend de manière symbolique aux citoyens, mais qu’est-ce qui est fait en parallèle pour une gouvernance éthique, pour des conseils scientifiques qui, justement, permettraient d’avoir des lieux pour penser ça au-delà des activistes et des associations qui font leur boulot ?
Asma Mhalla : C’est assez marrant parce que le covid reprend vraiment, quasi mot pour mot, tous les débats qu’on avait eus sur la reconnaissance faciale. Et, à l’époque, qu’est-ce qu’on disait ? Pareil, on avait dit « on va faire une consultation citoyenne. On va demander l’avis aux gens pour voir un peu ce qu’ils en pensent et quel est le niveau d’acceptabilité sociale d’une telle technologie ». En fait, on n’a encore jamais réussi à construire une architecture de consultation citoyenne qui ne finisse pas soit en pugilat parce que tout le monde s’en met plein la tronche, soit qui récupère réellement et qui réinjecte réellement dans la loi, dans la réglementation et plus généralement dans l’approche même de l’État français ce que pense la population. Donc il y a forcément un travail sur l‘architecture de consultation citoyenne qui n’est aujourd’hui pas pensée et qui ne peut pas se contenter de référendum en ligne, d’agora numérique ou je ne sais quoi comme on avait vu même sur le climat. Il y a eu, à un moment donné, pareil, des consultations qui avaient fini par une polarisation idéologique, on se tape de dessus et puis ça s’arrête là parce que ça ne donne strictement rien.
Alexis Poulin : C’est bien tout le problème ! Et pourtant, ce qui est étonnant, c’est que ce gouvernement et Emmanuel Macron s’était présenté comme ce président, ce politique jeune, qui comprenait ces enjeux, qui était le président des startups, qui allait au CESE. Et on se rend compte que c’était, encore une fois, de la mise en scène, dernière ce n’est pas du tout vrai. On a l’impression d’avoir des gens qui n’y connaissent rien.
Asma Mhalla : Macron est allé au CESE [Conseil économique social et environnemental], Macron représente la startup nation, donc il est cohérent avec lui-même, enfin jusqu’à présent il était cohérent. Macron n’a jamais été élu pour faire de l’écologie ou alors on n’a pas entendu le programme de Macron. Donc j’ai presque envie de vous dire, Alexis, la faute ce n’est pas la faute de Macron qui ne fait qu’appliquer un programme ultra-libéral et qui a toujours été transparent sur cette ultra-libéralité là en fait. Le problème c’est que nous l’avons élu, donc on a ce qu’on ce qu’on mérite. On a le personnel politique qu’on mérite après tout. Nous avons mis des gens et pendant, allez, ces 15 dernières années, ces 20 dernières années, ils nous ont mené là et on continue et on persévère. À un moment donné, si on ne se prend pas en charge collectivement pour se dire « pourquoi a-t-on ce type de gouvernement-là ? Pourquoi a-t-on ce type de personnel-là ? » Typiquement sur l’écologie, par exemple, si on se dit qu’il y a un vrai sujet et on peut se le dire, il y a un vrai sujet sur l’écologie, il y a comme une espèce de fuite en avant qui va nous mener un peu dans le mur, on est peut-être déjà un tout petit peu dans le mur, eh bien pardon, à aucun moment dans le programme de Macron n’était inscrite une doctrine ou une vision sur le sujet. Le type n’a pas été élu pour ça et il n’a pas été élu par ces gens-là. Même quand on regarde les scores récurrents des Verts, etc. – on en pense ce qu’on veut, moi je n’en pense rien du tout, je les connais pas, je les connais mal –, mais à un moment donné ! Il se trouve qu’on a une démocratie où tous les cinq ans on nous permet de voter, encore ! C’est très bien, donc faisons de ça bon usage et essayons peut-être aussi nous société civile, nous tous citoyens, de nous organiser pour amener au pouvoir le programme et non pas la personne, le programme dont on a besoin, dans lequel on peut construire un projet collectif, un projet de société souhaitable, désirable, pour dépasser un tout petit peu la critique et pour être une tout petit peu dans la construction ou la fameuse co-construction de Macron qui elle était plutôt pour le jeune public urbain des CSP+ [Catégories socio-professionnelles les plus favorisées].
Alexis Poulin : Il y a de quoi faire. C’est positif, c’est agréable. Vous avez raison.
Asma Mhalla : Mais c’est à nous !
Alexis Poulin : On est en démocratie, heureusement, il y a un débat et il y a la chance de pouvoir voter, il y a aussi la chance de pouvoir critiquer ouvertement. La banderole c’est limite autorisé, attention. Mais ce qui fait peur c’est effectivement le contrôle invisible qui est en train de se mettre en place. On va suivre ça avec beaucoup d’intérêt.
Merci Asma de nous avoir un peu guidés dans cette jungle numérique. Je pense qu’on se reverra, on en reparlera, après le débat peut-être pour voir ce qui va se passer parce que j’imagine que d’autres projets vont sortir du chapeau, que ce soit chez Orange, chez Free, je ne sais pas, il y aura sans doute des idées foisonnantes d’applis stupides, donc on aura l’occasion d’en parler. En tout cas merci beaucoup.
Asma Mhalla : Merci à vous.
Alexis Poulin : D’habitude on se quitte en musique. Est-ce qu’il y a une chanson que vous voulez écouter en particulier ?
Asma Mhalla : Une chanson que je voudrais écouter en particulier ? Eh bien celle que vous chantonniez juste avant qu’on commence.
Alexis Poulin : Celle de Gérard Palaprat, Pour la fin du monde.
Asma Mhalla : Pour la fin du monde, le monde d’après.
Alexis Poulin : C’est ça, on recommence à zéro.
[Pour la fin du monde de Gérard Palaprat]