Voix off : Libre à vous !, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.
Frédéric Couchet : Bonjour à toutes. Bonjour à tous. C’est le cœur en joie que je vous retrouve dans Libre à vous !, l’émission qui vous raconte les libertés informatiques.
Au programme du jour, « Numérisation et justice sociale » avec Hubert Guillaud, journaliste, spécialiste des systèmes techniques et numériques, ce sera le sujet principal de l’émission. Avec également au programme la chronique de Gee, « (Encore ) un nouveau Fairphone », et aussi, en fin d’émission, la chronique de Xavier Berne : « Découvrez le droit d’accès aux documents administratifs ».
Cette émission Libre à vous ! est proposée par l’April l’association de promotion et de défense du logiciel libre.
Je suis je suis Frédéric Couchet, le délégué général de l’April.
Le site web de l’émission est libreavous.org. Vous pouvez y trouver une page consacrée à l’émission du jour avec tous les liens et références utiles et également les moyens de nous contacter. N’hésitez pas à nous faire des retours ou à nous poser toute question.
Nous sommes mardi 19 septembre 2023, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast.
À la réalisation de l’émission, elle doit être un peu stressée, car c’est sa première. Présidente de l’April aux multiples talents, elle était notamment ce week-end sur le stand de l’April dans l’espace numérique de la Fête de l’Huma. Libraire de son métier et par passion, on la croise souvent avec son écharpe et, ce mardi, elle est derrière la console numérique pour sa première régie, accompagnée de mon collègue Étienne Gonnu. C’est Magali Garnero. Bonjour à vous.
Magali Garnero : Salut à tous.
Étienne Gonnu : Salut.
Frédéric Couchet : Nous vous souhaitons une excellente écoute.
[Jingle]
Chronique « Les humeurs de Gee » - « (Encore) un nouveau Fairphone ? »
Frédéric Couchet : Gee, auteur du blog-BD Grise Bouille, vous expose son humeur du jour : des frasques des GAFAM aux modes numériques, en passant par les dernières lubies anti-internet de notre classe politique – d’ailleurs l’actualité en est pleine aujourd’hui –, il partage ce qui l’énerve, l’interroge, le surprend ou l’enthousiasme, toujours avec humour. L’occasion peut-être, derrière les boutades, de faire un peu d’éducation populaire au numérique.
Bonjour Gee.
Gee : Bonjour.
Frédéric Couchet : le thème de ta chronique du jour c’est « (Encore) un nouveau Fairphone ? ».
Gee : C’est ça. Salut à toi public de Libre à vous ! et bonne rentrée !
Me voici donc de retour pour une deuxième année de chroniques qui parlent de numérique. Si je fais le bilan de la première année, j’ai parlé de plein de trucs : de la pub sur Internet, des fracturés du numérique, des batailles sémantiques entre digital et numérique, de ChatGPT (et ça schlingue) – petite blague de prout pour bien démarrer l’année – et puis de pleins d’autres trucs comme le chiffrement ou GNU/Linux. En gros, des sujets de société et des choses plus techniques, très axées sur le logiciel, le software. Par contre, je n’ai quasiment jamais abordé l’aspect hardware, le matériel, qui est pourtant littéralement la base du numérique.
Un élément de hardware qui est sans doute le plus répandu aujourd’hui, probablement plus que
l’ordinateur personnel maintenant, c’est le smartphone. Ou plutôt l’ordiphone, parce que smart ça sous-entend que le téléphone est intelligent, alors qu’un téléphone, comme un ordinateur, c’est complètement con, ne l’oubliez pas ! L’intelligence artificielle, ça n’est pas intelligent. Ni même artificiel, en général, vu que ça repose sur de la main-d’œuvre exploitée dans des pays pauvres, mais je ne vais pas vous refaire ma chronique sur ChatGPT, et ça fouette.
Bref !, le hardware en numérique, pour ne rien vous cacher, c’est souvent crade. Je ne parle pas de votre écran de téléphone dégueulasse, tapissé de vos grosses traces de doigts bien grasses et de vos bactéries d’oreille. Non, le matériel numérique est malheureusement souvent un désastre sur deux points : écologique et humain.
Écologique évidemment, avec, en premier lieu, l’extraction de terres rares et la consommation d’énergie nécessaire à la fabrication des terminaux. Terminaux à la durée de vie de plus en plus limitée.
J’insiste sur la fabrication, car c’est surtout cela qui a un coût écologique non-négligeable, bien au-dessus des cas d’usage. Et c’est d’autant plus vrai que l’écran est gros.
J’en parlerai peut-être plus en détail une autre fois, mais « supprimer vos mails pour la planète », en vrai, ça ne sert pas à grand-chose ! C’est surtout du greenwashing de la part des grosses entreprises du numérique qui, à part ça, ne voient aucun problème à vous faire racheter un téléphone neuf et des télés 4K tous les deux ans, ce qui est plusieurs ordres de grandeurs au-dessus du stockage des mails en termes de coût écologique !
Et bien sûr, l’autre côté « crade » du numérique, c’est l’aspect humain. Comment vous dire ! L’extraction des terres rares n’est pas faite par des salarié⋅es en CDI avec le droit du travail français, en gros ; la fabrication, pareil. Non ! Vive la mondialisation heureuse et, quand on est un fabricant de téléphones, on peut laisser libre cours à sa fantaisie : travail des enfants dans les mines, usines d’assemblage avec dortoirs sur place, couches-culottes, bouteilles à pisse, filets anti-suicide, et j’en passe. On est sur du crade crade !
Comme dans toutes les mécaniques bien huilées, il y a toujours un type pour venir mettre son grain de sable qui va tout faire capoter, en général un gugusse un peu illuminé qui va dire : « Euh, mais quand même, ce serait bien, de, je ne sais pas, traiter correctement les êtres humains ! ». Utopiste ! Le genre à vouloir faire du commerce « équitable ». Je te jure !, il y en a qui planent à 300 mètres.
Mais bon !, même dans le numérique on a des tentatives dans ce sens et la plus connue est sans doute le Fairphone, fair comme dans fairtrade, le fameux « commerce équitable ». Ce « téléphone équitable », donc, est commercialisé par la société du même nom, Fairphone, depuis janvier 2013.
Change is in your hand, c’est ainsi que nous accueille le site internet de la marque, « Le changement est entre vos mains ». Waouh ! Puis le site nous dit « des smartphones et des produits électroniques construits pour durer, bénéfiques pour les personnes et la planète ». Ça a l’air super !
Le tout dernier modèle, le Fairphone 5, est sorti il y a moins de trois semaines. On nous indique qu’il est conçu avec plus de 70 % de matériaux équitables ou recyclés, garanti cinq ans et facile à réparer, rien n’étant scellé à la colle comme sur beaucoup de téléphones.
Pour avoir été moi-même propriétaire d’un Fairphone, le Fairphone 2 en l’occurrence, je confirme que démonter son téléphone et séparer chaque pièce se fait avec un simple tournevis et le tout se remonte tout aussi facilement. Ce n’est pas pour rien que tous les modèles de Fairphone ont un score de réparabilité de 10/10 sur iFixit, un site qui documente la réparation de tout un tas d’appareils.
Tout cela est très chouette et heureusement qu’une boîte comme Fairphone existe pour nous montrer qu’on peut faire mieux et construire des objets technologiques sans reposer sur de l’esclavage moderne, même si, évidemment, il y a encore des progrès à faire !
Par contre, côté écologique, il y a quand même un truc qui me chiffonne. Je vous ai dit que le Fairphone existe depuis 2013 et que le Fairphone 5 vient de sortir. Faites le calcul, on est à un modèle tous les deux ans. Vous allez me dire que ça reste deux fois moins que l’iPhone d’Apple, mais on reste quand même dans ce dogme du nouveau matériel de très haute technologie, régulièrement reproduit en grandes quantités pour remplacer très vite l’ancien.
On me fera peut-être remarquer que Fairphone ne nous pousse pas à changer de téléphone puisque, comme je l’ai dit, les téléphones Fairphone sont remarquablement réparables. Mais pareil, ça a ses limites : quand j’ai dit que j’avais été moi-même propriétaire d’un Fairphone 2, je n’ai pas utilisé un verbe au passé par hasard. Il se trouve que mon Fairphone 2 s’est lentement, mais sûrement, dégradé, et que la question a fini par se poser : continuer à mettre des ronds pour le réparer ou bien prendre acte de son décès et passer à autre chose.
Le truc, c’est que pas mal de pièces de rechange avaient déjà commencé à être indisponibles sur le site de Fairphone depuis quelques années, et ils ont annoncé, cette année, l’arrêt du support logiciel du Fairphone 2, huit ans après sa sortie. Ce n’est pas mal, huit ans, c’est mieux que deux ans, mais ça reste, à mon sens, très insuffisant. Je trouve assez rageant de voir tant d’efforts déployés pour les Fairphone 3, 4 et maintenant 5, quand on aurait besoin de mettre des efforts dans la conservation et la consolidation des téléphones déjà construits.
Avec le recul, je me dis que le Fairphone est vraiment symptomatique de « l’écologie pour les riches ». Oui, parce que le Fairphone 5 coûte quand même 700 € ! Il faut déjà pouvoir les sortir !
Je parle d’écologie pour les riches, surtout parce que ça participe à cette idée qu’on va pouvoir continuer à tout faire comme avant, à surconsommer dans tous les sens, juste en payant nos gros joujoux technologiques plus cher pour les payer au juste coût écologique et humain. Évidemment c’est pratique, parce que quand tu as de la thune, ça ne t’inquiète pas plus que ça. Je le dis avec d’autant plus d’assurance que moi-même, quand j’ai acheté mon Fairphone 2, à l’époque à « seulement » 500 €, j’avais un salaire net de développeur de 3000 balles par mois. Alors oui, c’était confortable pour moi d’acheter un Fairphone et de me dire, dans un coin de ma tête « c’est bon, là j’ai fait le job ! ». Alors qu’en vrai, on a besoin de réduire drastiquement les émissions de CO2, sans même parler de la consommation des ressources non-renouvelables. Et pour ça, un nouveau téléphone tous les 2 ans, même équitable, même gentil, ça ne sera pas possible ! C’est comme la voiture électrique : c’est sympa pour donner bonne conscience à la minorité de la population qui pourra se la payer, mais si on doit remplacer toutes les bagnoles thermiques par de l’électrique, désolé ça ne passera pas à l’échelle !
C’est marrant, d’ailleurs, parce que ce côté « écologie pour les riches » versus « écologie pour les pauvres », je l’ai aussi expérimenté quand j’ai dû remplacer mon Fairphone 2. Bon !, je ne me considère pas comme pauvre, je n’ai pas mal d’épargne, mais maintenant je ne suis plus ingé à 3000 € par mois, mais auteur indépendant à plutôt 900 € par mois. Autant dire que foutre 500 € dans un téléphone neuf, même équitable, je ne le fais plus aussi facilement. Alors qu’est-ce que j’ai fait ? Eh bien j’ai pris du reconditionné. C’est du Huawei, pas du tout équitable ni que dalle, c’est de la daube à tous points de vue. Quelque part, je me dis qu’écologiquement ça a plus de sens de réutiliser quelque chose de déjà produit plutôt que de continuer à faire tourner la machine à construire de nouveaux trucs. Bien sûr, ça a ses limites : le reconditionné ne marche que parce que des gens ont acheté des trucs neufs avant, et, en général, quand ces mêmes gens reconditionnent leurs objets, c’est pour en racheter des neufs derrière.
N’empêche que pour avoir un vrai impact écologique et social, comme d’habitude, en définitive, ça ne peut pas venir de gestes isolés comme s’acheter un petit Fairphone pour se sentir bien dans ses pompes. Attention !, c’est très bien de vouloir se sentir bien dans ses pompes, à condition de ne pas surestimer l’impact global.
Le vrai impact écologique et social ne peut venir que d’une transformation du fonctionnement de l’économie où l’on minimiserait collectivement la production dans l’optique de tout faire durer beaucoup plus longtemps, un fonctionnement qui serait conditionné aux capacités écologiques et humaines et non plus dicté par le besoin de croissance infinie. Bref !, un fonctionnement qui ne serait plus… j’ai tenu TOUTE la chronique sans dire le mot, remarquez l’effort : capitaliste, voilà ! Désolé, c’est le mode de fonctionnement qui domine le monde. Au bout d’un moment, quand on creuse un peu, on y trouve la source d’un sacré paquet de problèmes.
Sur ce, je souhaite quand même du succès au Fairphone, parce que, vu la merde dans laquelle on est, on prend toutes les bonnes initiatives, on n’est pas en position de faire les difficiles ! Mais si vous avez le choix, faites durer vos appareils, achetez du reconditionné… et surtout saisissez les moyens de production, évidemment.
Allez, salut camarades !
Frédéric Couchet : Merci, camarade Gee.
En complément de ta chronique, je vais renvoyer les auditeurs et auditrices à l’émission 181, avec Agnès Crepet qui est responsable de l’équipe informatique et de la longévité logicielle chez Fairphone, dans laquelle elle a abordé un certain nombre des sujets que tu as évoqués au tout début de ta chronique. Vous allez sur libreavous.org#181, c’était la dernière émission de la saison précédente, le 4 juillet 2023.
En tout cas merci.
Je rappelle que Gee est auteur et dessinateur de bandes-dessinées. Son site c’est grisebouille.net et vous avez bien compris que vous pouvez soutenir son travail : il a besoin de sous. Il y a un petit bouton « Soutenir » sur grisebouille.net.
Merci Gee et à la prochaine.
Gee : Merci.
Frédéric Couchet : On va faire une pause musicale
[Virgule musicale]
Frédéric Couchet : Après la pause musicale nous parlerons de « Numérisation et justice sociale ».
En attendant nous allons écouter Revel par Shelby Merry. On se retrouve dans 3 minutes 30. Belle journée à l’écoute de Cause Commune, la voix des possibles.
Pause musicale : Revel par Shelby Merry.
Voix off : Cause Commune, 93.1.
Frédéric Couchet : Nous venons d’écouter Revel par Shelby Merry, disponible sous licence libre Creative Commons Partage dans les mêmes conditions, CC BY SA, un choix de mon collègue Étienne Gonnu.
[Jingle]
Frédéric Couchet : Nous allons passer sujet principal.
[Virgule musicale]
« Numérisation et justice sociale » avec Hubert Guillaud, journaliste, spécialiste des systèmes techniques et numériques
Frédéric Couchet : Nous allons poursuivre par notre sujet principal qui porte sur le thème « Numérisation » et justice sociale.
N’hésitez pas à participer à notre conversation au 09 72 51 55 46 ou sur le salon web dédié à l’émission, sur le site causecommune.fm, bouton « chat ».
Pour ce sujet, je vais laisser la parole à Laurent Costy, vice-président de l’April, et à notre invité Hubert Guillaud, journaliste, spécialiste des systèmes techniques et numériques.
Laurent Costy : Merci Fred.
Nous accueillons effectivement Hubert Guillaud. Il est journaliste. Il a animé pendant de nombreuses années le média de la Fondation Internet Nouvelle Génération, InternetActu.net. Spécialiste du numérique, il a publié en 2022 Coincés dans Zoom, un livre sur l’impact du télétravail, et il prépare un nouvel essai consacré à Parcoursup. Il travaille également à un nouveau média consacré aux enjeux du numérique sur la société, dans le droit fil, finalement, de 20 ans de vulgarisation sur ces sujets.
Est-ce que tu veux compléter ton parcours, s’il te plaît ?
Hubert Guillaud : Bonjour à tous. Non, il est très bien !
Laurent Costy : Du coup, on va rentrer directement dans le sujet. On a un peu préparé l’émission avec Hubert. Le premier point qu’on souhaitait aborder, parce qu’il est d’actualité, c’est toute la question des algorithmes, des intelligences artificielles qu’on devrait plutôt appeler intelligences augmentées, peut-être.
Un des arguments le plus souvent mis en avant jusqu’ici pour critiquer les pratiques de collecte massive de données de la part des grandes entreprises de la Big Tech était leur objectif de profiler les gens pour rendre la publicité plus efficace. Avec l’avènement des modèles de langage comme ChatGPT fin 2022, on est en droit de se demander si la collecte de données n’avait pas aussi comme objectif de préparer et de consolider les bases de données nécessaires à l’apprentissage de ces nouveaux outils. En effet, maîtriser de tels outils et être en avance sur les concurrents confère, on le voit bien, un pouvoir certain.
L’introduction est un peu lourde ! Selon toi, la focalisation, entre autres, des communautés libristes sur la lutte contre la collecte de données à des fins publicitaires a-t-elle empêché de voir ce qui se préparait du côté de ce qu’on appelle un peu trop globalement IA ? Autrement posée, cette question pourrait être aussi : comment se fait-il que tout cela a jailli fin 2022, alors que ce sont des travaux et des enjeux de société qui existent, finalement, depuis des années ?
Ça fait beaucoup de questions !
Hubert Guillaud : Oui, ça fait beaucoup de questions en même temps !
En fait, on a vraiment eu raison d’insister sur la question de la capture des données depuis le début, parce que c’est bien le problème.
Tu prenais l’exemple de la publicité et c’est effectivement un exemple vraiment marquant, parce que la publicité c’est le modèle économique, par défaut, du numérique. Depuis la naissance du Web, cette question du modèle économique est au cœur du problème. Grosso modo, toutes ces années, la fable qu’on a racontée aux investisseurs, c’est de leur dire « donnez-nous de l’argent pour qu’on se développe et, à un moment, on sera assez gros pour mettre de la pub et ça va rapporter de l’argent ». C’est ce que racontait très bien le chercheur Ethan Zuckerman, en 2014, « la publicité, c’est le modèle économique du numérique ; il est nécessaire de récolter toujours plus de données pour créer des annonces ciblées qui seront toujours plus efficaces. Si les revenus publicitaires sont insuffisants, il y a moyen de les améliorer, de construire un meilleur modèle publicitaire, plus adapté aux visiteurs, etc. », donc, par nature plus invasif, plus omniprésent, plus ciblé. La publicité, on le comprend, mène tout droit à la surveillance des utilisateurs, à une surveillance toujours plus intrusive.
Bruce Schneier, le grand spécialiste de la sécurité, dit exactement la même chose quand il dit que la surveillance c’est le modèle d’affaires de l’Internet et on est vraiment dessus. Le but c’est de vous faire cliquer, pas de vous faire réfléchir, ça favorise une sorte de centralisation pour atteindre des publics toujours plus larges. Et enfin, ça renforce la personnalisation dans une forme où chacun est très isolé.
Il y a 10 ans, quand Zuckerman commence ses propos sur la pub, il révèle qu’il a été l’un des inventeurs de la fenêtre pop-up. À l’époque il n‘était pas encore chercheur, il était développeur et c’est lui, entre autres, qui a mis au point cette petite fenêtre pop-up. Il s’en est excusé, il pensait, à cette époque, que la fenêtre pop-up était un moyen de rendre le Web plus accessible, alors que les gens ne savaient pas vraiment ce que c’était et ce que ça allait produire. C’était un moyen, pour lui, de permettre aux gens de pouvoir accéder au Web d’une manière gratuite, vu que la fenêtre pop-up c’est de la pub, vraiment.
Il raconte qu’il imagine que, passé ce premier modèle, on passerait à un modèle qui serait plus respectueux des données des utilisateurs, or ça n’a pas du tout été le cas, c’est même le contraire. On voit bien aujourd’hui que nous sommes de plus en plus contraints à devoir payer pour accéder aux services du Web, mais nous n’avons pas nos données personnelles plus respectées ou sanctuarisées. C’est la fameuse formule : si c’est gratuit c’est vous le produit et je rajoute tout le temps : si c’est payant, vous l’êtes toujours ; même quand c’est payant, on est toujours le produit, bien souvent.
Laurent Costy : Je distinguerais quand même deux gratuités. Il y a la gratuité des GAFAM, la pseudo-gratuité qui est effectivement néfaste et puis, souvent quand même, une gratuité sincère, chez les libristes, qui mettent à disposition des logiciels libres. J’aime bien essayer de séparer les deux. Ça amalgame tout de dire « si c’est gratuit c’est vous le produit », l’objectif c’était bien d’alerter sur cette problématique-là, mais il ne faut peut-être pas oublier la logique sincère, souvent, des logiciels libres.
Excuse-moi de t’avoir interrompu.
Hubert Guillaud : Je suis assez d’accord. Mais, derrière, c‘est la même sincérité que celle qu’exprimait Ethan Zuckerman, c’est-à-dire qu’on va rendre le Web accessible par cette formule-là. En fait, c’est peut-être une des limites, effectivement ça l’a rendu plus accessible, mais, derrière, s’y sont inscrites des logiques qui sont un peu plus problématiques.
La bannière pub est vraiment, je pense, le bon exemple. Quand elle naît en 1994, c’est simplement une image qui est posée sur le site web de Wired. On va calculer le nombre de gens qui vont cliquer sur cette image par rapport au nombre de gens qui se connectent sur cette page. À l’époque, le taux est faramineux, c’est 44 %, à peu près, de gens qui cliquent sur cette publicité. Aujourd’hui on n’est plus du tout dans ces taux-là, dans ces domaines-là, la publicité est devenue très envahissante, mais, en même temps, très peu productive économiquement parlant et, bien évidemment, ça pose des tas de problèmes.
Est née ici, pour moi, la surveillance même d’Internet. D’un coup, on pouvait mettre une bannière et on pouvait surveiller les gens qui allaient cliquer dessus. On s’est d’abord mis à surveiller le nombre de gens qui cliquaient dessus et, après, de plus en plus d’informations, typiquement depuis quel ordinateur ils se connectaient, quelle adresse IP, et on a continué à creuser ces informations : qui étaient les utilisateurs qui venaient, qu’est-ce qu’ils faisaient, d’où ils venaient précisément, etc. On voit bien que derrière cet affichage publicitaire est née et s’est creusée toute la surveillance dans laquelle est aujourd’hui coulé Internet.
Laurent Costy : On parlait de sincérité et de gratuité, ça me fait penser à une citation que j’ai retrouvée : j’ai retrouvé une citation de Larry Page et Sergey Brin, les cofondateurs de Google, qui, en 1998, disaient : « Les objectifs du modèle économique de la publicité ne correspondent pas systématiquement à une offre de qualité pour les utilisateurs de la recherche en ligne. Nous pensons que les moteurs de recherche financés par la publicité seront intrinsèquement biaisés en faveur des annonceurs et répondront moins bien aux besoins des consommateurs. »
Hubert Guillaud : Effectivement, tout à fait. Ce qui est amusant c’est de voir combien ils se sont éloignés de leur première mission, en tout cas de leurs premières convictions, vraiment !
Aujourd’hui la pub s’est vraiment transformée. À chaque fois que nous agissons sur Internet, nous sommes catégorisés, etc. Un exemple que j’aime bien donner c’est, par exemple, quand vous regardez sur Instagram ou Facebook, comment vous êtes caractérisé par cette publicité. Vous pouvez arriver à trouver, tout au fond de ces outils, les petits tags qui sont renseignés et qui sont censés vous caractériser. Or, ce n’est pas vous qui déclarez ces tags, ces moyens qu’on a de caractériser l’utilisateur ; ils sont calculés, ils sont inférés à partir de vos pratiques.
Typiquement, par exemple sur ma page, j’ai des trucs qui sont renseignés comme quoi j’aime le foot, et je n’aime pas du tout le foot en fait. Mais le système, parce qu’il a vu que je m’étais peut-être arrêté une demi-seconde sur une image de foot, parce que je connais quelqu’un qui aime le foot et que j’ai déjà répondu en commentaire à cette personne, va inférer les choses sur mon profil. Et tout le profil qui est constitué sur chacun d’entre nous est, en fait, complètement bidon. La plupart du temps, on est caractérisé par des tas de mots clés qui servent à servir la publicité et qui n’ont rien à voir avec la réalité. Au contraire, c’est même une invention complète, on n’est pas du tout dans des formes de réalité. Et ça pose des tas de problèmes : qui infère ? Que sont ces machines qui infèrent des choses sur nous sur lesquelles nous ne sommes pas vraiment au courant et qu’est-ce qu’elles produisent ? En fait, elles produisent des formes de désillusion, des hallucinations comme on dit aujourd’hui avec ChatGPT, mais elles sont déjà là, vraiment dans cette manière même dont on profile les gens.
Il y a des choses, il y a des données que ces systèmes ont : par exemple, la plupart du temps, ils ont votre âge ou votre sexe, mais ça ne les empêche pas d’en inférer plein d’autres. Sur votre propre profil, vous avez souvent votre âge qui est inscrit, donc la machine ou le système connaît votre âge, mais en même temps, dans ces tags, vous allez avoir des tas d’autres informations sur votre âge qui n’ont rien à voir avec votre âge réel, parce qu’elles vont être inférées depuis ce sur quoi vous avez cliqué, ce que vous êtes allé voir, etc. Par exemple, je peux avoir à la fois 20 ans sur certaines données, 50 sur d’autres, etc.
Laurent Costy : Si on doit expliquer le mot inférer aux auditeurs et auditrices ?
Hubert Guillaud : Inférer c’est vraiment calculer, faire du croisement de données, des données croisées ou imaginées à partir d’autres données. Le fait de passer un peu de temps ou de rester 30 secondes sur une image de match foot va vous faire catégoriser : d’un coup, hop !, vous allez devenir foot, vous allez avoir ce tag qui va vous être attribué. Ces systèmes recalculent en permanence des tas de données, inférant qui vous êtes, essayant de deviner qui vous êtes et ce que vous voulez faire.
Laurent Costy : C’est plus clair, je te remercie beaucoup.
Est-ce que, sur cette question-là, par rapport à la question publicitaire, tu estimes avoir répondu ? Je peux passer à une question suivante éventuellement ?
Hubert Guillaud : Bien sûr !
Laurent Costy : C’est extrêmement riche, c’est extrêmement dense, il faut aussi le digérer.
On voit bien, avec tes exemples, qu’on ne sait pas trop comment les algorithmes jouent leur jeu, finalement.
Toujours sur cette question des algorithmes, récemment, avec les « intelligences artificielles », entre guillemets, la question de l’ouverture de l’algorithme s’est posée et il y a eu pas mal de débats autour de cette ouverture. Peux-tu faire part un peu de tes réflexions sur ce sujet ? Tu as écrit deux articles sur le Framablog par rapport à cette ouverture du code pour dire, finalement, que ça ne suffit pas, ça ne suffit pas à appréhender comment ça fonctionne. Tu peux éventuellement nous en dire plus et, peut-être, prendre l’exemple du partage du code que la ville de Rotterdam a opéré par rapport à la distribution des aides sociales sur la ville. Je trouve que cet exemple permet vraiment de comprendre et d’appréhender ce qui se passe, ce qui se joue avec la question des algorithmes.
Hubert Guillaud : Je vais d’abord répondre sur la question de l’ouverture comme faux-semblant.
L’ouverture ou la transparence ou le fait que le code source soit disponible est, depuis l’origine, un moyen de dire qu’on sait ce que fait le code puisqu’il est ouvert et disponible, c’est le principe même de l’open source, on peut regarder. C’est ce que Lawrence Lessig affirme quand il dit Code Is Law, « le code c’est la loi », et le code permet effectivement d’accéder à la loi, en fait, donc de savoir exactement ce qui est calculé, etc.
Le vrai problème aujourd’hui, il me semble, c’est qu’on parle beaucoup de l’ouverture et de la transparence que je défends, je ne suis pas en train de dire qu’il faut passer à des formes d’opacité, c’est bien le contraire en fait, mais on nous dit que cette ouverture, cette transparence, sont les moyens de régler tous les problèmes. Or, c’est de moins en moins vrai, d’abord parce que le code est de plus en plus compliqué, complexe, il est imbriqué entre des tas de systèmes différents et, quand vous libérez quelque chose, en fait plein d’autres choses ne sont pas libérées. On l’a vu, par exemple, avec la libération du code de Twitter, par Twitter, en mars de cette année, si je ne me trompe pas. D’un coup, on allait avoir toutes les réponses sur le fonctionnement de Twitter. En fait, on n’a pas beaucoup de réponses, d’abord parce que Twitter n’a pas libéré tout le code, loin de là, il n’a libéré que certaines parties qui permettent d’avoir certains bouts d’informations, mais plein d’autres nous échappent et ça pose un vrai problème.
La réponse qu’on a tendance à donner c’est « il faut la transparence et la transparence suffira ». Cette transparence idéale ou idéelle serait effectivement formidable. J’ai de plus en plus tendance à dire que le problème c’est qu’elle devient de plus en plus difficile. Aujourd’hui, on est de plus en plus dans un système qui est non pas transparent mais qui est translucide. On a l’impression de voir ce qui se passe, mais, en fait, pas vraiment ! Et c’est très compliqué parce qu’on veut continuer à ce que cette transparence soit effective, on voudrait la pousser, on voudrait que les choses nous soient complètement lisibles, claires et déterminées et ce n’est pas le cas !
Pour moi la transparence ne suffit pas. On ne va pas pouvoir dire « je vais publier le code et ça va suffire », en fait il faut mettre la transparence au cœur et il faut commencer par elle. Si on veut vraiment rendre les choses transparentes, il faut commencer par la transparence et elle doit être le cœur de l’activité et de tout ce qui est publié autour. Or bien souvent, la transparence vient après : on publie le code et, derrière, ça va aller !
Laurent Costy : Condition nécessaire mais insuffisante.
Il me semble que j’avais aussi lu un souci dans l’article que tu avais écrit. Il y avait, outre effectivement le code, la question aussi de la base de données, sur quelle base de données on se base et sur les critères qui alimentent l’algorithme, sur les critères qui font que l’algorithme choisit telle ou telle chose. Finalement, ces critères-là sont sans cesse réajustés. Donc, on va analyser un algorithme à un instant t et puis, l’instant d’après, à priori, on peut avoir changé des paramètres.
Hubert Guillaud : Oui. Tout à fait. Quand Twitter publie son code, c’est un fichier statique. Le problème c’est que ces systèmes d’intelligence artificielle raffinent en permanence la manière dont ils proposent les choses, les ajustent en permanence ; en fait, ça change tout le temps. Au moment où Twitter publie son code, il est, en fait, déjà obsolète et les choses ont déjà changé.
Aujourd’hui, par exemple avec Twitter Blue, on sait que le fait de s’abonner à Twitter en payant va nous favoriser dans Twitter et va nous rendre plus visibles. La pondération serait de deux à quatre fois supérieure par rapport à ceux qui ne sont pas abonnés. On voit, en fait, que ça va certainement bien plus vite. Aujourd’hui, quand vous êtes encore sur Twitter, ce que je ne vous souhaite pas, mais qui, parfois, est encore un petit peu utile, vous ne voyez plus les gens auxquels vous êtes abonné et vous voyez de plus en plus ces comptes qui ont payé et qui viennent jusqu’à vous. C’est ce que Cory Doctorow appelle « la merdification » des réseaux sociaux : dans les réseaux sociaux on suit des gens, c’est à eux qu’on veut avoir accès, et ces systèmes algorithmiques les transforment complètement, tant et si bien que vous n’avez plus accès aux gens que vous suivez et vous avez deux tiers de pub et trois quarts de comptes de gens qui ont payé et qui vont vous sursolliciter.
Laurent Costy : Merci. Du coup, on peut reparler de Mastodon qui avait fait un peu parler de lui au moment du rachat de Twitter. C’est un système alternatif décentralisé, on ne peut que vous encourager à vous renseigner sur cette solution alternative.
Je continue sur les « intelligences artificielles », toujours entre guillemets, puisque, encore une fois, on pourrait débattre pendant des heures. Vas-y, je t’en prie.
Hubert Guillaud : Je voudrais qu’on parle de Rotterdam.
Laurent Costy : Ah oui, pardon. Excuse-moi, je t’en prie.
Hubert Guillaud : Je vais me permettre d’être un peu précis. Récemment, je pense que c’était en juin, Wired, encore une fois, avec des journalistes d’investigation néerlandais, a publié une grande enquête sur un système d’aide sociale. Ce système d’aide sociale est celui qui a été utilisé par la ville de Rotterdam pendant plusieurs années. À Rotterdam, quelque 30 000 personnes bénéficient d’aides sociales : des aides au logement, des aides pour payer des factures, pour acquérir de la nourriture, etc.
En 2017, la ville a déployé un nouveau système de lutte contre la fraude aux allocations, mis en place par Accenture, et le système génère un score de risque sur tous les bénéficiaires de l’aide sociale, selon des critères assez problématiques puisqu’il prend en compte l’âge, le sexe, la maîtrise du néerlandais.
En 2021, la ville de Rotterdam a suspendu ce système après avoir reçu un audit sur celui-ci, commandé par le gouvernement. Wired et Lighthouse Reports ont obtenu l’algorithme ainsi que les données d’entraînement et c’est assez rare en fait. La plupart du temps, sur tous ces vastes systèmes, on n’a pas les codes et on n’a pas non plus les données d’entraînement, or, là, ils ont pu avoir accès aux deux. Ça leur a donc permis de reconstruire le système et de le tester pour essayer de comprendre comment cette machine essaye de détecter la fraude.
Les journalistes disent que cette machine est avant tout une machine à soupçons. Ce qui apparaît à un travailleur social comme une vulnérabilité, comme une personne montrant des signes de faiblesse, est traité par la machine comme un motif de suspicion. Un truc vraiment hallucinant, ce sont les commentaires des travailleurs sociaux sur les dossiers : les travailleurs sociaux renseignent le dossier d’une personne, il y a un champ de commentaires sur lequel ils peuvent dire « cette personne est vraiment de bonne foi » ou « cette personne est vraiment de mauvaise foi » par exemple, j’exagère, je caricature. Le fait de mettre un commentaire, qu’il soit positif ou négatif, comme je viens de vous le dire, compte dans le système. En fait, c’est quand il n’y a pas de commentaire, que cette donnée est désactivée [quand le champ de commentaires est vide, il n’est pas pris en compte, NdT], mais que le commentaire soit positif ou négatif, ça impacte le système comme un critère de risque négatif.
Quand on regarde ce système dans le détail, ce qu’ont fait ces journalistes, il y a plein de choses comme, il y a quelque 315 variables pour essayer de calculer un score de risque, il y a des variables qui vont se substituer à l’ethnicité, notamment le fait qu’à Rotterdam les bénéficiaires de l’aide sociale doivent parler le néerlandais ou montrer qu’ils font des efforts pour y parvenir. L’indication de la langue maternelle ou le fait de vivre avec des colocataires peuvent également servir de substitution à ces calculs ; l’indication de la langue maternelle a été reconnue comme problématique par la Cour des comptes néerlandaise.
N’empêche que ces systèmes, tous, essayent d’inférer des choses, comme on le disait tout à l’heure.
On voit vite, dans tous ces critères, que certaines variables sont bien plus problématiques que d’autres et conduisent à des scores plus élevés. Par exemple, le fait que vous soyez une femme célibataire avec des enfants va être corrélé à un facteur de risque supplémentaire. Or, quand on demande à la ville de Rotterdam ou au système d’aide sociale : est-ce que vous avez plus de fraude chez les femmes seules avec des enfants, ou pas ?, ils sont incapables de répondre, mais c’est ce que le système va mettre en avant et c’est ce qu’il va regarder ; c’est là où il va pointer des problèmes à partir des données qu’il a apprises. Même chose sur les personnes d’origine étrangère, qui parlent des langues différentes. Il semblerait, par exemple, que le système arrive à calculer selon des tas de langues différentes : certaines langues seraient plus corrélées à un critère de risque que d’autres. C’est ce qui se passe quand on regarde vraiment le fonctionnement des systèmes dans le détail, ce qu’on ne fait pas assez.
Aujourd’hui des tas systèmes d’aide sociale sont développés partout. On a un très bon exemple d’un système d’aide à l’étranger, mais il y en a plein partout, on en a en France.
Il y a une dizaine d’années que la chercheuse Virginia Eubanks, qui a commencé ses travaux sur ces systèmes dans un livre formidable qui s’appelle Automating Inequality, « L’automatisation des inégalités », a montré que ces systèmes étaient partout défaillants. Et depuis, en fait, partout où ils sont développés, on voit qu’ils sont effectivement partout défaillants.
Laurent Costy : Merci. Du coup, est-ce que tu veux aussi parler un peu de la CAF en France.
Hubert Guillaud : Le problème, c’est que c’est difficile de parler de la CAF parce qu’on ne sait pas !
Laurent Costy : Il n’y a pas la transparence de la ville de Rotterdam.
Hubert Guillaud : Non, n’a pas encore la transparence de la ville de Rotterdam avec la CAF.
Laurent Costy : Il y a eu des demandes CADA [Commission d’accès aux documents administratifs], on en parlera en fin d’émission avec la petite intervention.
Hubert Guillaud : Il y a eu effectivement des demandes CADA pour accéder au système de calcul. Le système de calcul de score de risque de la CAF fait, en fait, la même chose que la ville de Rotterdam, certainement avec des techniques un petit peu différentes, mais il calcule également un score de risque de fraude de ses usagers dans l’un de ses systèmes : quand vous essayez d’obtenir des aides, votre profil est étudié.
Comment ont-ils fait ça ? Ils ont utilisé 5000 dossiers frauduleux et les ont fait analyser par des systèmes qui vont être capables de repérer. À partir de ces données générées, on va l’appliquer à tous les autres cas de la CAF pour essayer de regarder si d’autres dossiers peuvent être frauduleux. Dans ces formes d’analyses, on analyse toutes les données et plein posent problème.
Aujourd’hui, on ne sait pas exactement quels sont tous les critères qui sont mis en place par la CAF pour produire ces scores. Il y a effectivement eu des demandes CADA, des demandes de documents administratifs, notamment par La Quadrature du Net, pour accéder au code et au système de scoring des gens.
Une autre association, très en force sur ce sujet, c’est la petite association Changer de cap, qui a fait un rapport vraiment absolument excellent sur ces questions, montrant les difficultés dans lesquelles étaient les gens par rapport à ces systèmes de scoring. Malgré tout, pour l’instant, on ne sait pas grand-chose de ces systèmes de scoring, parce que le code n’est toujours pas public. Ce qu’a reçu La Quadrature ce sont, en fait, de vieilles versions du système de la CAF, la CAF se justifiant en disant « on peut pas vous donner accès à la version actuelle parce que les gens vont pouvoir contourner » !
Laurent Costy : Les gens vont pouvoir s’en servir pour contourner le système !
Hubert Guillaud : Or, les gens qui sont dans des difficultés vont avoir du mal à aller le contourner !
Pour prendre un exemple, le système a identifié que le fait de se connecter à son espace CAF plus d’une fois par mois était problématique. Bien évidemment ! Quand vous analysez toutes les données, le système va trouver des tas d’inférences, des tas de problèmes. Or, le fait de se connecter plusieurs fois par mois à son espace CAF, c’est souvent parce qu’on a un problème d’argent qui ne vient pas, qu’on attend un versement qui n’arrive pas. On se retrouve avec des tas de critères ! L’enjeu c’est d’interroger les critères qui sont mis en place : est-ce que ces critères sont juste ? Est-ce qu’on a droit de les prendre en compte ? Comment sont-ils pondérés par rapport à d’autres ? Etc. Pour l’instant, ce que fait la CAF est un petit peu nébuleux.
Les chercheurs dans le domaine, comme Vincent Dubois, disent qu’on est dans un système où, en fait, les plus pauvres sont les plus surveillés, d’une manière assez logique. Pour la plupart des gens, il n’y a pas de problème, ils ont un salaire en fin de mois, les choses sont très régulières, etc. Le problème se pose dès que vous sortez de ces formes de régularité, dès que vous n’avez plus de salaire tous les mois, que vous avez des salaires variables toutes les semaines, etc., tout cela génère automatiquement de la donnée, des alertes, de la surveillance, « il n’a pas un profil normal », etc. On voit bien que plus vous êtes dans des systèmes qui sont un petit peu difficiles — le RSA, par exemple, ce sont des contrôles tous les trois mois et non pas une fois par an comme d’autres —, plus vous allez avoir tendance à calculer des données, donc des erreurs qui sont considérées, trop souvent, comme des fraudes et qui vont être problématiques.
Laurent Costy : Merci. Du coup, l’histoire de la CAF sera à suivre, peut-être que tu reviendras dans quelques mois.
Je vais repasser la parole à Fred pour la pause musicale.
Frédéric Couchet : Merci Laurent. Merci Hubert.
Nous allons écouter Trébor par Ciboulette Cie, un choix, excellent d’ailleurs, de Laurent Costy. On se retrouve dans 2 minutes 30. Belle journée à l’écoute de Cause Commune, la voix des possibles.
Pause musicale : Trébor par Ciboulette Cie.
Voix off : Cause Commune, 93.1.
Frédéric Couchet : Nous venons d’écouter Trébor par Ciboulette Cie, disponible sous licence libre Creative Commons Attribution, CC BY 3.0.
[Jingle]
Frédéric Couchet : Nous allons poursuivre le sujet principal qui porte sur le thème de la numérisation et justice sociale avec Laurent Costy, vice-président de l’April, et notre invité Hubert Guillaud, journaliste, spécialiste des systèmes techniques et numériques.
Laurent Costy : Merci Fred.
On va continuer. On parlait d’intelligence artificielle ou intelligence augmentée, ce qui serait sans doute un terme plus adapté. On a vu, quand même, une espèce de peur panique vis-à-vis de l’IA quand elle a débarqué fin 2022. Première question : est-ce que cette peur est justifiée selon toi ? Et puis, est-ce que ce n’est pas aussi parce que, pour la première fois dans le monde du travail, les professions intellectuelles se sentiraient un peu menacées, alors que pour une fois les ouvriers, le travail manuel, seraient peut-être moins impacté par cette, entre guillemets, « invention » ? Et puis, en complément, si tu peux expliciter aussi la tendance que l’IA a à nous cantonner, finalement, à des logiques de superviseur, j’ai lu ça dans un des articles que tu as écrits, je pourrais le citer, on le mentionnera sur la page de l’émission, bien sûr. J’ai trouvé cette notion de superviseur extrêmement intéressante, parce qu’elle illustre bien ce que peut aussi provoquer l’arrivée de l’IA.
Hubert Guillaud : Cette grande peur, à laquelle on est confronté aujourd’hui, se cristallise certainement parce qu’elle adresse d’autres types de professions que ceux d’avant, une menace qui est plus sur les CSP, CSP + que les CSP -, je pense que c’est effectivement assez juste. Je suis quand même un peu hermétique aux discours rassuristes qui visent à nous faire croire qu’il ne faut pas s’inquiéter, que l’enjeu n’est pas la disparition de l’emploi, mais sa transformation, etc. Depuis le début de l’industrialisation, le but est quand même d’essayer de remplacer des gens par des machines, soi-disant parce que ça va coûter moins cher. Ce n’est pas tout le temps le cas, mais, malgré tout, ça le devient petit à petit. On voit bien que dans les grandes usines de Ford, avec des milliers, des centaines de milliers d’ouvriers, on est passé à des usines de Stellantis où il y a plus grand monde sur les chaînes productives.
Laurent Costy : On pourrait glisser le mot capitalisme ici, entre deux phrases !
Hubert Guillaud : On peut le glisser partout, ça n’est pas un souci !
Il y a quand même bien un but du jeu : essayer de nous remplacer ou essayer de voir si les machines ne peuvent pas faire le travail à notre place pour moins cher que nous, sans se mettre en grève en plus, etc.
La vérité c’est que ça marche pas si bien que ça, que souvent les machines défaillent et qu’il faut faire autrement d’où le fait, comme le dit Antonio Casilli, qu’il faille aller voir des petites mains à Madagascar pour faire de l’IA, taguer des images, taguer des propos et permette justement à ces inférences, dont nous parlions tout à l’heure, de pouvoir être rendues productives.
Je suis assez d’accord avec ce que dit le sociologue Juan Sebastián Carbonell dans son petit livre Le Futur du travail paru en 2022 : c’est plus qu’un grand remplacement par les machines ; ce qui nous attend, malgré tout, c’est notre prolétarisation par les machines. L’avenir du travail ressemble bien plus à un monde désintégré qu’intégré, à une offre de micro-entrepreneur sans salaire minimum ni protection. En fait, le futur du travail ressemble bien plus à son passé, dit-il, en nous invitant à ne jamais abandonner la lutte sociale.
Je pense que c’est un petit peu ça le risque de l’IA, c’est d’être de plus en plus des contrôleurs, des superviseurs de ce qui se passe plutôt que des créateurs. Danah Boyd disait récemment, dans un article que j’avais trouvé plutôt éclairant, que le problème c’est qu’on va être confronté à ça dans ces nouvelles interfaces. Par exemple, ce que vous devez faire dans ChatGPT, c’est contrôler ce que produit le robot et non plus produire vous-même, c’est à vous de contrôler ce qu’il fait, de regarder si les termes sont bien, etc. Et cette demande n’est pas si simple, au contraire, elle est certainement encore plus compliquée qu’avant, mais elle vous place dans un poste qui n’est pas celui de produire des idées pour produire des idées, de produire des propos pour produire des propos, mais, justement, de les contrôler et ce contrôle demande des formes d’expertise assez élevées, qui ne s’acquièrent pas très facilement. Le problème, quand nous sommes remplacés par ces systèmes, c’est comment on acquiert cette expertise.
Je pense que là on a aussi un autre problème, toujours cette déqualification et cette prolétarisation en cours : pour arriver à savoir ou à comprendre comment ça fonctionne, jusqu’à présent il fallait produire des tas de choses, du texte, de la réflexion, etc., et là, d’un coup, le système produit ses propres textes, mais vous devez les corriger et être très attentif à ce qu’il produit. Bien évidemment, ce n’est pas facile, ce n’est pas très simple. Je pense qu’il y a là une vraie difficulté : ces systèmes vont à la fois demander plus d’expertise sur ce qu’ils font et cette expertise va être aussi plus dévaluée ou dévalorisante parce que vous n’êtes plus que le contrôleur de la machine. Avant, quand vous preniez un traducteur pour traduire un livre, vous payiez une personne qui est là pour traduire le livre du début à la fin, avec son expertise, etc. Aujourd’hui, on va payer ce même traducteur un peu moins cher, parce qu’il faut juste qu’il supervise la traduction qui a été faite. C’est là où le système arrive à faire des économies, mais derrière, notre expertise est, d’une certaine manière, déqualifiée et déqualifiante. Bien évidemment, ça renforce des risques de polarisation très forte entre des super traducteurs qui vont continuer à pouvoir traduire exactement comme ils veulent et la masse générale des gens qui vont venir superviser ces traductions.
Je pense que le risque de ces systèmes c’est une forme d’augmentation de la déqualification et de la prolétarisation des gens, que ce soit ceux qui génèrent des images ou ceux qui surveillent les textes de ChatGPT.
Ça n’empêche pas qu’il restera toujours des gens qui vont produire, faire de la pensée ou des grandes images, mais ils risquent, en fait, d’être encore plus restreints qu’avant.
Laurent Costy : Là tu parles, finalement, de productions intellectuelles, mais je crois que tu avais pris l’exemple, dans un article, d’un film qui avait été fait sur un pilote d’avion qui était un vétéran de l’armée de l’air et qui était capable, en situation d’urgence, de reprendre la main sur les machines. Or, en étant superviseur ?
Hubert Guillaud : C’est le fameux le film de Clint Eastwood qui s’appelle Sully, si je ne me trompe pas. C’est l’histoire de ce pilote d’avion qui a posé un avion dans l’Hudson.
Les pilotes d’avion sont confrontés à ces systèmes machiniques depuis un grand moment. En fait, ils montent dans un avion et, grosso modo, l’avion se pilote tout seul, ils n’ont rien à faire, ils ont juste à reprendre la main quand il y a un problème. Le problème c’est que, comme ils ne pilotent pas vraiment, ils sont juste là à superviser, ils perdent de la compétence à pouvoir résoudre un problème ou à pouvoir reprendre la main quand il y a un problème et cette perte de compétences est très problématique. C’est pour cela qu’on les enferme dans des caissons où ils doivent s’entraîner sans arrêt pour arriver à reprendre la main. On voit que petit à petit leurs compétences se dégradent, ils ont du mal à reprendre la main.
Ce qui est arrivé dans cette histoire de l’Hudson, c’est que le gars qui était pilote d’avion est justement un expert, un super expert, il formait les autres pilotes à reprendre la main, c’était sa spécialité. Il était là pour dire aux gens « voilà ce qu’il faut faire quand il faut reprendre la main, etc. ».
Là, quand l’avion a commencé à avoir des problèmes, la tour de contrôle, les systèmes lui disaient : « Il faut que tu retournes à la base, il faut que tu retournes à l’aéroport, etc. ». Et lui, qui avait la compétence de pouvoir dépasser l’analyse que le système lui fournissait et tous les conseils qu’il recevait, il savait que ce n’était pas possible. Il a fait un choix que la tour de contrôle lui déconseillait et que plein d’autres pilotes n’auraient pas pu faire, il a dit « je vais le poser sur l’Hudson, c’est le seul endroit qui est dégagé, etc. ». C’est ce qu’il a fait, les gens sont sortis, ont pu être sauvés. Il l’a fait parce qu’il avait une énorme compétence, une énorme expertise là-dessus, ce qu’il n’aurait pas pu faire autrement.
C’est cela le risque de ces systèmes : ils nous enlèvent nos expertises et ils nous empêchent, demain, de pouvoir être plus réactifs.
Vous avez la même chose sur la voiture autonome qui se conduit toute seule et, quand il faut reprendre la main parce qu’il y a un problème, c’est souvent là que le problème se déclenche encore plus !
Laurent Costy : Merci. Je pense que cet exemple illustre bien, justement, ce vers quoi on peut tendre, outre, effectivement, ce dont tu parlais, à savoir la déqualification et la perspective, pas forcément très rose, de l’avenir du monde du travail. En tout cas merci, je trouve que ça éclaire.
Je te propose d’essayer d’aborder un peu la question de l’alternumérisme. J’avais préparé quelques questions, on va essayer d’échanger parce que je trouve que ça peut concerner un peu les communautés libristes.
C’est vrai que longtemps, à leurs débuts, les communautés libristes ont laissé penser, en tout cas ça a été perçu comme tel, que le logiciel libre était LA solution à tous les soucis que le numérique privateur avait générés et que c’était la voie incontournable pour aller vers un numérique plus éthique. Les quatre libertés du logiciel libre devaient, en effet, permettre de limiter les monopoles, de libérer les utilisateurs et utilisatrices. Avec les années et la sagesse, le logiciel libre est désormais plutôt posé comme condition nécessaire, mais non suffisante, ce qu’on évoquait tout à l’heure.
Est-ce que tu partages un peu ce regard, on l’a déjà un petit peu évoqué tout à l’heure, et, le cas échéant, qu’est-ce qui manque au logiciel libre, et à ses communautés, pour être connu, reconnu, et adopté plus largement selon toi ?
Hubert Guillaud : Question difficile !
Cette question, qu’on peut poser comme l’alternumérisme, s’inspire d’un livre, je pense qu’il faut qu’on le signale, je vous invite à le lire. C’est un livre qui m’a marqué, qui s’appelle Contre l’alternumérisme, publié en 2020 à La Lenteur, signé Julia Laïnae et Nicolas Alep. C’est un petit livre qui a été réédité il y a peu de temps, vous allez pouvoir le trouver assez facilement.
La question centrale de ce livre c’est de dire que face à la technologie, le but c’est d’être plus radical qu’on ne le croit, on ne la fera pas devenir plus respectueuse des gens en proposant des formes d’alternatives qui sont d’être plus éthiques, d’être plus responsables, d’être plus transparentes, ça ne suffira pas à la rendre plus vertueuse. Je caricature un peu le propos.
Laurent Costy : Je peux prendre deux citations que j’avais relevées, qui montrent bien à quel point il y a, effectivement, peu d’espoir selon les personnes qui ont écrit ce livre-là. J’avais noté : « Se réapproprier l’usage des dispositifs numériques en bout de chaîne ne change rien à l’ensemble du système technicien », c’est ce que tu viens de dire, ou, autre citation, « Comme l’ont pointé nombre d’alternuméristes, nous passons bien souvent plus de temps à combattre les limites et promesses du numérique qu’à faire avancer une autre feuille de route pour le numérique. »
Hubert Guillaud : C’est là où je suis un peu en décalage avec eux. Eux sont contre toute forme d’altérité, en tout cas d’alternatives. Je pense quand même qu’aujourd’hui, ce dont on souffre, c’est justement le manque d’alternatives et le manque d’autres solutions, je suis peut-être un peu moins radical qu’eux là-dessus, mais on en souffre vraiment énormément et je pense que c’est un gros problème.
Tout à l’heure, nous avons parlé de la publicité et de la manière dont on est calculé par la publicité qui se nourrit de nos données pour nous proposer toujours plus de ciblage, d’affichage, de clics, etc. Or, il y a d’autres modalités de faire de la publicité. L’une des autres modalités de faire de la publicité, par exemple, c’est de faire de la publicité contextuelle. L’idée de la publicité contextuelle, c’est de dire que la publicité va s’afficher en fonction de l’endroit où vous êtes : par exemple, vous êtes sur un article qui parle d’automobiles, elle ne va pas utiliser les données des utilisateurs pour calculer les choses, mais elle va utiliser ce qui est dans la page pour mettre de la publicité adaptée. C’est ce que vous aviez dans la presse avant : dans les pages beauté vous aviez la publicité pour le mascara et, dans les pages vêtements, vous aviez la publicité pour les fringues. C’est un peu la même idée. On voit qu’il y a d’autres modalités.
Je pense qu’aujourd’hui on souffre énormément du fait qu’on n’a pas d’autres modalités que ces grands systèmes qui se sont petit à petit complexifiés, qui fonctionnent et qui s’imposent à nous de partout.
J’ai quand même tendance à me dire qu’il y a des tas de moyens de faire autrement. Le problème c’est d’être coincé dans des systèmes qui sont globaux, qui influent sur notre vision du monde et sur la manière dont on pense.
Un exemple tout simple : le système de calcul de la récidive dans le droit américain pour calculer le score de risque des gens à récidiver qui fait qu’on va les maintenir en prison ou pas. Ce sont aujourd’hui des systèmes automatisés avec des tas de questions qui fonctionnent et qui reposent sur le fait qu’on va faire des calculs, depuis les données personnelles des individus condamnés, pour savoir s’ils ont un risque de récidive. Or, on pourrait imaginer des tas de systèmes complètement différents. Il y en a, d’ailleurs, qui vont plutôt proposer, par exemple au juge, de regarder, pour un profil du même type, voilà tous les autres cas qui ont été jugés de telle ou telle façon pour pouvoir adapter son jugement.
On voit qu’il y a toujours des alternatives et aujourd’hui, dans le numérique dans lequel on est, il n’y a pas d’alternatives. Je pense qu’on en souffre vraiment profondément et on a besoin de mettre en place d’autres systèmes.
On a la même chose avec la CAF, avec Rotterdam dont on parlait tout à l’heure, on est dans des systèmes un peu à pensée unique, qui fonctionnent tous d’une même façon. On a besoin de les casser et de faire d’autres types de propositions.
Je pense qu’aujourd’hui on a vraiment besoin des libristes pour faire d’autres types de propositions, mais il faut effectivement sortir des logiques dans lesquelles nous sommes et les proposer autrement, en mettant la transparence, la liberté, l’égalité, la justice sociale au cœur de ces systèmes. Aujourd’hui on n’y est pas !
Laurent Costy : Très belle phrase. Merci. On saura l’extraire des propos de l’émission.
Il ne nous reste plus beaucoup de temps, il nous reste moins de huit minutes. Je vais te poser une dernière question sur le monde libriste et la relation aux low-tech et puis je te laisserai conclure éventuellement.
Le monde libriste et les low-tech ont de bonnes raisons de s’entendre. Ces raisons sont-elles suffisantes, selon toi, pour servir la cause libriste et la cause écologiste ?
Hubert Guillaud : On peut l’espérer !
Les low-tech, si je résume rapidement, c’est l’histoire de dire qu’il y a une alternative aux high-tech, à ces grands systèmes, c’est faire des systèmes peu gourmands en données, peu gourmands en formes de calculs, peu gourmands en matériel, etc. On voit que c’est une vraie piste qui est à l’antipode de tout ce qui se développe aujourd’hui. On en est très loin. La grande difficulté c’est de se demander si ce sont des vraies réponses ou si ce sont des réponses qui ne peuvent rester que marginales. C’est une question sur laquelle je n’arrive pas vraiment à me décider. J’ai quand même l’impression, j’aurais tendance à dire qu’on est dans des propositions qui risquent de s’enfermer dans leur marginalité par rapport à ces grands systèmes qui se développent partout. Je pense que c’est vraiment important, effectivement, de développer des alternatives qui soient plus responsables, plus équitables, plus soucieuses de ce qu’elles font. Le risque c’est qu’elles soient vraiment trop éloignées des grandes réponses qui sont fournies aujourd’hui, donc pas appropriées ou appropriables.
Laurent Costy : Très bien. Du coup, dans ce qui pourrait servir de conclusion, nous évoquer peut-être la voie des communs et du collectif ? J’avais relevé plein de citations que je trouvais assez extraordinaires, je vais en prendre une : « Plus on traite les choses sous un angle individuel, moins on traite le problème sous un angle collectif ». On n’a pas parlé des réseaux sociaux, on n’a pas eu le temps, mais c’est vrai que leur objectif c’est de diviser, de séparer, d’individualiser, alors que, finalement, notre seule issue, quelque part, c’est le commun.
Hubert Guillaud : Bien sûr. Le problème c’est qu’on est dans des systèmes techniques qui vous individualisent par nature : c’est vous qui êtes le seul utilisateur face à ces systèmes, c’est vous qui êtes calculé, vous, individuellement, qui êtes toujours calculé. Ce qu’on calcule aujourd’hui dans les systèmes au travail, c’est la performance, la rentabilité des gens, d’une manière totalement individuelle. On se contrefout, on se moque largement du collectif de travail, de l’entreprise en tant que telle. On va regarder l’employé, on va calculer quelque chose sur ce qu’il fait, ce qu’il produit, ce qu’il propose, etc., et on ne va pas regarder, on ne va pas faire de calculs sur ce que l’entreprise propose, ce que le groupe d’individus fait et gère.
Dans ces systèmes on est toujours renvoyé à cette individualité et je pense que c’est vraiment quelque chose à essayer de casser : faire des systèmes qui ne reposent pas sur le calcul personnel de chacun, mais qui essayent de prendre en considération l’ensemble du système .
Un exemple que j’aime bien là-dessus c’est le Parcoursup américain, c’est très différent. Aux États-Unis, chaque ville fonctionne un peu de la même manière. Par exemple à New-York, les élèves qui veulent passer dans le supérieur doivent passer des tests SAT [Scholastic Assesment Test] pour évaluer, un peu comme chez nous, leur niveau. Depuis ce niveau, chaque formation, un peu comme chez nous, va recruter, va avoir tendance à recruter les meilleurs élèves et pas et les moins bons, chacun fait son petit marché méritocratique comme ça.
Pour combattre les formes de discrimination qui sont à l’œuvre dans ces systèmes, les formes non-méritocratiques qui sont dedans, des collectifs étudiants américains proposent aujourd’hui aux formations, plutôt que de prendre que les meilleurs élèves, de prendre les élèves selon une échelle de ceux qui répondent à ces formations. Prendre les meilleurs, bien sûr, mais prendre aussi des moins bons et distribuer la chose plutôt que l’individualiser.
Il y a, comme ça, des tas de pistes. Le problème c’est de faire advenir ces différences et ces autres pistes.
Laurent Costy : Il reste deux/trois minutes, je te laisse conclure, dire les choses que tu aurais oubliées de dire et que qui te semblent extrêmement importantes.
Hubert Guillaud : Il y en a plein.
Je pense qu’on a besoin de travailler ensemble, en fait c’est ça que j’aimerais un petit peu mettre en avant.
Aujourd’hui, les entreprises fourbissent des solutions toutes seules dans leur coin, les systèmes techniques publics achètent les solutions de ces entreprises. La difficulté c’est qu’on ne répond pas collectivement à ce qui se passe et tout est fait pour qu’on n’y réponde pas collectivement.
Je pense que dans les grands systèmes techniques, comme la CAF, comme Parcoursup, il devrait y avoir la représentation des gens qui sont impactés par ces systèmes. Pour contrôler le système de scoring de la CAF, on devrait associer des usagers, des associations qui viendraient discuter avec la CAF avec un droit et un pouvoir, c’est ça la difficulté, pour pouvoir dire : « Non ! Là, par exemple, ce n’est pas normal que vous preniez en compte le nombre de fois où les personnes se connectent à leur compte pour faire votre calcul ». On a besoin de faire cette remontée avec les gens qui sont impactés par les systèmes de calcul, c’est ce que disent depuis longtemps les associations de handicap : « Pas pour nous sans nous ». Vous ne pouvez pas décider de ce qui nous impacte sans nous y associer, on doit être là.
Je pense qu’aujourd’hui, dans tous les grands systèmes techniques de calcul qui se mettent en place, on a besoin d’y associer les utilisateurs.
Parcoursup a un comité d’éthique qui fait, d’ailleurs, un très bon travail, mais, dans ce comité d’éthique, il n’y a pas de représentants des étudiants, des professeurs, etc., et il y a besoin de ça. Il y a besoin que toutes les remontées qu’il peut y avoir autour des problématiques de Parcoursup soient entendues.
Pour moi c’est un vrai levier de faire que, dans tous les grands systèmes, les gens aient une place, une place à cette table pour en discuter.
Laurent Costy : Je vais quand même reprendre une citation que j’avais relevée avant de repasser la parole à Fred : « Trop souvent, la prospective n’invite pas les bonnes personnes à sa table ».
Hubert Guillaud : C’est ça, tout à fait. On fait de la réflexion, on fait de l’expertise entre nous. On a vraiment besoin d’y associer les utilisateurs et les gens qui sont impactés par les calculs. Ma grande formule c’est de dire qu’on ne peut pas calculer les choses sans inviter les calculés à la table.
Laurent Costy : Merci beaucoup Hubert, on va en rester là aujourd’hui. Il y avait encore plein de choses à dire, on te réinvitera, si tu es d’accord.
Hubert Guillaud : Je reviens la semaine prochaine !
Frédéric Couchet : C’était justement la question de Marie-Odile : « Excellentes idées. Excellent intervenant. Quand reviendra-t-il ? ». Pas la semaine prochaine parce que l’émission est déjà prévue, mais bientôt.
En tout cas, je remercie Laurent Costy, vice-président de l’April, pour la préparation et l’animation de ce sujet et notre invité Hubert Guillaud, journaliste spécialiste des systèmes techniques et numériques. Toutes les références qu’on a citées sont sur le site libreavous.org.
Je vous souhaite une belle fin de journée.
On va faire une pause musicale.
[Virgule musicale]
Frédéric Couchet : Après la pause musicale, nous entendrons la chronique de Xavier Berne « Découvrez le droit d’accès aux documents administratifs ».
En attendant nous allons écouter Late as usual par The Freak Fandango Orchestra. On se retrouve dans 3 minutes 30. Belle journée à l’écoute de Cause Commune, la voix des possibles.
Pause musicale : Late as usual par The Freak Fandango Orchestra.
Voix off : Cause Commune, 93.1.
Frédéric Couchet : Nous venons d’écouter Late as usual par The Freak Fandango Orchestra, disponible sous licence libre Creative Commons Partage dans les mêmes conditions, CC BY SA.
[Jingle]
Frédéric Couchet : Nous allons poursuivre par le sujet suivant.
[Virgule musicale]
Chronique de Xavier Berne « Ma Dada » - « Découvrez le droit d’accès aux documents administratifs »
Frédéric Couchet : Nous allons poursuivre avec une nouvelle chronique, mais pas un nouveau chroniqueur. En effet, le chroniqueur était déjà présent dans l’émission en 2019 et 2020, dans une chronique où il nous parlait de l’actualité juridique et politique du numérique. À l’époque il était journaliste à Next INpact.
Xavier Berne revient et c’est un grand plaisir. Ancien journaliste et actuel délégué général de la plateforme associative Ma Dada, il vous explique comment faire valoir vos droits à la transparence sur les documents publics – contrats de marchés publics, codes sources, notes de frais, statistiques, etc. Le thème de la première chronique : découvrez le droit d’accès aux documents administratifs.
[Virgule sonore
Xavier Berne : Bonjour à toutes et tous.
Je suis Xavier Berne, je suis aujourd’hui le délégué général de Ma Dada qui est une plateforme associative et citoyenne. J’ai été journaliste pendant plusieurs années et c’est notamment là que j’ai découvert ce sujet de la transparence et du droit d’accès aux documents administratifs qui est, pour moi, un vrai levier pour le droit de savoir et pour le droit à l’information.
Je vais donc vous parler, aujourd’hui, de droit d’accès aux documents administratifs. Ne prenez pas peur, je sais que ces mots peuvent paraître un peu pompeux, mais en fait, derrière, il y a quelque chose qui, je pense, va beaucoup vous intéresser.
Très peu de gens le savent, mais en France, depuis 1978, on a la chance d’avoir une loi, qui s’appelle la loi CADA, qui permet à n’importe quelle personne d’aller demander des documents publics aux administrations, administrations au sens large : les ministères, le gouvernement, mais aussi les mairies, les départements, les régions et, plus largement, toutes les personnes qui sont chargées d’une mission de service public, comme des associations qui gèrent des cantines scolaires, ou même des entreprises comme la SNCF ou La Poste.
C’est quelque chose qui est gratuit et il n’y a pas besoin, non plus, de donner de justification particulière sur la raison pour laquelle on veut obtenir tel ou tel document.
Une fois qu’on a dit ça, vous allez me dire « OK, c’est sympa, ça a l’air joli, mais concrètement, à quoi ça va me servir ? ». Ça peut servir à vraiment plein de choses, sous réserve, bien entendu, qu’il y ait des sujets qui vous intéressent un petit peu, des causes qui vous animent.
On va commencer sur des choses qui, potentiellement, sont très anecdotiques, je sais qu’il y en a qui ont demandé, par exemple, les menus qui ont été servis à l’Élysée lors de réceptions par le président. Ça peut paraître assez simple, mais, si on reste sur ce sujet des menus, on peut aller rapidement sur des choses bien moins anecdotiques. Vous pouvez, par exemple, aller demander les menus des cantines scolaires, pourquoi pas, sur une longue période afin de vérifier à quelle fréquence les enfants mangent plutôt des brocolis à la place de frites. Si vous êtes une association, par exemple, qui plaide pour une consommation raisonnée de viande rouge, demander tous ces menus vous permettrait d’avoir des données chiffrées sur les produits qui sont proposés aux enfants et ainsi de suite. On peut dérouler encore un petit peu la pelote de laine et, que ce soit à l’Élysée ou dans les cantines scolaires, vous pouvez aussi demander toutes les factures qui ont été payées au titre des achats de produits. Et, s’il s’agit de marchés publics, alors là, carrément, vous avez le droit de connaître toutes les exigences qui ont éventuellement été posées par l’administration : s’il y a eu une demande pour des produits bio, végétariens, quelles offres ont été reçues, pour quels prix, comment elles ont été sélectionnées. On voit bien que de la question anecdotique de ce qu’ont pu manger Emmanuel Macron et ses homologues, on peut rapidement basculer sur des enjeux de santé, voire carrément d’environnement, même des enjeux de finances publiques.
Je prends un petit peu temps, c’est ma première chronique sur ce sujet, mais j’avais envie de vous expliquer ce qu’est le droit d’accès pour vous montrer que c’est une vraie mine d’or, notamment pour les journalistes, les chercheurs, mais aussi, un petit peu, pour des personnes que je qualifierais d’activistes, notamment celles qui œuvrent dans le milieu associatif.
J’espère que la question que vous vous posez tous maintenant c’est « OK, mais alors comment est-ce que je fais ça ? », parce qu’en pratique c’est quand même extrêmement simple.
Vous pouvez envoyer une demande par mail, par courrier tout simplement, il n’y a pas forcément besoin de faire de recommandé, il n’y a pas de forme particulière autre que celle de l’usage commun. Si vous voulez vous simplifier la vie, je vous invite même à utiliser notre plateforme associative et citoyenne, Ma Dada, vraiment comme ça se prononce. On vous prend vraiment par la main et on vous propose de sélectionner l’administration à laquelle vous souhaitez envoyer votre demande et après on vous renvoie vers un formulaire de demande qui est pré-rempli, vous avez juste à préciser le ou les documents que vous souhaitez obtenir, vous cliquez sur « Envoyer » et on s’occupe du reste pour vous.
L’objet de ce premier tuto, j’y viens, c’est savoir comment a été prise une décision publique grâce au droit d’accès aux documents administratifs.
Des centaines de décisions publiques sont prises chaque jour, ça va de la plus importante, quand il a été question d’arrêter, d’abandonner, le projet de l’aéroport Notre-Dame-des-Landes, à des projets un peu plus intermédiaires comme des parcs éoliens, des implantations d’autoroutes, et puis des choses bien plus du quotidien comme l’attribution de marchés publics, parfois le simple fait, dans les cantines scolaires, d’aller acheter des fournitures, etc. Toutes ces choses-là sont des décisions publiques et il y a énormément de choses, de documents qui entourent chaque prise de décision publique. Tous ces documents permettent de mieux comprendre les arbitrages qui ont été rendus par nos maires, nos fonctionnaires, nos ministres, etc.
Si on prend l’exemple d’un projet de piste cyclable, ce n’est pas une décision qui sort de nulle part. En amont, il y a très certainement eu des rapports d’experts qui ont été sollicités par la collectivité décisionnaire ; vous pouvez demander ces rapports. Il y a certainement eu des analyses, peut-être sur le plan environnemental, ce qu’on appelle des analyses d’impact environnemental et puis aussi en termes d’externalités que ce genre de projet peut avoir ; ce sont également des rapports, des analyses, que vous pouvez solliciter. Vous pouvez aussi demander la délibération qui a servi à acter cette décision et puis, potentiellement plus intéressants, tous les comptes-rendus afférents à la délibération, mais aussi aux réunions qui ont été organisées en amont de cette décision.
Je vais prendre un autre exemple de décision publique qui va peut-être intéresser un peu plus nos auditeurs, en tout cas ceux qui s’intéressent en particulier à la question du logiciel libre : pourquoi, dans certaines administrations, fait-on le choix de poursuivre d’utiliser, en tout cas de choisir des logiciels propriétaires, typiquement sur la bureautique – on sait que la suite Office de Microsoft est quand même beaucoup utilisée –, alors qu’on pourrait utiliser du logiciel libre ? Quand ce genre de décision est pris, on peut imaginer et, à priori, c’est le cas dans la plupart des cas, qu’avant il y ait eu des rapports préalables, des rapports d’évaluation et potentiellement des avis qui ont été remis soit par des experts soit par des instances consultatives.
Autre source de documents administratifs qui peut être très éclairante, ce sont tous les échanges, toutes les correspondances au sujet de cette décision publique et qui sont, là aussi, communicables. Vous avez le droit d’obtenir les courriers ou les courriels qui ont été envoyés potentiellement par, je ne sais pas, des représentants de chez Microsoft ou de l’April, si l’association est intervenue en faveur d’un projet.
Voilà pour les exemples. On pourrait revenir aussi sur l’exemple d’une autorisation d’un pesticide. Vous pouvez demander le dossier complet de demande d’autorisation sur le marché, ainsi que tous les avis, les rapports, les conclusions qui ont été émises au sujet de cette demande d’autorisation, etc.
Je m’arrête là pour les exemples. Je pense, j’espère que vous avez compris un petit peu le principe, l’idée, et je vous invite, si vous avez envie de sauter le pas, à aller faire un petit tour sur le forum de Ma Dada. On a mis en ligne un article où on reprend tout ce que je viens de vous expliquer, on liste notamment les principaux documents administratifs qui entourent des décisions publiques et, surtout, on vous propose des modèles de demandes que vous avez juste à adapter selon votre cas de figure, qui sont là pour vous aider, vous faciliter ce travail de demande, afin d’exercer votre droit d’accès aux documents administratifs.
Étienne Gonnu : Xavier, juste une remarque. Tu as parlé des correspondances. Pour que ce soit clair, effectivement nous, l’April, on peut demander communication de nos courriels à l’administration si elle a reçu des courriels de notre part, ou des messages, des correspondances. En revanche, les associations comme l’April ne sont pas tenues à donner suite à des demandes de communication, même si, en ce qui concerne l’April, on est très transparent sur tout ce qu’on communique, en général on n’aura pas de problème à partager des correspondances qu’on pourrait avoir avec les personnes publiques. Ça me semblait peut-être plus clair dit comme ça.
Xavier Berne : Oui, tout à fait. Je pensais l’avoir expliqué au début : ça s’applique auprès des administrations, c’est auprès des administrations qu’on peut demander. Ce qui est important, c’est que l’administration ait soit produit le document soit l’ait reçu et, à partir de ce moment-là, dans ce critère produit ou reçu dans le cadre d’une mission de service public, ça devient un document administratif.
Pour terminer, et ça rejoint un petit peu ce qu’on vient dire d’une certaine manière, j’avais quatre règles d’or à vous présenter pour réussir votre demande :
la première, c’est bien d’envoyer la demande à l’administration qui est à l’origine du document. Par exemple, si vous demandez une délibération de conseil municipal, il faut demander le document à la mairie ;
la deuxième règle, c’est d’identifier le plus précisément possible les documents sollicités, parce que ça facilite grandement, derrière, le travail de l’administration pour vous le fournir : si vous demandez un rapport, si vous demandez des statistiques, une délibération, il faut bien le préciser ; on ne peut pas demander une information, on peut demander des documents ;
la troisième règle, c’est de préciser la période concernée : si vous demandez des données, il faut dire « les données de l’année 2020 », si c’est une délibération, « la délibération du 12 juillet 1998 », etc. ;
et, dernière règle, s’assurer que le ou les documents demandés soient définitifs. On n’a pas le droit, en fait, de demander des brouillons ou des documents qui ont été produits pour influencer une décision tant que la décision n’a pas été prise. Typiquement, dans les exemples qu’on a donnés, il faut attendre, par exemple, que le marché public ait été conclu pour demander les documents afférents à ce marché public.
Étienne Gonnu : Ça marche vraiment ce droit d’accès ?
Xavier Berne : Pas toujours ! Je ne voudrais pas décourager des gens. Déjà, il y a des secrets qui sont, bien évidement, protégés par la loi et c’est normal, comme le secret défense ou le droit au respect de la vie privée. Dans certains documents, ils peuvent être communicables, mais il y a une occultation des données personnelles. Il y a des documents, en plus, qui sont carrément exclus du droit d’accès, comme les documents des assemblées parlementaires, c’est pour cela qu’on parle de documents administratifs.
On a aussi une autre problématique : certaines administrations ont tendance à faire la sourde oreille, à jouer la montre afin de décourager les demandeurs.
Pour autant, je pense qu’il ne faut pas baisser les bras, c’est vraiment en se saisissant de ce droit, en l’exerçant, que les administrations verront combien c’est important pour la démocratie de l’appliquer, surtout en ces temps compliqués de fake news, de défiance envers les responsables publics, les institutions publiques, etc.
Étienne Gonnu : Que se passe-t-il si l’administration ne répond pas ?
Xavier Berne : L’administration a un mois pour répondre. Si elle ne le fait pas dans ce délai, ça devient un refus qui est dit implicite.
Que le refus soit implicite ou explicite, derrière la personne peut contester le refus devant la Commission d’accès aux documents administratifs, la CADA, d’où le nom de loi CADA. C’est une autorité administrative indépendante qui fait, en quelque sorte, office de médiateur. La CADA est saisie, c’est là aussi gratuit et c’est assez facile. À l’issue d’une procédure, la CADA dit si, à ses yeux, le document lui paraît communicable ou non et, s’il est bien communicable aux yeux de CADA, en principe les administrations ont tendance à écouter la CADA et à fournir les documents qui ont été sollicités.
Si ce n’est pas le cas, là, malheureusement, il faut saisir la justice et c’est une autre histoire parce que c’est bien plus lourd en termes de procédure et, pour le coup, il peut y avoir des frais, etc.
Étienne Gonnu : Bien sûr. De quoi vas-tu nous parler la prochaine fois ?
Xavier Berne : La prochaine fois j’expliquerai comment demander des documents qui entourent la commande publique, notamment des marchés publics. En même temps j’en profite un petit peu, je lance un appel si vous avez des idées, des choix de thématiques pour les prochaines chroniques, n’hésitez pas à me les transmettre.
Étienne Gonnu : On fera le relais. Vous pouvez bien sûr nous contacter, vous trouvez les adresses de contact sur libreavous.org.
Merci Xavier pour cette toute nouvelle chronique. On a hâte d’entendre la suite. Une nouvelle chronique qui montre bien comment on peut concrètement agir sur les questions politiques, notamment à l’échelle locale, sur son territoire.
Je vais aussi en profiter pour préciser que les demandes CADA sont un outil dont on se sert sans modération à l’April, notamment pour agir, pour essayer de faire la lumière, obtenir des informations sur le choix de certaines administrations, certains ministères, là je pense en particulier au ministère des Armées, sur leurs choix afférents, par exemple, à Microsoft, pourquoi et comment ils ont décidé de privilégier certaines solutions plutôt que d’autres.
C’est vrai que malheureusement, de notre côté aussi, comme tu l’as très bien dit, ce n’est pas toujours avec succès, pas toujours dans les délais prescrits par la loi, loin s’en faut. Cela dit, ça nous a quand même souvent permis d’obtenir des informations utiles pour nos actions de plaidoyer, parfois on obtient des informations qui nous permettent de faire de nouvelles demandes, etc.
En tout cas merci encore et, bien sûr, nous invitons nos auditrices et auditeurs à découvrir le super site d’utilité publique qui est madada.fr.
À nouveau un grand merci, Xavier, et au mois prochain pour une nouvelle chronique.
Xavier Berne : Merci. À bientôt.
[Virgule sonore]
Frédéric Couchet : Nous sommes de retour en direct.
Notre émission se termine.
Je remercie les personnes qui ont participé à l’émission du jour : Gee, Hubert Guillaud, Laurent Costy, Xavier Berne et Étienne Gonnu qu’on vient d’entendre.
Aux manettes de la régie aujourd’hui, pour sa première, Magali Garnero qui a assuré, tout en jouant avec son téléphone en même temps !
Merci également aux personnes qui s’occupent de la post-production des podcasts : Samuel Aubert, Élodie Déniel-Girodon, Lang1, Julien Osman, bénévoles à l’April, et Olivier Grieco, le directeur d’antenne de la radio.
Merci également à Quentin Gibeaux qui découpe le podcast complet en podcasts individuels par sujet.
Vous retrouverez sur notre site web, libereavous.org, toutes les références utiles ainsi que sur le site de la radio, causecommune.fm. N’hésitez à nous faire des retours pour indiquer ce qui vous a plu mais aussi des points d’amélioration. Vous pouvez également nous poser toute question et nous y répondrons directement ou lors d’une prochaine émission.
Nous vous remercions d’avoir écouté cette émission. Si vous avez aimé l’émission, n’hésitez pas à en parler le plus possible autour de vous et faites connaître également la radio Cause Commune, la voix des possibles.
À ce sujet, un geste peut-être à la fin de l’émission pour aider à l’existence de cette émission. L’April participe à cette belle aventure que représente Cause Commune, radio associative. La radio a besoin de soutien financier notamment pour payer les frais matériels : loyer du studio, diffusion sur la bande FM, serveurs. Nous vous encourageons à aider la radio en faisant un don. Toutes les informations utiles sont sur le site causecommune.fm.
La prochaine émission aura lieu en direct mardi 26 septembre 2023 à 15 heures 30. Notre sujet principal portera sur le DSA, le nouveau règlement européen sur les services numériques, avec notre invitée Suzanne Vergnolle.
Nous vous souhaitons de passer une belle fin de journée. On se retrouve en direct mardi 26 septembre et d’ici là, portez-vous bien.
Générique de fin d’émission : Wesh Tone par Realaze.