Gauthier Fradois : Bonjour à toutes et à tous. Je vais très brièvement introduire cette rencontre avant de laisser la parole aux intervenants et aux intervenantes qui présenteront leur texte en 10/15 minutes, que je remercie chaleureusement d’avoir accepté d’être avec nous ce soir. Suivront 30 minutes de discussion collective et, dans ce cadre, si vous souhaitez poser des questions, c’est dans l’onglet QR qu’il faut les poser, on les lira après la présentation des intervenants qui durera une heure.
Cette soirée est coorganisée par la Fondation Gabriel Péri et Le Vent Se Lève. Elle est consacrée au dernier numéro de la revue Silomag, qui porte sur le pouvoir algorithmique.
Notion floue, qui plus est grossière pour les non-initiés du code binaire et des mystères de l’informatique, l’algorithme, qu’on peut définir comme une série d’instructions pour un ensemble d’opérations mathématiques, relève bien souvent d’un savoir technique peu accessible au commun des mortels. Mais, en s’interrogeant sur les usages sociaux de cette technologie, il est néanmoins possible d’en comprendre quelque chose, à commencer par les enjeux politiques qui sous-tendent son expansion actuelle. C’est le pari qu’on a fait en préparant ce dossier.
Cet intérêt pour la place qu’occupent les algorithmes dans nos vies est parti de la question du travail, de l’immixtion croissante de cette technologie dans le monde du travail, notamment dans le management dont nous parlera Matthieu Trubert, ingénieur chez Microsoft France et coanimateur du collectif numérique UGICT-CGT [Union générale des ingénieurs, cadres et techniciens].
Loin de se cantonner au monde du travail, l’essor des algorithmes participe de la transformation actuelle du capitalisme. À n’en pas douter, le développement du marché de l’informatique, ces 30 dernières années, a radicalement transformé les rapports de production économique, que ce soit par l’automatisation d’un nombre croissant de tâches professionnelles grâce aux systèmes d’intelligence artificielle, que ce soit par le trading haute fréquence ou encore par le changement du modèle logistique de distribution des marchandises, toujours plus interconnectées les unes aux autres.
De nouvelles firmes ont ainsi pu se construire des positions dominantes et parfois quasi monopolistiques, fondées sur une économie de l’information numérique : Amazon, Facebook, Google Alibaba, Tinder, pour citer les plus connues.
On peut poser ici la question des conséquences écologiques de cette croissance numérique dont discutera Fabrice Flipo, philosophe et chercheur au Laboratoire de Changement Social et Politique de l’Université Paris-Cité. En effet, la rationalisation des ressources, vantée par les promoteurs de la révolution numérique, oblitère l’explosion d’une consommation nouvelle de biens technologiques dont les coûts écologiques sont loin d’être négligeables bien que trop souvent négligés.
Peu de secteurs de l’activité humaine échappent aujourd’hui à la mesure chiffrée, au tri et au traitement des conséquentes bases de données constituées et analysées par des entreprises privées. Celles-ci concurrencent désormais, pour les plus puissantes d’entre elles, les États, dans la production de données biographiques sur les populations. Mais les États ne sont pas en reste dans l’usage des algorithmes grâce aux systèmes d’intelligence artificielle et à une armée de caméras fixes ou mobiles toujours plus nombreuses. Les États surveillent tout autant les comportements qu’ils cherchent à les orienter. C’est cet aspect que présentera plus amplement Hélène Jeannin, sociologue et chercheuse à Orange Innovation.
La surveillance n’est pas que collective, elle peut être également individualisée comme en témoignent les pratiques de data mining au sein des entreprises publiques pour contrôler les allocataires ou les usages récents des algorithmes pour les assurances santé. Simon Woillet, responsable de la rubrique idées du média en ligne Le Vent Se Lève, membre de l’Institut Rousseau et co-auteur avec Audrey Boulard et Eugène Favier de l’ouvrage Le business de nos données médicales, interrogera ainsi les enjeux économiques et politiques de la mise en place de partenariats entre des entreprises privées et l’État, pour le dire vite, afin de stocker et de traiter des données médicales initialement produites dans le cadre du service public de santé français.
Je n’en dis pas plus, je m’arrête là et je laisse la parole de suite à Matthieu Trubert pour 10/15 minutes de présentation.
Matthieu Trubert : Merci Gauthier. Bonsoir tout le monde.
Il faut revenir rapidement sur l’origine du management algorithmique. Effectivement, depuis même pas quelques années on en parle de plus en plus, mais c’est une terminologie qui est assez récente, de 2015, qui coïncide avec l’apparition des plateformes. C’est une fameuse étude d’une université américaine [1], justement, sur l’impact sur les travailleurs humains et les pratiques de travail de ce management qui est basé sur les données ; c’était dans le contexte d’Uber et de Lyft, donc apparition conjointe avec les plateformes.
On a donc un concept qui associe ces deux mots de management et d’algorithme. Ce qui est intéressant c’est que le mot « management » vient du vieux français « ménager », tenir les rênes d’un cheval. C’est un mot qui a été repris aux États-Unis et qui n’est pas si vieux que ça puisqu’il se répand au début des années 50 avec le livre de Peter Drucker sur les pratiques du management [Concept of the Corporation ], mot qui a posé énormément de problèmes à la traduction. C’est intéressant, je pense, de revenir à cette notion de « celui qui tient les rênes de l’attelage ou du cheval ».
Algorithme est effectivement un très vieux mot, qui date de bien avant l’informatique, qui dérive du nom d’un mathématicien persan du 9e siècle, Al-Khwârizmî [2], je le prononce très mal, je suis désolé. Il y a aussi une étymologie que je trouve intéressante si on la ramène au grec, à la fois algos et aritmos, le calcul douloureux, sous-entendu à faire à la main.
Du coup, si on applique ça au management, il y a cette idée qu’on est arrivé à une époque et à des organisations du travail où, finalement, tenir les rênes de l’attelage pour le management et comprendre le management de proximité est devenu quelque chose de pénible, de douloureux, de fastidieux.
Si on se penche un peu plus sur l’usage et la pratique du management algorithmique, un point que je trouve fondamental et très intéressant c’est qu’il va concerner toutes les catégories socio-professionnelles.
Dans un très grand écart, le premier exemple qui peut venir en tête ce sont les entrepôts d’Amazon, la partie distribution d’Amazon avec des travailleurs dans ces entrepôts qui se font dicter leurs consignes de travail par une machine, directement dans l’oreillette, avec, du coup, la suppression du management, quelque part, puisqu’il est remplacé complètement par une machine, par un système informatique, et eux sont également départis d’une certaine autonomie entre le travail prescrit et le travail réel. On pourrait citer à nouveau les plateformes évidemment, ne serait-ce que si on prend l’exemple des VTC, c’est le système informatique qui va dicter la ou les prochaines courses à proximité pour les chauffeurs, donc, quelque part, ordonnancer, cadencer le travail.
Néanmoins, il y a toujours cette spécificité, même si on est sur toutes les catégories socio-professionnelles, sur deux rôles et deux profils plus particuliers.
En premier, c’est le management de proximité. Bien évidemment, si on remplace le management par des algorithmes, ce management de proximité qui, pourtant, est de plus en plus départi de ses prérogatives depuis quelques décennies maintenant, il n’est plus partie prenante dans les décisions stratégiques de l’entreprise, là on en est vraiment à le départir de ses dernières prérogatives d’organisation du travail et d’organisation des collectifs de travail.
La deuxième catégorie, le deuxième profil intéressant qui se voit vraiment concerné par ce management algorithmique, ce sont les ressources humaines et, à fortiori, les ressources humaines de proximité qui sont un des deux piliers, avec le management de proximité, de la vie de l’entreprise et l’organisation dans l’entreprise, pour ceux qui sont ce qu’on appelle contributeurs individuels, ceux qui ne sont pas managers. Sur ces ressources humaines, tous les champs sont à peu près touchés, en tout cas en capacité de l’être, aussi bien le recrutement que l’évaluation, jusqu’à la rupture des contrats. On a eu un exemple récent dans la presse avec des décisions de rupture de contrat qui étaient purement induites par un algorithme.
Le dernier exemple qui, lui, est très récent et qui est encore plus parlant, mais ça répond à des questions qui s’étaient posées il y a déjà quelques années, c’est une entreprise, en Chine, qui se retrouve dirigée par une IA et non plus par un PDG ou un DG humains [3]. C’était une question déjà posée à l’époque : est-ce qu’un jour mon patron sera une IA ou un algorithme ? Avec cet exemple ça en prend le chemin, à voir ce que ça donne, évidemment.
Un autre point, et tu l’as évoqué, Gauthier. Tu as indiqué la définition d’algorithme un petit peu en tiroir. J’aimerais indiquer, rappeler celle de Gérard Berry [4] qui est professeur au Collège de France sur la chaire « Algorithmes, machines et langages » qui est, pour moi, vraiment extrêmement pertinente. Il dit que l’algorithmique c’est la science de l’organisation des opérations à effectuer – jusque-là on est complètement raccord avec la définition que tu as évoquée – et il ajoute son petit grain de sel en disant que le but final c’est d’évacuer la pensée du calcul afin de le rendre exécutable par un ordinateur, par un système informatique, qui est fabuleusement rapide et exact, mais qui est fabuleusement stupide et dénué de pensée. Ça met vraiment le doigt sur toutes les problématiques sous-jacentes du sujet. Si on déborde un petit peu sur la partie IA – on l’appellera intelligence artificielle ou informatique avancée, ce n’est pas forcément le débat ce soir, on pourrait en parler longtemps –, en fait, la vraie problématique sous-jacente c’est que ces systèmes-là sont, malheureusement, implémentés et pensés la plupart du temps pour décider plus vite que pour décider mieux.
On en revient donc à ce qui est assez prescrit et recommandé un petit peu partout dans différents textes, différentes études sur le sujet : il faut absolument éviter de tomber dans le piège que l’humain n’est plus en contrôle et que l’outil n’est plus un outil, mais que l’outil devient presque une sorte de d’allégorie quasi-divine, qui est à la fois une boîte noire, qui n’est pas questionnable, dont on ne remet pas en cause les décisions, qu’elles soient déterministes ou non, et qui enlève vraiment cette dernière part d’autonomie qu’on peut avoir dans le travail pour organiser, penser et vivre son activité au quotidien.
Je ne serai pas plus long, Gauthier. Je pense plus intéressant de laisser du temps pour les questions à la fin.
Gauthier Fradois : OK. Très bien. Merci beaucoup Matthieu. Sans transition, du coup, je cède la parole à Fabrice Flipo.
Fabrice Flipo : Moi aussi je reviens un petit peu sur la définition du numérique.
En fait, le numérique ça fait deux choses : ça permet de transmettre l’information, là-dessus on est d’accord, mais ça permet de créer des espaces publics disons nouveaux, ce qu’on voit un petit peu sur les réseaux sociaux par exemple, mais pas seulement, tout type d’espace public, que ce soit des publics très restreints, comme dans les réseaux sociaux d’entreprise, ou des publics plus larges comme on voit là en ce moment, par exemple un webinaire avec Gabriel Péri. Tout cela ce sont des espaces publics alternatifs ou nouveaux permis par le numérique qui, du coup, s’inscrit un peu dans la suite de l’imprimerie ou d’autres inventions de ce type. C’est une première partie.
Il y a une deuxième partie qui a été évoquée par la personne qui a parlé avant moi qui est la commande : le numérique c’est aussi commander des machines, commander le déplacement d’objets. Ce c’est pas un hasard si Amazon est une très grande entreprise du numérique, c’est avant tout une entreprise de logistique ; ce n’est pas un hasard non plus pour Tesla. En fait, beaucoup d’entreprises du numérique sont des entreprises de logistique, qui vont donc programmer le déplacement de biens et de services à l’échelle mondiale, avec des effets assez comparables à l’automatisation d’une manière générale. Ce n’est pas plus bête, ce n’est pas plus intelligent qu’une machine. Le numérique, finalement, c’est une machine un peu perfectionnée, mais ça reste une machine, donc ça répète un peu toujours les mêmes opérations.
J’irai très vite sur l’histoire du numérique, on n’a pas trop le temps. Je vais aller vite au résultat en termes d’écologie.
Quand on voit, aujourd’hui, que la hausse du trafic internet est de 26 % par an, ça vous dira peut-être rien mais c’est fois 10 en 10 ans, fois 1000 en 30 ans. On a donc une accélération extrêmement importante du trafic de data, donc de la puissance de calcul et ce n’est pas près de s’arrêter puisque voiture autonome, intelligence artificielle – il faut entraîner l’intelligence artificielle, donc il faut la faire calculer sur de grandes quantités –, résolution des vidéos, le métavers, l’industrie 4.0. Tout cela utilise des quantités très importantes de data, donc des centres de données. Ce ne sont pas nos petits ordinateurs et nos petits smartphones qui peuvent mener ce genre d’opération, ce sont de très grosses machines, toujours plus grosses. Vous savez peut-être que Météo France a acheté l’un des plus gros, l’un des plus puissants calculateurs de la planète, qui consomme 10 ou 20 mégawatts, pour prévoir l’évolution du climat, essayer d’anticiper l’évolution du climat et de la météo. Cet investissement, du point de vue de la prévision météo, d’après eux – c’est quand même un peu de la pub – permet de prévoir la météo une heure de plus que le précédent calculateur, une heure seulement ! Il y a donc une course à la puissance un peu partout, une accumulation de puissance de calcul. Pour la sécurité aussi : la sécurité informatique dépend de la puissance de calcul, en gros il s’agit de décourager l’adversaire en lui offrant une résistance par la puissance de calcul, c’est donc là-dessus que fonctionne, par exemple, bitcoin. Bref ! Il y a plein d’investissements très importants dans l’augmentation de la puissance de calcul.
Le résultat c’est que ça augmente la consommation d’énergie même si, pour le moment, c’est en grande partie compensé par les gains en efficacité énergétique pour diverses raisons, là aussi je n’ai pas trop le temps de détailler, mais ce n’est pas lié à des soucis du climat, c’est lié, par exemple, au fait que quand vous calculez beaucoup avec votre smartphone, à la fin de la journée il est vide. Comme il est vide, ça se vend mal parce qu’on attend qu’un portable ait une autonomie, du coup que fait le portable ? Le smartphone va déporter le calcul sur le centre de données : c’est le centre de données qui va calculer pour économiser l’énergie sur les smartphones. Le smartphone va demander le calcul, le centre de données qui va calculer, le résultat va revenir sur le smartphone. Il y a donc toute une infrastructure numérique, un peu masquée à l’usager lambda, qui permet quand même d’obtenir les résultats qu’on a. Vous avez pu le constater : le smartphone dure toujours une journée pour un usage standard.
Aujourd’hui on est entre 3 et 4 % des émissions de gaz à effet de serre pour le numérique, sachant qu’en 2007 on était à 2 %. C’est le secteur qui croît le plus en termes de gaz à effet de serre de tous les secteurs.
Il n’y a pas que ça. Aujourd’hui un iPhone ce sont 78 métaux différents et, pour extraire ces métaux et, d’une manière générale, tout ce qu’on extrait de la croûte terrestre pour nos modes de vie, ça représente, à l’échelle globale, à peu près 10 % de l’énergie consommée et plus les métaux sont rares, évidemment plus on va consommer d’énergie. Vous avez compris que tout cela n’est pas très bon pour le climat.
Pourquoi 78 métaux dans un iPhone ? En grande partie pour obtenir les résultats d’efficacité énergétique qui permettent de baisser la consommation de l’iPhone, le truc un petit peu absurde !
Ceci c’est ce qu’on appelle le green IT, la consommation du numérique et les efforts qui sont plus ou moins faits pour essayer de réduire sa consommation, qui ne sont nettement pas suffisants, comme vous avez compris.
Quand on dit « le numérique pollue », moi ça fait quasiment 20 ans que je suis le sujet, en général les entreprises répondent « ça pollue, mais c’est bon pour les autres secteurs, ça permet de baisser les émissions de gaz à effet de serre. Regardez, on fait une visio. Si nous étions tous venus à la Fondation Gabriel Péri, nous aurions pris les transports, la voiture, ça aurait pollué, et tout ».
Évidemment rien de tout cela ne tient pour toutes sortes de raisons que je n’ai pas le temps de détailler. En gros, il y a plus une complémentarité entre les modes de transport et les modes de communication qu’une substitution. Une entreprise qui ne peut pas communiquer avec l’Australie ne va pas physiquement en Australie, elle ne prend pas l’avion pour aller en Australie ! Si elle peut communiquer avec l’Australie de manière régulière et fiable, donc grâce à Internet, elle va aller en Australie en avion. C’est donc plutôt une complémentarité. Quand on regarde les 150 dernières années, il y a eu une complémentarité entre la croissance de la communication et la croissance du transport et pas du tout une substitution. Pour qu’il y ait une substitution, il faudrait nous expliquer comment ça se passe.
Du côté des entreprises, ce ne sont que des exemples de ce type-là, des trucs qui ne tiennent pas la route et qui sont peu démontrés, mais, avec ça, on prétend que le numérique va permettre de réduire massivement les émissions de gaz à effet de serre un peu partout, d’où les investissements dans la voiture autonome et dans tout un tas de choses qui ne marcheront pas, j’en prends le pari ce soir, vous pouvez enregistrer, on se retrouve dans cinq ans, il n’y a pas de problème. J’ai déjà dit exactement la même chose en 2007/2008, on est 14 ans après et j’ai gagné mon pari : ça n’a pas marché, donc je reprends le pari.
Ce qui reste aussi c’est l’enjeu de la sobriété. Comme c’est à la mode en ce moment dans le langage gouvernemental, il s’agit de faire un peu une mise au point de ce que ça veut dire.
La sobriété c’est effectivement la question des usages : un usage efficace d’un point de vue écologique, c’est dire « regardez, on fait une visio comme ce soir, mais j’ai un ordinateur qui consomme le moins possible, j’ai de la fibre optique, j’ai tout ce qui va bien pour consommer le moins possible pour faire notre visio », ça c’est de l’efficacité.
La sobriété c’est dire : est-ce qu’on a vraiment besoin de cette visio, peut-être que oui, peut-être que non, mais c’est la bonne question, celle qu’il faut se poser quand on parle de sobriété. Quand on regarde le questionnement qu’il y a dans l’espace public aujourd’hui – est-ce qu’on a besoin, est-ce qu’on n’a pas besoin ? – c’est en partie le bon sujet.
Il y a un autre aspect de la sobriété qui remonte à la philosophie grecque : la sobriété c’est la lutte contre l’excès. Le problème, évidemment, c’est de savoir qui exagère. J’aurais tendance à dire qu’en termes de sobriété énergétique c’est bien de limiter à 19 degrés, mais peut-être qu’on pourrait regarder les mètres carrés, donc ne pas tomber sur ceux qui ont 45 m2, mais sur ceux qui ont 200 m2, 300 m2, vous voyez ce que je veux dire, donc plutôt ceux qui exagèrent beaucoup, les plus riches qui consomment énormément. On s’aperçoit que ce n’est pas vraiment à l’ordre du jour alors que c’est ce qui a quand même été porté, en grande partie, par les Gilets jaunes et d’autres mouvements.
il est clair que la sobriété pose une question de justice sociale, déjà à l’époque d’Aristote, puisque la sobriété est une vertu qui est liée à la démocratie : on ne peut être dans une démocratie que si personne n’exagère. Rechercher la richesse matérielle, comme le prône Emmanuel Macron, n’est pas associé à la démocratie dans l’Antiquité, ce n’est pas associé à la sobriété, pas du tout, c’est bien le contraire. Que tout le monde devienne millionnaire, comme il a dit une fois, c’est tout le contraire de la sobriété, il y a donc une espèce de discours complètement incohérent : le « en même temps ». « En même temps je prends l’argent dans la poche des pauvres et, en même temps, je dis que je fais de la justice sociale », le en même temps macronien qu’on retrouve dans la question du numérique où on va dire que ça serait bien que ça consomme un peu moins, mais on va pousser, sous peine de revenir aux Amish, le métavers, la 5G et tout un tas d’innovations dont on sait très bien, à l’avance, qu’elles vont être fortement consommatrices.
Je vais m’arrêter là. On reprendra peut-être la discussion par la suite. Merci.
Gauthier Fradois : Merci à vous. Je cède la parole à Hélène Jeannin.
Hélène Jeannin : Bonjour à tous. Merci pour cette possibilité d’intervention. Je vous prie de m’excuser pour le retard, j’ai eu quelques difficultés de connexion, mais me voici.
Je vais vous parler des questions de surveillance au sein des États, des pays, la surveillance par l’État qui se généralise, c’est le sujet dans mon article [5]. C’est un sujet de recherche assez nouveau parce que le thème, en lui-même, est nouveau. Il existait déjà des outils permettant de la surveillance. La question de la surveillance, en soi, n’est pas une question nouvelle, elle a déjà été traitée depuis plusieurs décennies, mais, avec l’intelligence artificielle, on constate un accroissement des technologies de surveillance dans les pays qui dépasse les prévisions des experts. Ils ne pensaient pas que ça allait augmenter de façon aussi rapide, avec de nombreuses modalités techniques qui viennent se rajouter à ce qui existait déjà, qui étaient, jusque-là, le fait de l’économie numérique, interconnectées. Maintenant on voit apparaître des plateformes de villes intelligentes, des systèmes de drones fonctionnant par l’intelligence artificielle, des systèmes biométriques avec tout un ensemble de bases de données qui sont interconnectées et gérées par des systèmes d’IA ou des briques d’intelligence artificielle.
Pour commencer une tentative de cartographie de l’existant, je me suis basée sur un rapport de Carnegie Endowment qui, lui-même, a travaillé à partir de sources de données ouvertes. Les données que j’ai citées, notamment le fait qu’il y a 75 pays sur 176 étudiés qui utiliseraient des technologies de surveillance à base d’IA, sont extraites de ce rapport, étant entendu qu’il est parfois assez difficile d’avoir des informations sur ce sujet parce que les pays ne le disent pas forcément, parce que les entreprises qui vendent des technologies d’IA veulent se valoriser ou, au contraire, veulent cacher certaines choses. Il y a donc toujours un potentiel de biais ou un potentiel d’omission ou, au contraire, d’exagération.
Toujours est-il que lorsqu’on regarde les grands acteurs de la surveillance dans le monde, ce qu’on sait et ce qui frappe aux yeux c’est la Chine. La Chine est considérée comme le moteur de la surveillance, d’une part parce qu’elle a des fabricants, notamment Huawei qui est le premier fabricant des technologies de surveillance par l’IA loin devant les autres, les autres étant notamment, par exemple, NEC, le Japonais, ou des sociétés comme Cisco, IBM, Palantir aux États-Unis. La Chine a développé un système de reconnaissance faciale, ce qu’on a appelé le crédit social. Ce système, qui fonctionne à base de bâtons et de carottes, vise à attribuer des bonus ou des malus aux citoyens selon les actes qu’ils effectuent dans la vie quotidienne, qui peuvent être considérés comme étant louables ou, au contraire, répréhensibles, ce qui permet, en fait, de classer, en quelque sorte, les citoyens en bons, mauvais ou citoyens corrects à partir de ces actes de la vie quotidienne. La reconnaissance faciale va être utilisée de plus en plus pour effectuer des paiements, pour tracer les activités des gens : traversent-ils bien dans les passages cloutés, traversent-ils bien au vert ? Toutes sortes de choses qui sont notées en fonction de critères établis dans une base de données, cette base de données étant elle-même constituée de données qui peuvent être disparates, puisqu’elles peuvent provenir à la fois d’institutions, d’organismes publics ou privés, et il existe une véritable collusion entre les deux qui permet, en fait, l’interconnexion, le partage et l’échange de ces données.
En dehors de ces facteurs, la Chine a une politique d’expansion de ses technologies de surveillance, politique menée notamment depuis 2013 avec sa politique de la route de la soie [6], prolongée en 2017 par ce qu’elle a appelé, je traduis en français, « La ceinture et la route », qui se traduit aussi par des subventions avec des prêts à taux réduit envers certains pays, par exemple le Kenya, le Laos, la Mongolie, l’Ouganda, l’Ouzbékistan, qui va faire en sorte que ce type de technologie va pouvoir devenir accessible à certains pays alors qu’elle ne le serait pas sans ça.
Ce qui permet aussi le développement de ces technologies de surveillance, c’est le développement urbain à l’échelle planétaire, puisqu’il y a une concentration de la population dans les villes : la démographie, au niveau planétaire, va se concentrer dans les villes, même s’il y a des villes qui rétrécissent, mais, pour la majorité, c’est l’urbanisation croissante. Donc le modèle de la smart city — un terme qui recouvre des réalités bien différentes selon les villes en elle-mêmes, mais dans un objectif un peu techno-centré qui prévaut —, désigne l’idée d’une ville servicielle qui va produire des services automatisés pour les habitants des pays, services qui vont faire l’objet d’une supervision, qui vont pouvoir être gérés en temps réel et fournir des analyses en temps réel.
Tout cela repose sur le recueil et l’exploitation de données, mais on observe aussi, pour faire face aux violences urbaines, à un glissement sémantique : on parle de moins en moins de smart city, qui était un terme très à la mode il y a quelques années, et de plus en plus de safe city, de ville sûre ou ville sécurisée, qui est basée sur l’observation du comportement des citadins.
Certes la Chine est un moteur de ces technologies de surveillance parce qu’elle les utilise en son sein, aussi parce qu’elle cherche à les disséminer par des systèmes de vente à prix réduit, mais on voit aussi que les démocraties dites libérales – les pays européens, les États-Unis, Israël, le Japon – sont aussi des démocraties qui adoptent les technologies d’IA, voire qui les vendent à des pays qui, parfois, les utilisent à des fins peut-être pas toujours louables.
Toujours est-il que la surveillance par l’IA se développe dans un certain nombre de pays qui peuvent être autant des autocraties que des démocraties dites libérales, donc le régime politique n’est pas le paramètre qui va permettre de savoir si un pays est susceptible, ou pas, d’adopter ou de développer des technologies en IA. Les études montrent que ce qu’il est important de regarder ce sont les dépenses militaires de chaque pays : plus un pays dépense pour sa sécurité et sa défense, plus il est potentiellement sujet à adopter des technologies de surveillance par l’IA. Une des raisons étant que ce sont des pays qui ont des moyens économiques, financiers et technologiques plus importants, mais aussi parce qu’ils estiment devoir faire face à certaines menaces, par exemple, pour l’Europe, ça peut être le terrorisme, ça peut être la surveillance des frontières ; pour d’autres pays ça pourrait être, par exemple, la menace de dissidences en interne, de mouvements activistes ou militants qui pourraient être considérés comme susceptibles de déstabiliser le pouvoir en place.
Donc les technologies de surveillance peuvent être adoptées par différents pays, mais être utilisées à des finalités différentes selon le régime politique et selon la visée et la gouvernance. La gouvernance est quelque chose d’absolument crucial, notamment pour nos démocraties : y a-t-il un régime de droits de l’homme ? Tout cela peut rentrer en ligne de compte pour savoir comment ces technologies vont être utilisées.
À quoi servent-elles ? Elles servent au contrôle social, c’est-à-dire la société de contrôle qui peut se caractériser par une supervision automatisée, par l’automatisation informatique et qui va permettre, justement, de gérer, de contrôler et de faire un traitement différencié des populations, parce que qui dit surveillance dit segmentation et tri de la population avec ce traitement différencié qui est susceptible d’apparaître.
On voit aussi que les technologies de surveillance sont rendues visibles : il y a des caméras de surveillance, il y a des capteurs. Elles ne sont pas toujours invisibilisées, comme c’est le cas, parfois, pour nos technologies numériques où on sait qu’on est tracé quand on fait, par exemple, des recherches sur Internet. Elles sont rendues visibles et l’intérêt de les rendre visibles c’est que ça provoque un auto-ajustement des comportements de la part des citoyens : on connaît le fameux « Souriez vous êtes filmés ». On n’est pas aussi spontané que cela quand on sait qu’on est surveillé, ça permet donc déjà d’avoir, de façon intrinsèque, une espèce de censure qui peut être le fait des individus en eux-mêmes.
On voit de plus en plus d’articles sur le crédit social en Chine, sur ce sujet, mais un autre volet qu’on voit moins c’est le fait que développer des technologies de surveillance par l’IA va aider à stimuler l’innovation, à stimuler la recherche et développement. Les algorithmes d’IA ont déjà beaucoup progressé avec les grandes masses de données, la puissance de calcul, les compétences aussi qui sont venues des ingénieurs, des développeurs, la baisse des coûts de certaines infrastructures, tout cela a pu contribuer à l’essor de l’intelligence artificielle, mais certains pays vont utiliser ça comme un outil de politique industrielle. J’en ai parlé au sujet de la Chine, mais d’autres pays font de même. Ce qui est déjà utilisé en interne sur les populations va pouvoir, éventuellement, être translaté sur d’autres applications et, comme on sait que les technologies d’intelligence artificielle fonctionnent sur un système d’apprentissage, d’auto-correction, eh bien ces systèmes-là vont pouvoir, éventuellement, être utilisés pour autre chose ou bien à d’autres fins.
Il y a donc une course à la suprématie en IA qui est engagée dans le monde avec, bien sûr, deux pôles : l’un les États-Unis, l’autre la Chine, Chine qui veut devenir le leader en IA d’ici 2030. Il ne s’agit pas seulement d’avoir une suprématie technologique. Cette suprématie technologique se double d’une suprématie géostratégique puisque, de l’IA, vont pouvoir dépendre des systèmes de défense avancée, la 5G, par exemple, fait aussi partie des systèmes de défense sur lesquels des pays comptent pour assurer leur suprématie.
Il semblerait, d’après certaines études, qu’on soit à un tournant. On ne sait pas encore comment tout cela va évoluer, dans quel sens, mais quand on fait le match, en quelque sorte, États-Unis/Chine, on voit que les atouts des États-Unis sont, d’un côté, la créativité, l’excellence de certaines institutions ou de ses chercheurs, tandis que la Chine a, de son côté, l’avantage du nombre : nombre de chercheurs, nombre d’entrepreneurs, nombre de données, puisque les expérimentations de crédit social qui ont commencé dès 2014 se sont peu à peu étendues dans tout le pays, donc peuvent toucher plus d’un milliard, 1,4 milliard d’individus. En fait la Chine, au lieu de faire, peut-être, de la recherche fondamentale comme le font les États-Unis, fait directement des mises en application avec des processus de réajustement, de correction, qui sont propres à l’intelligence artificielle et qui sont aussi fortement aidés par le contexte : une plus faible réglementation en Chine avec, aussi, une approbation sociale qui est beaucoup plus affirmée que dans les pays européens ou aux États-Unis où il y a une plus grande frilosité. Et, en Chine, les consommateurs semblent être beaucoup moins attentifs, beaucoup moins sourcilleux sur le type d’utilisation éventuelle.
Au cœur de tout cela, c’est la donnée : qui va gérer la donnée ? Qu’est-ce qu’on va en faire ? Le contrôle de la donnée est au cœur de tout cela, du développement de ces systèmes, et au cœur, éventuellement, des inquiétudes puisqu’on voit qu’il y a des délégations de données qui sont faites pour certains systèmes – je crois qu’on parlera des systèmes de santé tout à l’heure – avec la question de la délégation de la donnée par des États à des entreprises étrangères, ce qui fait qu’entreprises et États peuvent potentiellement être en concurrence avec le risque, pour les États, de perdre leur souveraineté ou une part de contrôle sur cela. Ils tentent de s’en prémunir en édictant des réglementations, ces réglementations étant, autant que faire se peut, à l’échelle européenne, documents de stratégie en IA et un ensemble de réglementations pour se prémunir des abus éventuels et pour essayer de sauvegarder cette souveraineté.
Les données sont beaucoup contrôlées par les acteurs du numérique, pas seulement des acteurs publics mais des acteurs privés, surtout aux États-Unis. C’est notamment grâce aux GAFAM <[Google, Apple, Facebook, Amazon et Microsoft] que les États-Unis réussissent à développer leur politique d’intelligence artificielle ; les Américains sont beaucoup plus internationalisés que les BATX [Baidu, Alibaba, Tencent et Xiaomi] chinois. Tout ce qui importe, maintenant, c’est d’anticiper les risques et les Américains commencent à en prendre conscience puisqu’il y a aussi un mouvement en faveur de l’éthique, un mouvement autour de la question de l’éthique de l’intelligence artificielle, mouvement de l’IA responsable, et la question de la donnée reste toujours au centre : les données sont-elles de qualité ? Sont-elles justes ? Ne sont-elles pas doubles ou dupliquées, parce qu’il s’agit de prévenir les risques et les mésusages de l’IA et, lorsqu’on parle de questions de surveillance, il faut absolument prendre en compte tous ces paramètres.
Donc enjeux éthiques autour de la surveillance qui, je pense, ne sont parfois pas suffisamment explicités et pas suffisamment soulevés.
Gauthier Fradois : Merci beaucoup pour votre présentation. C’est au tour de Simon Woillet de nous parler des données médicales.
Simon Woillet : Bonjour. Merci aux organisateurs et organisatrices, aux intervenants et intervenantes.
Je vais effectivement m’inscrire un petit peudans le fil de la présentation précédente parce que le sujet du développement de l’économie centré sur les données de santé recoupe énormément toutes les problématiques autour de ce qu’on peut appeler, notamment avec Shoshana Zuboff [7], le capitalisme de surveillance. Je ne pourrai pas prétendre à l’exhaustivité et je vous demande de m’excuser si ça part dans des directions qui paraissent très lointaines, mais le sujet des données de santé recoupe aussi des enjeux qui portent à la fois sur la souveraineté numérique, voire des enjeux qui peuvent concerner la sécurité nationale étant donné que, pour le dire tout de suite et pour ne pas oublier, il y a, aux États-Unis, des groupes de données de santé qui travaillent main dans la main avec le département de Défense américain, je pense au groupe Peraton qu’on a découvert dans nos enquêtes. On s’est aperçu que l’enjeu du développement des données de santé était effectivement très lié au complexe militaro-industriel américain. Par exemple, pour le dire tout de suite, il faut savoir que Cédric Villani [8], qui est un des initiateurs des rapports de préfiguration sur la politique d’intelligence artificielle de la France, tout à fait soutenu par Emmanuel Macron dans des discours un peu prophétiques au Collège de France [9] notamment, sur la présentation de ce rapport – à mon avis en tout bien tout honneur, c’est un très grand scientifique, il doit le faire pour des raisons tout à fait d’intégrité – travaille avec une chercheuse américaine. Il écrit des livres sur les données de santé avec une chercheuse américaine s’appelle Daniela Rus [10], qui travaille au MIT, mais qui ne se contente pas de travailler en robotique au MIT, elle travaille aussi dans la MIT Corporation du MIT qui est une espèce d’association, de structure mixte de recherche connectée au département de Défense américain. Il y a donc, potentiellement, des implications de renseignement militaire, je dis bien potentiellement, à l’horizon de la perception que les Américains peuvent avoir de ce développement économique.
En réalité, les enjeux de surveillance, de souveraineté et de géostratégie sont au cœur de la problématique des données de santé. Je voulais commencer par là pour montrer un peu que, souvent, on prend la problématique des données de santé par le biais, finalement, de la montre connectée, des objets connectés, c’est un peu comme ça que, notamment, la réception médiatique en est faite, mais il faut bien avoir en tête que c’en est une partie, qu’il y a aussi, derrière, toutes les agences américaines, MIT [Massachusetts Institute of Technology] ou DARPA [Defense Advanced Research Projects Agency], il y a donc, finalement, tout sauf de la naïveté, si je puis dire, du côté des Américains qui sont vraiment les leaders des grandes tendances que nous, Européens, essayons de copier.
Pour faire, peut-être, un peu le lien avec l’article qu’on a produit pour Silomag [11], le point de départ de l’intérêt qu’on a eu avec l’équipe du Vent Se Lève pour les données de santé, c’est le projet du Health Data Hub [12] dont, sans doute, beaucoup d’entre vous ont entendu parler. Pour résumer, c’est une plateforme de gestion centralisée au niveau national des données de santé des Français qui a fait d’énormes polémiques. Pour le faire très brièvement, les données étaient hébergées sur cette plateforme chez Microsoft Azure Cloud. Microsoft Azure Cloud, ça veut dire qu’il y a une exposition des données des Français à ce qu’on appelle l’extraterritorialité du droit américain, c’est-à-dire la potentialité non pas seulement de transfert finalement, mais de transfert sur ordre juridique ou politique ou d’agences de renseignement. Ça a été un peu un des cœurs de la polémique qui a commencé au sein même de l’État, notamment avec la méfiance du Comité consultatif national d’éthique ou même de l’ANSSI. L’ancien président de l’ANSSI [Agence nationale de la sécurité des systèmes d’information], Guillaume Poupard, avait lui-même alerté en disant « vu qu’il y a des GAFAM dans ce projet, il y a quand même d’énormes risques. »
Nous nous sommes beaucoup appuyés sur la recherche, que j’invite à consulter, et le travail de l’Association InterHop [13] qui est vraiment à l’avant-garde. Ils ont été les lanceurs d’alerte au sujet du Health Data Hub, ils ont porté les recours au Conseil d’État avec leur avocate, maître Alibert, et ils sont, de manière générale, régulièrement contactés par la presse, s’expriment dans la presse pour alerter sur ces sujets.
Je vais essayer d’en nommer quelques-uns mais il faudra m’excuser si je ne peux pas vraiment faire preuve d’exhaustivité vu le peu de temps.
Le truc le plus central, à mon sens, du développement de l’économie numérique des données de santé en France — on parlait tout à l’heure de crédit social —, c’est le risque d’une forme, si ce n’est de crédit social, en tout cas d’une forme allégée, en quelque sorte, de principe de crédit social importé des logiques des assureurs américains contemporains et, surtout, un assureur en particulier, Sud-Africain, qui s’appelle Vitality, qui est cité dans les rapports gouvernementaux qu’on a mentionnés par exemple dans notre livre, Le business de nos données médicales. Rapport gouvernemental, par exemple, du Pipame, Pôle interministériel de Prospective et d’Anticipation des Mutations économiques qui, en lien avec plusieurs cabinets de conseil, les filiales d’Accenture, etc., les grands représentants du secteur, a mis en avant un modèle qui ressemble à du crédit social, qui s’appelle l’assureur Vitality, qui a des partenariats avec Humana, avec Hancock, etc., des grosses assurances plutôt du monde anglo-américain, mais qui commence à s’implanter aussi avec des assureurs comme Generali en Europe. Quel est le principe ? Ça va être des contrats d’assurance où on va vous obliger à avoir des capteurs, comme, on va dire, des montres connectées, des applications ou ce genre de choses, et on va pouvoir vous suivre en temps réel. On vous fait payer moins cher votre contrat et on vous donne des bonus – il n’y a pas encore la face malus, mais ça ne saurait potentiellement tarder, si je puis dire : si vous arrêtez de fumer, vous avez des places de cinéma, ce genre de choses.
Il faut, d’une part, en avoir conscience, c’est quand même très infantilisant et c’est la porte ouverte à une société de contrôle complètement délirante. Par ailleurs, il ne faut pas se dire que le malus ne viendrait pas parce qu’on est dans une démocratie ; le malus existe déjà, c’est ce qu’avait montré Shoshana Zuboff dans les contrats d’assurance par exemple de véhicules : des entreprises de télématique, c’est-à-dire de contrôle à distance des outils technologiques, comme Spirion, qui sont capables d’arrêter en pleine route une voiture ou de l’empêcher de démarrer en cas de non-paiement des échéances du contrat d’assurance automobile.
Le risque, dans nos démocraties, d’une sorte, si je puis dire, d’approchant de crédit social est présent au cœur finalement dans la façon avec laquelle les assureurs privés voient un effet d’opportunité dans le développement de la data économie, particulièrement de la data économie de santé.
On a, en France, un cadre juridique beaucoup plus protecteur, notamment par la loi Évin, sur le fait que les assureurs, à priori, n’ont pas accès aux données de santé des citoyens, mais on voit que le secteur assurantiel porte vraiment cette volonté, dans les rapports gouvernementaux et autres, de développement de l’accès du secteur privé, en particulier des assurances, à ces données. Le président d’un des principaux syndicats de cybersécurité avait dit dans une interview, dès 2015/2016, que les assureurs privés, en France, se portent déjà sur le marché noir d’acquisition de données médicales pour certains clients.
Les risques sont vraiment déjà là et, en réalité, peut-être le plus important, ce sur quoi j’aimerais vraiment attirer l’attention, c’est le risque d’individualisation du système de remboursement des soins, autrement dit la mort de la Sécurité sociale. Guillaume Poupard, encore une fois j’y reviens, le président de l’ANSSI avait lui-même perçu ce risque et l’avait dénoncé, InterHop avait rapporté ses propos. C’est pour dire que le risque majeur posé par le développement de l’économie des données de santé c’est ça : avec la multiplication des capteurs, non seulement on a une société de surveillance, mais on a, en plus, le risque que la Sécurité sociale qui repose sur un principe de mutualisation des risques, de socialisation des risques, soit remise en question sur la base de l’idée que la qualité du profilage, l’individualisation rendue possible par la technique de votre santé, tout simplement, justifie que ne vous partagiez plus, finalement, de manière égoïste, les risques de ceux qui ont eu une attitude, que ce soit obésité, comportement alimentaire, tabagisme ou autre, qui ferait que, égoïstement,vous n’ayez pas envie de payer pour les autres.
Il faut avoir conscience que ce risque-là est porté parce que les gens qui développent ces technologies bien souvent, je ne dis pas que c’est le cas de tous, mais aux États-Unis, en particulier, c’est quand même cette mentalité qui imprègne tout ce système économique, sont des libertariens, ce sont quand même des gens qui font profession d’égoïsme, qui sont éduqués avec Ayn Rand [14] dès le berceau. On a quand même là, pour le coup, l’exemple d’une technologie ! On dit tout le temps que la technique est neutre, ce sont ses usages. Bien évidemment que les techniques n’ont pas de cœur, en quelque sorte, mais elles émergent aussi par des projets idéologiques. En l’occurrence la Silicon Valley, Peter Thiel — ça a été un scandale — qui conseille Ursula von der Leyen et même Margrethe Vestager, lors de la conférence de Munich en 2018 : les politiques d’intelligence artificielle de l’Union européenne et de la Commission étaient conseillées par Peter Thiel ; ce sont notamment le groupe GUE [Gauche unitaire européenne] et les parlementaires écologistes au Parlement européen qui ont révélé le scandale, c’était documenté par EurActiv [15]. Donc ne croyons pas que les libertariens de la Silicon Valley n’ont pas d’influence sur ce développement puisqu’ils sont eux-mêmes les conseillers de nos élites dirigeantes, en particulier européennes.
Je ne fais pas confiance du tout à l’échelon européen. Beaucoup de chercheurs — je pense à Ophélie Coelho, je pense à Tariq Krim, je pense à Joëlle Toledano, économiste à l’Arcom — critiquent le RGPD [16], la faiblesse, finalement, des sanctions et, simplement, l’idée de régulation juridique, en fait, du contrôle des données. C’est évidemment quelque chose de très important, mais le plus important c’est la relocalisation, on le voit par exemple pour le cas du Health Data Hub ou de la doctrine cloud de l’État [17], la re-territorialisation du contrôle des données.
La condition sine qua non du respect de la loi, qu’elle soit française ou européenne, sur nos données, donc la protection, y compris des citoyens, qu’on a dans notre conception démocratique française et européenne, c’est d’avoir du 100 % européen, 100 % français et compartimenter le plus possible pour ce qui est ce qu’on appelle, du point de vue RGPD, des données sensibles, comme les données de santé ; compartimenter autant que faire se peut et le plus vite possible. C’est d’ailleurs ce que l’arrêt du Conseil d’État sur le Health Data Hub dit clairement [18] : il faut qu’il y ait une réversibilité vers un système français ou européen le plus vite possible pour nos données de santé.
Si on n’arrive pas à ça, on n’arrive pas à sortir de la logique de l’extraterritorialité américaine. Encore récemment, dans la presse, est paru le rapport d’un cabinet, je crois qu’il était belge, qui montrait bien juridiquement pourquoi, même avec les nouveaux accords et même avec la suspension de l’accord général, qu’on appelle Privacy Shield [19], de transfert des données entre Europe et États-Unis, il y avait encore des risques majeurs d’exposition des données de santé européennes à la loi américaine, aux agences de renseignement et à la justice américaine.
Pourquoi est-ce important, parce que, souvent, l’argument c’est « je n’ai rien à me reprocher » ? En fait ça nous concerne tous, quand bien même on est monsieur et madame Toutlemonde. Pourquoi ? Je rappelle l’affaire Alstom/Frédéric Pierucci [20] : c’est parce qu’il était sur une boucle mail d’un GAFAM, Gmail, qu’il s’est fait mettre en prison à Rhode Island et tout ce qu’on veut, qu’il a eu une clé de bras, si je puis dire, de la justice américaine et, on va dire, du consortium entreprenariat/appareil d’État américain dans l’affaire Alstom. Il y a vraiment cette exposition au risque : qu’est ce qui se passe si nos parlementaires, si les données de nos responsables politiques, si nos responsables économiques – qu’on les aime, qu’on ne les aime pas, nos destins économiques et personnels sont liés à ces gens – sont exposées aux agences de renseignement américaines ? Le problème est là. Après l’affaire Snowden [21], après encore l’affaire Pegasus [22], plus personne ne peut considérer que c’est quelque chose de secondaire.
D’ailleurs, au-delà des raisons économiques, les responsables de la filière du cloud français, en particulier, qui appellent la commande publique, qui ne comprennent pas la politique du gouvernement, qui, je ne sais pas si vous l’avez suivi, fait, en gros, des politiques de mélange des opérateurs historiques avec Orange : on mélange Microsoft et Orange avec des clauses de sécurité, de territorialisation, etc., mais il y a toujours un soupçon légitime et les acteurs de la filière sont vraiment scandalisés. On était d’ailleurs passé à une doctrine qu’on appelait le « Cloud de confiance », ce n’était même plus « Cloud souverain » qui était annoncé initialement, c’était « Cloud de confiance » parce qu’on ne peut pas faire sans les Américains. Je pense que des choses extraordinaires sont faites par ces entreprises, ce n’est pas la question de la qualité technologique de ce qui est donné, le problème c’est que, bien souvent, on s’expose formellement à toute une logique de géopolitique, de souveraineté, qui est contraire, en fait, à nos intérêts démocratiques et à nos droits fondamentaux.
À un moment, pour reprendre l’expression du rapport Longuet [23], qui définit, du point de vue de la représentation nationale, ce qu’est la souveraineté numérique, il faut être capable de faire appliquer sa loi au cyberespace. La condition de possibilité de ça, c’est vraiment de se centrer sur la commande publique pour soutenir le secteur du cloud français, sinon on ne s’en sortira pas. Là il y a un revirement, on ne sait pas ce que ça va donner, qui, visiblement, va plutôt dans le bon sens de Bruno Le Maire, adossé à Thierry Breton, qui reconfigurerait la doctrine Cloud de l’État qui avait été inaugurée par l’inénarrable Cédric O précédemment.
Je ne voudrais pas trop m’attarder là-dessus. En résumant un peu, le risque principal que j’identifie : il faut vraiment que ça devienne un sujet de débat public pour éviter que la Sécurité sociale ne soit remise en cause dans son principe.
Il faut également que les gens comprennent que tout ce qui est du côté de la gamification, c’est-à-dire « j’ai des notifications sur mon iPhone qui me disent combien de pas j’ai fait, combien j’ai dormi », et tout cela avec une atmosphère, une esthétique, un design qui est pensé pour être agréable, pour être ludique. En fait, derrière toute cette espèce de ludification, finalement, du rapport à la santé, il y a des applications d’automédication qui vont se développer, je pense à Hy-Result, je pense à StopBlues. Dans le cas des dépressions, vous avez des applications qui vous disent, en fonction de vos constantes biométriques, quand il faut prendre vos médicaments. On entre donc dans une société complètement délirante, déshumanisante parce qu’elle risque potentiellement de supprimer la relation patient/médecin, dans une société où le secret médical n’est plus garanti tout simplement, point à la ligne. C’est ce que dit le collectif InterHop qui est composé, au départ, de médecins, médecins et informaticiens. On a donc toutes ces problématiques qui font exploser, finalement, la sécurité de nos systèmes de santé et de nos systèmes de soins, je dirais, et qui, par ailleurs, nous exposent à des logiques géopolitiques dont, bien souvent, nos gouvernants ont la naïveté de ne pas concevoir, de ne pas voir.
Je voudrais juste dire, pour aller dans ce sens-là, qu’il faudrait vraiment pousser. Il y a un gros travail de la représentation nationale, Sénat/Assemblée nationale depuis plusieurs années pour porter ces sujets, notamment de la souveraineté numérique. Le rapport Latombe [24], par exemple, est excellent. Le député Latombe a notamment fait intervenir InterHop dans les auditions. Une grosse critique a été faite, par les parlementaires notamment, du Health Data Hub et de son management. Je rappelle qu’il y a eu aussi, quand même, un soupçon grave de conflit d’intérêts avec un des responsables de la Drees Direction de la Recherche, des Études, de l’Évaluation et des Statistiques], Jean-Marc Aubert, sur le sujet de l’attribution du marché ; il n’y a même pas eu réellement de procédure de marché public, ça a été une attribution très étrange à Microsoft Azure Cloud. Il y a quand même cette logique de soupçon à plusieurs niveaux qui devrait nous inciter à un vrai débat de société et on en est privé.
Je pourrais peut-être éventuellement terminer là-dessus : on est vraiment privé de débat public. Que ça soit au niveau de la DG Connect de la Commission européenne [25], quand on regarde les élaborations programmatiques pour l’espace européen des données de santé, espace européen des données santé qui doit être piloté toujours par le Health Data Hub, alors même que le Health Data Hub s’est fait retirer son accréditation à recevoir, on va dire, les données de santé, le problème auquel on est confronté c’est quand même qu’à la fin on est dans une logique qui s’appelle, pour le peuple, l’opt-out. On parlait du contrôle à la fois des individus et des États sur les données, eh bien l’individu est toujours dans une logique où il doit être comme dans le don d’organes, ça a été le modèle sur lequel ça été pensé : le consentement est présumé.
On entre aussi dans quelque chose qui vient complètement perturber tout l’édifice juridique, tout l’édifice de la confiance du citoyen et dans l’institution médicale et dans les institutions politiques. Je rappelle qu’on est quand même dans un contexte de complotisme, de rejet très fort du domaine médical autour des vaccins et tout ça, vraiment est quelque chose qui est de l’ordre de la psychose collective à cause du Covid, qui est très sensible ; on a eu des fuites de données de l’AP-HP [Assistance publique - Hôpitaux de Paris], les gens sont habitués à se dire que leurs données de santé ne sont pas protégées, que c’est grave, etc. ; il y a le dossier médical partagé, qui est encore un échec qui s’inscrit dans cette ligne-là. Le problème c’est qu’on est dans cette logique du consentement présumé. Et quand on voit les rapports de la DG Connect, ils sont transparents au moins, on voit bien que les élaborateurs de ces politiques publiques au niveau européen ne veulent pas que les citoyens puissent se prononcer. Les motions sont écrites de sorte qu’obligatoirement on n’ait pas le choix, au niveau même du Parlement européen, de dire : consentement éclairé ou consentement présumé.
L’enjeu c’est : le citoyen est trop bête pour comprendre cette innovation qui est absolument nécessaire pour rattraper le retard de compétitivité face aux GAFAM, aux BATX, etc. Il faut plus ouvrir les données au secteur privé et si on dit cela aux citoyens ils ne vont pas vouloir, donc on crée cette espèce de truc jupe anti-juridique au possible sur le modèle du nudge : est-ce que vous voulez de la publicité, ou pas, sur Internet ou sur le consentement pour les cookies. On est dans cette logique-là qui est complètement délirante et qui est profondément irrespectueuse des droits civiques élémentaires des citoyens, des institutions, du contrôle économique et du contrôle démocratique, on va dire, sur l’avenir non seulement de nos données mais de nos systèmes de soins.
Je dois dire que ça occulte, pour une part, toute cette problématique de la data économie qui est le cœur des politiques de e-santé, 400 millions d’euros investis par Emmanuel Macron dans un campus de e-santé, ça occulte des découvertes, je tiens à le dire, pour ne pas être technophobe : au CHU de Rouen, je crois, des outils de chirurgie micro-invasive sont rendus possibles par des techniques d’intelligence artificielle, pour opérer des enfants de 7 à 11 ans avec des robots, de la robotique avancée, et leur remettre la colonne vertébrale en place alors qu’on ne pouvait pas opérer avant.
Donc cette intelligence artificielle, adossée à de la robotique d’assistance au geste chirurgical, qui permet de soigner des gens qu’on ne pouvait pas soigner avant, bien évidemment qu’elle est essentielle parce qu’elle est, en plus, localisée, traitée vraiment en local, dans une machine précise, et elle n’a pas vocation à être vendue à des courtiers de données, des assureurs ou autre.
L’idée qu’on a des assureurs qui sont à l’affût, Microsoft a maintenant des partenariats avec Axa en Europe, donc se dire aussi que nos données sont gérées par une entreprise qui a en tête de ne pas se faire damer le pion par Amazon qui, lui-même, veut devenir assureur depuis des années avec sa filiale qui s’appelle Haven, adossée à JP Morgan.
On a donc ces logiques-là de privatisation de nos systèmes sociaux et de l’extraterritorialité américaine qui sont très graves.
Il faut faire très attention parce que la Food and Drug Administration américaine, l’instance d’autorisation médicamenteuse et technologique américaine, a autorisé l’Apple Watch à être reconnue comme dispositif médical de classe 2. Quand je disais que ce système de biométrie permanente rentre dans nos vies au nom de la santé, de l’automédication, de la prévention pour réduire les coûts de santé, etc., par la porte de la gamification, eh bien on va se retrouver avec un système social en miettes, avec une destruction de la logique de solidarité qui est économiquement beaucoup plus efficace que le système social américain, par le fait. Tout cela ce sont des enjeux qu’il faut absolument politiser.
Je m’arrête là, j’espère que j’ai pas été trop long. Merci.
Gauthier Fradois : Super, merci beaucoup, c’est parfait, 20 heures ça laisse pile-poil 30 minutes pour discuter.
Je rappelle aux gens qui suivent le webinaire, s’ils veulent poser des questions, que c’est dans l’onglet QR. J’imagine que ça va être questions et réponses. À priori il y a déjà quelques éléments, je vais en reprendre.
Une question à laquelle Matthieu a répondu, mais je vais peut-être la reposer à Simon, du coup, puisqu’il s’agit des données médicales. La question est la suivante : sur la protection et la compartimentation des données de santé, que pensez-vous des méthodes d’anonymisation de type Mondrian ? C’est un peu technique, je ne sais pas si vous avez un avis.
Simon Woillet : Je n’ai pas la compétence technique, je suis plus sur le versant journalisme économique ou sur des compétences un peu plus globales, de synthèse ; je n’ai pas la prétention à pouvoir comprendre des enjeux techniques. Pour le coup, ceux à qui il faudrait poser la question, je sais pas si vous êtes déjà en contact avec eux, c’est InterHop qui sont vraiment au fait de tous ces enjeux. Là je serais bien en peine de vous répondre.
Gauthier Fradois : OK, merci beaucoup. Matthieu, je ne sais pas si tu veux reprendre un peu. Tu as répondu par écrit. Peut-être nous expliquer brièvement ce dont il s’agit.
Matthieu Trubert : Je sais pas du tout si la réponse est visible.
Le principe s’appelle Mondrian parce que ça reprend le tableau de Mondrian qui est découpé en carrés, c’est le découpage d’un échantillon statistique. Si on prend un exemple, âge et poids, on va essayer de découper notre échantillon pour le recomposer en plus petites parties. Ce n’est pas une anonymisation, c’est une pseudonymisation plus poussée. La vraie problématique avec, du coup, une ambiguïté sur ma réponse, je dis que cet algo est intéressant, mais il pèche par absence de contrainte sur les valeurs sensibles. En l’occurrence, concernant des données sensibles, si on parle d’âge et de poids par exemple, c’est-à-dire que ça va être difficile et c’est laissé à discrétion de l’implémenteur de l’algorithme de découper : est-ce qu’une valeur critique ça va être au-dessus de 40 ans ou au-dessus de 50 ans ? C’est au choix de l’implémenteur. Est-ce qu’une donnée critique sur le poids ça va être au-dessus de 65 kilos ou d’autres données croisées, par exemple l’IMC pour ce que ça vaut, etc. ? C’est par là que ça va pécher.
Aujourd’hui, les derniers travaux sont plutôt sur la confidentialité différentielle, ce qu’on appelle la differential privacy, et c’est beaucoup plus intéressant. Après, c’est purement technique.
De toute façon, quel que soit le choix technique qui est sollicité ou qui est retenu, avant il faut être revenu aux fondamentaux et on en vient à la question de la souveraineté numérique, la question de la triple gouvernance juridique, technique et opérationnelle. Si un maillon pèche en amont, on peut choisir la technique et la techno qu’on veut, ça péchera de toute façon.
Gauthier Fradois : Merci Mathieu pour ta réponse.
Une question d’ordre un peu général, je ne sais pas qui veut se lancer. La question est la suivante : un contrôle ou un encadrement, y compris juridiques, sont-ils envisagés ou en train de se construire pour éviter les dérives connues dans l’Internet par exemple. On sort un peu des algorithmes.
Matthieu Trubert : C’est aussi vieux qu’Internet. C’est toute la difficulté de transposer un droit qui, au départ, n’était pas pensé pour.
Contrôle ou encadrement y compris juridiques.
Après, il faudrait définir quelles sont les dérives connues dans l’Internet : est-ce qu’on est purement sur de la surveillance, est-ce qu’on est sur d’autres types de dérives, la captation des données par exemple, y compris quand vous n’avez pas validé, envoyé un formulaire, mais le simple fait de commencer à le remplir ? On en revient à la question qui a été très bien développée précédemment, la question de territorialité : où sont les serveurs, où sont hébergés les données ? Il y a une question juridique liée à la territorialité et puis il y a aussi une question de gouvernance technique, et c’est là où ça pèche et on pourra penser à des cas comme Doctolib.
On va pas remonter toute la chaîne, mais le grand défaut remonte déjà à la maîtrise des composants et du matériel qu’on implémente et qu’on construit, ou pas, justement, et derrière c’est l’utilisation qui en est faite. Aujourd’hui, le point le plus crucial et ce qui pèche le plus, c’est tout ce qui concerne la cryptographie. On devrait commencer, aujourd’hui, par la maîtrise du chiffrement et c’est malheureusement très souvent la dernière roue du carrosse : ne pas maîtriser son chiffrement c’est encore pire que mal choisir, quelque part, où on va héberger ses données et c’est par là que ça devrait commencer.
C’est difficile de répondre, c’est un sujet aussi vaste qu’Internet, en fait.
Gauthier Fradois : Merci Mathieu. Simon.
Simon Woillet : C’était une question pour Mathieu pour poursuivre un tout petit peu sur le sujet qu’il vient d’ouvrir, de cryptographie. Encore une fois je ne suis pas expert de ces questions, mais j’ai suivi l’actualité politique américaine : les associations sont très inquiètes parce que, au nom de la lutte contre la pédocriminalité, qui est tout à fait légitime, l’administration Biden semble, sous la pression des agences de renseignement, en train de revenir sur le chiffrement de bout en bout, donc toutes les messageries qu’on a l’habitude d’utiliser genre Telegram, etc., qui ne permettent pas au gouvernement d’accéder au contenu de ce qu’on dit, si j’ai bien compris, mais seulement, éventuellement, à un système d’inter-relations, donc recomposer, comme ça, qui parle avec qui et qu’est-ce que ça peut vouloir dire. Là, les agences de renseignement pourraient potentiellement avoir accès directement, si ce n’est pas déjà le cas, aux conversations. Pensez-vous que c’est un risque réel et est-ce que ça risque de se généraliser ailleurs, par exemple en Europe ?
Matthieu Trubert : Il y a effectivement toujours un risque. Il n’y a pas besoin d’aller aussi loin qu’aux États-Unis : de nombreux pays en Europe ont une législation qu’on appelle de fourniture des clés de chiffrement sur une décision judiciaire. Il y a eu le cas récemment en Suisse où Proton a été obligé de fournir des informations sur de l’activisme écologique, contre sa volonté.
Après, c’est tout le poids que peut avoir un État vis-à-vis d’une société ou le poids que peut avoir un État vis-à-vis d’un autre. L’exemple du rachat des turbines Alstom par General Electric est l’exemple le plus parlant. Là on est en plein impérialisme américain, ça va au-delà même du cliché de la carte postale, c’est assez impressionnant. Donc oui.
Si on prend aujourd’hui un système de messagerie comme Signal, qui a déjà un statut intéressant et je ne savais pas que ça existait. C’est une association américaine, avec un statut d’association à but non lucratif, qui ne peut être cédée qu’à une autre association à but non lucratif. Là on a donc déjà un premier cadre juridique qui protège un petit peu d’une voracité financière sur l’association, donc la techno derrière, donc les données. Son principe c’est qu’elle n’a pas du tout accès aux données, aux données chiffrées, puisqu’elle n’a pas les clés de chiffrement et de déchiffrement. Après, jusqu’à quel point puisqu’il y a quand même un individu derrière ? In fine, est-ce que ça peut résister à la pression d’un État ? On en revient à l’exemple d’Alstom.
En France, on a une loi de fourniture des clés de chiffrement sur décision judiciaire. Il y a eu, en décembre 2020, une extension de trois décrets de fichage sur les opinions, c’est déjà la première chose qui m’inquiète et on en vient un peu au paradoxe, c’est ce qui ressort de quelques discussions récentes : on est presque plus rassuré par son entreprise que par son propre État et son propre gouvernement sur le sujet.
La vraie problématique en disant qu’on donne quitus, aujourd’hui, au gouvernement actuel sur une utilisation non malveillante, le problème c’est qu’on a aujourd’hui tout un arsenal à la fois juridique et technologique qui permet, dès demain, à un gouvernement fasciste qui arriverait au pouvoir de tout avoir clé en main et sous la main pour une utilisation malveillante de toutes ces données. Absolument. L’avenir le dira !
Gauthier Fradois : Merci Mathieu.
Une question sur le portefeuille des données. Qu’en pensez-vous ?
Simon Woillet : Le portefeuille européen, la directive eIDAS [26]. Je peux commencer, mais j’invite les autres à compléter.
Du peu que j’en connais en gros, de ce que j’ai vu par rapport aux données de santé, il y a ce projet qui, à mon avis, est quand même très contredit par les tensions géopolitiques qui vont se mettre en place de plus en plus à l’aune de la crise énergétique et de la guerre en Ukraine vis-à-vis, par exemple, de l’Allemagne, de la France, même d’autres pays. Je pense que c’est surtout von der Leyen qui est vraiment un peu derrière ça et Thierry Breton parce que, derrière, il y a les intérêts d’Atos donc, évidemment, il va porter cette chose-là.
De ce que j’en comprends, et c’est un peu intuitif, l’enjeu c’est d’arriver, finalement, à des modèles intégrés comme ce qui se passe en Inde ou ce qui se passe en Chine, avec non pas seulement du crédit social mais l’idée d’une super app, en fait. En gros, vous avez l’ensemble des services publics, l’ensemble des services administratifs, l’ensemble de vos données personnelles qui sont dans des systèmes applicatifs gérés par les institutions publiques et qui vous donnent accès, par exemple, à la fois à votre porte-monnaie numérique d’euros numériques – d’ailleurs l’euro numérique risque d’être hébergé par Amazon, si j’ai bien compris, on est en plein dans la souveraineté, c’est génial ! – pour arriver à avoir cette logique. Pour se donner une représentation de ce qui existe déjà dans le monde, il faut regarder ce qu’est devenu Webo, ce qu’est devenu WeChat en Chine, même dans d’autres pays, en Asie du Sud-Est par exemple, à Taïwan ou à Hongkong : les citoyens ont des super applications qui sont à la fois des applications de messagerie, de loisirs, de divertissement, d’achats sur des plateformes de e-commerce, en même temps de prise de rendez-vous, en même temps d’actes administratifs.
L’enjeu c’est vraiment cette logique qu’on appelle de l’État plateforme [27], qui est liée au théoricien américain qui s’appelle Tim O’Reilly, qui est revendiquée par exemple par le gouvernement français. Il y a divers sites en .gouv.fr, vous pouvez regarder. L’enjeu c’est de réduire les services publics et l’administration à ce qu’on appelle un guichet centralisé de données. Un des premiers modèles qui, par ailleurs, a des choses intéressantes, c’est l’application d’accès aux services publics, FranceConnect, qui était vraiment un des fers de lance de ça en France. L’enjeu c’est la généralisation de cela, c’est-à-dire la numérisation administrative intégrale pour réduire le nombre de fonctionnaires une fois de plus et aussi pour avoir, en temps réel, des feedbacks des comportements utilisateurs un peu dans le but de cette logique d’un État qui serait, finalement, un régulateur de la circulation de données. Ça pose tous les problèmes qu’on soulevait précédemment et, derrière, il y a des grosses entreprises comme Atos, Thales et Amazon, visiblement, qui sont en embuscade.
Gauthier Fradois : Merci pour votre réponse.
J’ai une question pour Fabrice Flipo. C’est une question un peu large, ça me questionne : comment fait-on pour sortir de cette dépendance quand même grandissante à l’égard du numérique ? Vous nous expliquez qu’il y a une expansion de la croissance, des flux de data, des gaz à effet de serre, des métaux, etc. Comment pourrait-on faire pour être moins dépendants ? On a tous des smartphones. Demain sans smartphone, c’est peut-être compliqué à accepter ? Ce n’est très bien formulé comme question.
Fabrice Flipo : Forcément, une fois qu’on est dépendant d’un système technique c’est difficile d’en sortir. C’est pareil pour la voiture : une fois qu’on a construit des villes très étalées dans lesquelles l’automobile est indispensable, on se demande comment faire sans voiture. C’est sûr qu’il ne fallait pas étaler les routes.
Pour le numérique, la première mesure c’est de ne pas faire ce qui ne devrait pas être fait genre le métavers, la 5G ou des choses comme ça. Donc éviter de laisser s’installer des lock-in, comme on dit, des situations bloquées, techniques, dont on devient dépendant et ça peut aller, d’ailleurs, avec des objectifs de souveraineté, d’une certaine manière. Là où il n’y a pas le système, il n’y a pas Amazon qui s’étend, forcément, d’une certaine manière. Il faut penser la souveraineté aussi sous cet angle-là.
Après, quand on est dans un système, j’ai envie de dire qu’on est déjà coincé. L’enjeu, c’est surtout de ne pas penser que c’est tout l’État ou tout le consommateur. Il y a un enjeu qui est entre les deux, qui est de socialiser les usages au niveau pertinent. Je donne juste un exemple : quand tous les parents d’ados se désespèrent de les voir coincés devant leur écran, la socialisation qui s’est produite de fait c’est une socialisation au niveau du collège, c’est-à-dire que le collège a régulé, voire interdit en général à la fin, l’usage du smartphone et ça a vachement limité, quand même, les usages et ça a permis une appropriation de ces usages par les gamins.
Je pense qu’il faut socialiser la consommation, mais socialiser la consommation ce n’est pas prendre des décrets au niveau de l’État ou agiter la mesure magique de la planification, c’est plus compliqué que ça.
À l’inverse, ce n’est pas non plus dire, comme fait le gouvernement en ce moment, maintenant qu’on a des ados qui sont collés devant leur écran, on a un spot publicitaire du gouvernement Macron qui dit qu’il ne faut quand même pas trop engueuler les gamins, je ne sais pas si vous l’avez vu. C’est quand même scandaleux parce que les GAFAM interdisaient justement les écrans à leurs gamins, ils les mettaient dans des écoles spéciales sans écran. Il y a toute une socialisation de l’objet, alors que là c’est jeté en pâture au marketing et au mésusage. En général, ce sont aussi les classes populaires qui font le plus gros mésusage parce qu’elles sont débordées, elles n’ont pas d’argent. On file un petit écran au gamin et ça permet de s’en sortir. On va accumuler la mauvaise bouffe, les écrans et tout ce qu’il faut ! Pour moi c’est ça l’enjeu, il est d’ailleurs beaucoup plus large que l’enjeu du numérique.
J’ai juste donné quelques exemples, mais on pourrait multiplier les exemples de ce type-là. La mesure que je propose, et c’est tout à fait faisable, c’est de faire un peu comme faire le The Shift Project. The Shift Project a chiffré la trajectoire écologique des nouveaux projets numériques [28]. Il faut le faire faire par les entreprises, un peu comme une autorisation de mise sur le marché : quelqu’un veut faire la 5G, très bien, mais il est obligé de faire un chiffrage, une sorte d’étude d’impact environnemental préalable en fonction de ce qu’il veut développer. Ça génère un débat public qui permet aux consommateurs de sortir de cette confrontation solitaire entre le pauvre usager et la grosse boîte qui, de toute façon, le roule dans la farine !
Gauthier Fradois : Merci pour votre réponse.
Il y a une question, je pense que c’est suite à ce que tu disais, Matthieu, tout à l’heure : quelles seraient les éventuelles utilisations malveillantes ? Auriez-vous un ou deux exemples pour avoir un ordre d’idée ?
Matthieu Trubert : J’étais justement en train de taper.
Toute la question c’est quand on commence à croiser les jeux de données. Par exemple, si on prend le fichage des opinions, on croise ça avec des données sociales, à fortiori si on inonde les réseaux sociaux de ses données personnelles et ça pourrait être, par exemple, Parcoursup [29] : une petite corrélation, dans Parcoursup, avec le fichage des parents et puis, par exemple, interdire l’accès à certaines études aux enfants qui paieraient les idées, entre guillemets « particulières », de leurs parents. Ça peut être ça, tout bêtement, mais c’est déjà énorme. Tout est possible !
Il y a eu une question sur le big data, est-ce ce qu’il est dépassé ? Non, et ça a été très bien décrit par Hélène tout à l’heure. Aujourd’hui, on a des capacités phénoménales à collecter, stocker, traiter des données et on en a besoin déjà pour entraîner les modèles d’IA puisque, aujourd’hui, on est sur des nombres de paramètres considérables et il faut des jeux de données très volumineux pour pouvoir entraîner les modèles d’IA correctement modulo les biais, mais c’est encore un autre sujet. Et, deuxième chose, les données c’est le nouvel or noir, c’est pour leur valeur intrinsèque. Si on prend l’exemple des données de santé, ça a été parfaitement décrit, il y a des enjeux énormes sur les assurances par exemple. Si on rappelle le scandale Cambridge Analytica [30], c’est aussi la capacité à pouvoir forger des opinions, manipuler l’opinion, s’ingérer dans la démocratie, on va dire. Tout est possible !
Gauthier Fradois : Merci Matthieu.
Une question pour Hélène Jeannin : vous nous avez situé deux pôles en compétition, on va dire, dans la surveillance généralisée, les États-Unis et la Chine. Est-ce que vous avez observé des mouvements d’opposition ou de contestation, notamment en Chine, aux pratiques de l’État chinois sur ces mises en œuvre de surveillance ?
Hélène Jeannin : Pour la Chine on sait que c’est très difficile parce que les répressions sont importantes, donc là, comme ça, je n’ai pas d’exemples de répression à vous citer.
Pour ce qui est de la France, par contre, je pourrais effectivement vous donner des exemples en matière de reconnaissance faciale. Il y a eu, par exemple, des tentatives d’introduire de la reconnaissance faciale dans des écoles du Sud de la France, près de Nice. Cette tentative a finalement réussi à échouer. Il y a eu, justement, des forces d’opposition entre les élus locaux qui, en fait, allaient à l’encontre des directives de la CNIL qui disait de ne pas le faire [31], faites attention, par contre les élus locaux, eux, poussaient pour appliquer ces technologies. Il y a eu ensuite des syndicats et des parents d’élèves qui se sont insurgés contre ces pratiques de reconnaissance faciale qui allaient s’introduire dans les écoles et qui, après, ont réussi avec des procès, donc des rendus de justice, à faire annuler cette visée, cet objectif d’introduire de la reconnaissance faciale.
Il y a donc des contestations. Une personne, Stanislas Renondin de Hauteclocque, a travaillé justement sur ce cas des écoles dans le Sud. Il détaille, à partir d’un exemple de terrain à proprement parler, parce que c’est vrai que quand on parle de surveillance on parle dans des termes assez globaux, généraux, là il a vraiment fait une étude empirique de terrain pour voir comment ça se passait concrètement ces mouvements de contestation. Il y a donc, effectivement, des forces en présence et on voyait surtout qu’il y avait une politisation autour de cette question de la reconnaissance faciale.
Après, juste pour rebondir sur ce qui a été dit avant : quand il y a des nouveaux systèmes comme ça, en fait technologiques, souvent la cible principale ce sont les jeunes. C’est souvent par eux que les entreprises, que les promoteurs vont essayer de passer pour réussir à faire adopter leur technologie, parce que ce sont les futurs adultes, donc il vaut mieux commencer tôt et après ce sont les enfants qui peuvent être prescripteurs pour les adultes, sinon les adultes ne pourront pas suivre, etc. On peut trouver ouvertement écrit que les nouvelles technologies c’est pour les jeunes, les montres connectées ou d’autres choses, le métavers ou autre. La première cible ce sont les jeunes, les ados ou même les plus jeunes encore.
C’est pour cela que la question des écoles est intéressante. Il y a eu aussi des tentatives d’introduction à l’école d’autres systèmes biométriques qui ont été étudiés, notamment par Xavier Guchet, des systèmes de gant [32] : les enfants devaient introduire leur main dans un gant qui, en fait, était un système biométrique pour, après, pouvoir accéder ou pas à la cantine. Ce qui est intéressant c’est qu’une espèce de fantasme s’est créée, que les enfants ont développée autour de cet objet.
En fait, un objet ou un dispositif sociotechnique a aussi autour de lui toute une symbolique, tout un imaginaire qui est véhiculé avec lui, donc on ne parle pas de quelque chose de forcément inerte, statique, mais auréolé, je dirais, de tout un ensemble de fantasmagories, de croyances, qui sont susceptibles d’embarquer, ou pas, les futurs adoptants de cette technologie.
Gauthier Fradois : Merci pour votre réponse.
Nous approchons de la fin. Si quelqu’un veut poser une dernière question, c’est le moment, ou qu’il se taise à jamais.
Il me reste à remercier encore une fois les intervenants et les intervenantes pour leurs présentations. Merci d’avoir été avec nous ce soir.
J’invite toutes les personnes qui nous regardent à consulter le numéro sur les algorithmes de Silomag. Vous trouverez les articles des présentations et plein d’autres articles et plein d’autres numéros sur plein d’autres sujets très intéressants. C’est en ligne, donc accessible.