Dominique de Legge : Mes chers collègues, je vous propose de poursuivre nos travaux de cet après-midi avec cette table ronde qui réunit quatre spécialistes du sujet qui nous intéresse.
Monsieur Bernard Benhamou, vous êtes secrétaire général de l’Institut de la souveraineté numérique [1], vous avez publié de nombreux travaux sur la géopolitique de l’Internet.
Monsieur David Chavalarias, vous êtes directeur de recherche au CNRS et directeur de l’Institut des systèmes complexes [2]. Vos travaux portent notamment sur les dynamiques sociales et cognitives liées au numérique. Les algorithmes des plateformes, nous le savons, exploitent des biais qui sont ensuite utilisés par les auteurs d’opérations d’influence malveillante.
Monsieur Tariq Krim, vous êtes fondateur du think tank Cybernetica [3], vous êtes également spécialiste des plateformes numériques et des enjeux politiques qui leur sont associés.
Monsieur Julien Nocetti, vous êtes chercheur au Centre d’analyse, de prévision et stratégie du ministère des Affaires étrangères [4]. Votre expertise porte sur la géopolitique des technologies numériques et vous êtes, en particulier, spécialiste de la Russie.
Avant de vous donner la parole, il me revient de rappeler qu’un faux témoignage devant notre commission d’enquête est passible des peines prévues aux articles 434-13,14 et 15 du Code pénal. Je précise également qu’il vous appartient, le cas échéant, d’indiquer vos éventuels liens ou conflits d’intérêt en relation avec l’objet de notre commission. Je vous invite à prêter serment, de dire « toute la vérité, rien que la vérité » en levant la main droite et en disant « je le jure ».
Je vous remercie. Cette audition fait l’objet d’une captation vidéo qui sera diffusée sur le site internet et, le cas échéant, les réseaux sociaux du Sénat, puis consultable en vidéo. À la demande, elle fera l’objet d’un compte-rendu.
Je propose de vous donner à chacun sept minutes pour faire un propos introductif, 4 fois 7 ça fait 28, ça fait déjà une demi-heure d’introduction pour nous. À la suite de quoi, le rapporteur et mes collègues ne manqueront pas de vous poser des questions pour approfondir tel ou tel point. Je vous propose de démarrer par un tirage au sort aléatoire qui fait que nous allons retenir l’ordre alphabétique, donc donner la parole à Monsieur Benhamou.
Bernard Benhamou
Bernard Benhamou : Merci Monsieur le Président. Merci à vous tous. C’est un plaisir que d’évoquer ces questions aujourd’hui.
Je vais me présenter. Donc Bernard Benhamou, je dirige et j’ai fondé l’Institut de la souveraineté numérique en 2015 après avoir exercé les fonctions de délégué interministériel aux usages de l’Internet et de négociation européenne sur les questions de régulation du numérique ainsi qu’aux Nations-Unies auparavant, en tant que conseiller de la délégation française. J’ai fait partie du groupe de travail des États généraux de l’information dédiés à « souveraineté et ingérence » [5] qui rendra ses travaux très bientôt, je pense donc que ça sera utile de pouvoir les transmettre dans le cadre de l’élaboration de votre commission d’enquête.
Pour revenir sur l’actualité, je dirais qu’il n’y a pas de sujet plus brûlant que le sujet de l’ingérence aujourd’hui. J’ai eu le plaisir, ici même, dans cette salle, d’intervenir lors d’une précédente commission d’enquête cette fois-ci consacrée à TikTok, on voit que l’actualité rebondit et rebondit encore, et je précise, je dirais d’entrée de jeu, que j’avais eu l’occasion de dire que les risques d’ingérence n’étaient pas simplement hypothétiques, mais qu’ils étaient d’autant plus réels que de la part des services chinois, ne pas utiliser la manne que constituent les informations recueillies sur plus d’un milliard et demi d’utilisateurs de TikTok constituerait, de leur part, une faute professionnelle, ce qui, d’ailleurs, avait été même repris par l’un de nos représentants des services de renseignement, lors de ces mêmes auditions.
Il est clair, aujourd’hui, que nous arrivons à un point non pas de rupture mais, je dirais, d’apogée, non seulement des risques mais des actions d’ingérence de pays hostiles sur les réseaux numériques de manière générale qui prennent diverses formes.
Dans un passé pas si lointain, les premiers auxquels on pensait étaient les Russes. Il se trouve effectivement que désormais, ça nous a été confirmé récemment encore, les Chinois prennent de plus en plus part à des mesures de désinformation dans le cadre électoral, c’est le cas aux États-Unis, on l’a vu, de manière pas toujours intuitive, en soutenant d’ailleurs les groupes proches de Trump ; on l’a effectivement vu dans le passé, mais on le voit aussi en Europe et je dirais que l’année 2024 est l’année de tous les dangers puisque c’est l’année où plus de quatre milliards d’individus sont amenés à aller aux urnes. C’est donc un champ d’expérience comme jamais il n’a été possible dans ce domaine et il est clair, effectivement, qu’à la fois les grandes plateformes et, je dirais, l’ensemble des acteurs de l’Internet ont été là-dessus, pour dire les choses clairement et franchement, d’une coupable naïveté, voire d’une coupable lâcheté ou d’une coupable complaisance par rapport à des acteurs potentiellement toxiques, qu’il s’agisse de pays étrangers hostiles, mais aussi, évidemment, de groupes terroristes, on le voit régulièrement.
On a vu, non pas une complicité de ces plateformes, mais une convergence d’intérêts toxiques entre les groupes extrémistes et le modèle de fonctionnement de ces plateformes, sur lequel, j’imagine, mes voisins auront l’occasion de revenir. Le modèle de fonctionnement de ces plateformes privilégie les propos polarisants, clivants, parce qu’ils sont les plus vecteurs d’audience, dans ce métier on parle d’engagement — on disait avant vecteurs de retweets, vecteurs de partage. Donc, par définition, il n’y a pas une convergence politique par exemple entre des groupes terroristes et des plateformes comme YouTube ou Facebook, non !, mais il y a une convergence d’intérêts toxiques. La nouveauté, aujourd’hui, c’est qu’au-delà même de telle ou telle action ponctuelle, ces processus, et on l’a vu dans le passé par exemple avec l’affaire Cambridge Analytica [6] aux États-Unis, qui n’était que la première du genre, beaucoup d’autres ont suivi et, malheureusement, beaucoup d’autres risquent de suivre, on voit bien que ça peut jouer aussi sur la formation des opinions publiques, d’où les inquiétudes que l’on pouvait avoir et que l’on peut toujours avoir. On l’a vu avec la Nouvelle-Calédonie sur la formation de l’opinion publique, voire des réactions ou des risques d’insurrection, d’actions violentes, comme on l’a vu aux États-Unis, là encore avec Cambridge Analytica [6], ou les groupes qui ont mené l’action au Capitole, que j’appelle un coup d’État, que certains appellent une insurrection, peu importe le nom qu’on lui donne, étaient coordonnés et avaient pu grandir grâce aux algorithmes – le mot reviendra certainement beaucoup aujourd’hui –, aux algorithmes de ciblage, on parle, dans notre métier, de micro-ciblage qui sont liés à toutes les données extraordinairement précises que l’on possède sur les individus, données liées à leurs goûts, à leurs échanges, à l’ensemble des captations que l’on peut avoir sur eux, y compris les captations du domaine médical, psychologique. On est donc capable effectivement de savoir – et Facebook, jusqu’à une période récente ne l’empêchait pas – qui se reconnaît comme raciste, donc envoyer, de la part de ces groupes, qu’il s’agisse de QAnon ou d’autres Proud Boys et quelques autres, d’envoyer des publicités ciblées pour recruter des personnes en fonction de leur profil politique et, dans le cadre des campagnes électorales, être en mesure de créer des messages, et c’est peut-être la nouveauté de ces deux dernières années avec la montée en puissance de l’intelligence artificielle, qui fait l’objet du rapport que nous rendrons bientôt, de créer des contenus spécifiquement conçus pour telle ou telle personne en fonction de son profil. La nouveauté, c’est qu’auparavant, dans le cas de Cambridge Analytica, vous aviez une série d’ingénieurs qui étaient capables de concevoir des contenus et de les diffuser vers des dizaines ou des centaines de millions de personnes. Aujourd’hui, tout cela peut se faire entièrement automatiquement par un système d’intelligence artificielle à qui l’on donne une feuille de route en disant « il faut favoriser l’élection de telle personne dans tel pays », et il va concevoir des contenus, répondre en ligne à des personnes qui penseront, de bonne foi, que c’est un humain qui leur répond, créer et inonder des centaines de millions de comptes de façon très rapide. J’avais eu l’occasion de dire, lors de la commission d’enquête sur TikTok, qu’en année moyenne Facebook efface tous les trimestres 1,5 milliard, je dis bien milliard, de faux comptes, donc plus de six milliards sur l’année précédente.
On voit bien que les outils de la désinformation, donc de l’ingérence, se sont démocratisés dans le plus mauvais sens du terme et constituent, maintenant, un véritable risque sur le fonctionnement démocratique de nos sociétés. D’ailleurs, les experts de ces pays le disent très bien : l’ouverture des démocraties libérales à des ingérences extérieures est une manne, est une merveille pour ces régimes autoritaires qui y voient l’occasion d’interagir dans les temps à venir, et ils s’en vantent, la Russie s’en est vantée encore il y a peu.
Par définition, je crois, un peu comme ont pu le dire certains responsables européens, que nous devons effectivement abolir la naïveté par rapport à cela.
Nous savons aujourd’hui que nos démocraties sont vulnérables, qu’elles ont mis beaucoup trop de temps à réagir par rapport à ces processus.
Aujourd’hui seulement se posent des questions concernant effectivement les risques politiques et non plus simplement économiques, d’abus de position dominante ou autres, non, de risques politiques sur le fonctionnement démocratique de nos sociétés. C’est un réveil brutal, parce qu’il s’inscrit dans une période de tensions internationales comme rarement : en plus de la guerre en Ukraine, on a maintenant une tension internationale liée à l’affrontement à la fois politique et industriel entre la Chine et les États-Unis avec effectivement, là aussi, la possibilité très claire de faire intervenir ces tensions comme élément de débat dans le processus démocratique.
Donc je dirais, puisqu’on m’a enjoint d’être bref, que je suis d’autant plus heureux que cette commission d’enquête se réunisse aujourd’hui et qu’elle effectue ses travaux en cette période, qu’il y a urgence, c’est-à-dire que ce n’est pas pour une consommation lointaine, vue du politique, par rapport à vos travaux, c’est pour une mise en œuvre immédiate. Je crois que nous devrons, collectivement, réexaminer le modèle économique de ces sociétés que l’on a longtemps considéré comme étant inoffensif et je sais que mon voisin, Monsieur Chavalarias a eu l’occasion de l’écrire dans son livre, Toxic Data. Non ! Leur modèle économique est, je dirais, à l’origine même du problème qui se pose aujourd’hui. Je fais partie de ceux qui pensent, comme le dit aussi madame Shoshana Zuboff [7], que ce modèle économique de ciblage extrême, donc d’extraction massive, de plus en plus massive des données personnelles, constitue une impossibilité de fonctionnement pour les régimes démocratiques. Et je pense que nous, Européens, n’avons pas simplement vocation à réguler les plateformes existantes, mais à créer les conditions d’émergence d’un autre type de plateforme qui ne serait pas lié à l’extraction de plus en plus massive et de plus en plus toxique, de plus en plus dangereuse de ces données, au profit, effectivement, d’autres modèles économiques. Je citerai là-dessus un autre ouvrage, Empires numériques de madame Anu Bradford [8], professeur à Columbia, qui disait que l’Europe doit effectivement être la source d’inspiration de l’ensemble des grands blocs, y compris des États-Unis. C’est une Américaine qui réclame que les États-Unis s’inspirent davantage de nous, ce qui n’est pas si fréquent. Je crois qu’il est effectivement important de penser que nous ne pouvons pas être uniquement sur un rôle défensif, avec tout le respect que j’ai pour les textes importants auxquels beaucoup d’entre vous ont été associés, dont vous Madame la Présidente – DSA [9], DMA [10], DGA [11], AIA [12] pour l’intelligence artificielle. Non ! Il faut être en mesure de développer une politique volontariste, à l’échelle de l’Union, pour, effectivement, développer sur les segments critiques, dont l’intelligence artificielle, qui est déjà notre quotidien, mais qui deviendra, d’un point de vue industriel, un élément central des stratégies des différents blocs. Là, je vous en parle en tant qu’ancien rédacteur de textes de régulation : si nous ne le faisons pas, toutes les mesures de régulation seront contournées.
Je maintiens que la politique industrielle est un élément clé de la régulation de ce secteur. Ça ne parait pas évident parce qu’on se dit qu’il y a d’un côté l’industrie, de l’autre côté… Non ! La régulation fait partie de la politique industrielle et la politique industrielle fera partie de la régulation.
Voilà, j’en ai terminé pour l’instant.
David Chavalarias
David Chavalarias : Monsieur le Président, Mesdames Messieurs les sénatrices et sénateurs, merci de me faire l’honneur de contribuer, avec mon expertise, à cette commission. J’ai déjà entendu ce que vous avez eu l’occasion d’écouter, donc, je vais essayer de me concentrer sur mon expertise sur ce que je peux apporter de nouveau, d’une part en vous montrant comment s’opèrent les opérations d’ingérence et en essayant de vous faire sentir comment l’architecture même des plateformes la favorise et, ensuite, en proposant quelques pistes.
On a lancé, à l’Institut des systèmes complexes, en 2016, un observatoire de l’espace numérique Twitter – Twitter parce que c’était un endroit où il y avait beaucoup d’influenceurs, notamment beaucoup de politiques, et où se passaient notamment des campagnes présidentielles - de manière à essayer de comprendre comment s’articulaient les dynamiques d’opinion, mais aussi comment on pouvait avoir des campagnes d’influence et d’ingérence étrangère.
Je vais vous montrer un petit film qui retrace une reconstitution de ce qui s’est passé au moment des Gilets jaunes où on a pu voir des groupes Gilets jaunes très actifs, relayés sur Twitter, donc des citoyens, qui se sont fait, en gros, accompagner, amplifier, relayer par des groupes étrangers.
Sur cette vidéo, chaque point est un compte Twitter ; on reconstitue dans le temps, une pulsation c’est quelques jours ; en jaune, vous avez toutes les personnes qui relayaient le mouvement Gilets jaunes ; en marron, vous avez les comptes étrangers et, quand vous avez un lien, c’est un passage d’informations. Vous voyez bien la communauté très cohésive des Gilets jaunes qui, en fait, relayait les informations sur ce qui se passait en France et puis toute une communauté internationale, qui s’est mise autour pour amplifier ce mouvement-là.
Autre exemple, juste avant la guerre en Ukraine, quelques jours avant le 24 février, tout un ensemble de comptes vont s’activer pour commencer à relayer la propagande du Kremlin. Beaucoup de ces comptes étaient des personnalités officielles françaises, officiellement pro-russes, ce qui n’est évidemment pas un délit, c’est la liberté d’expression, et ils étaient également entourés de tout un ensemble de relais pour également relayer ce genre de propagande.
Donc, là vous avez un exemple de dynamique de relais d’amplification soit de divisions à l’intérieur de la France soit d’installation d’un certain narratif en France autour d’un conflit comme la guerre en Ukraine.
Dans les différentes études, qu’on a pu faire, on a notamment montré, on a pu détecter quasiment en temps réel les Macron Leaks [13], c’est là où on a pu voir que c’était, d’un côté, l’extrême droite américaine et, de l’autre côté, l’extrême-droite française qui avaient essayé de relayer ce hashtag avec la désinformation qu’elle contenait. Cet événement souligne, en particulier, le fait que les fausses informations restent en général à l’endroit où elles ont été inséminées, donc, ici, dans une communauté très particulière en France, à moins qu’elles soient reprises par les médias ou par les algorithmes de recommandation et c’est notamment l’un des problèmes des algorithmes de recommandation.
Autre chose problématique sur la question de l’ingérence, c’est que, souvent, elle se fait à travers de contenus qui n’ont pas de statuts vrai/faux, par exemple des mèmes, des contenus ironiques ou des choses du type « Vladimir Poutine va utiliser les armes nucléaires », pour l’instant ça n’a pas de statut vrai/faux, c’est une supposition, mais, en amplifiant une croyance, vous pouvez aménager, en fait modifier la perception des citoyens de l’environnement, donc amener à soutenir telle ou telle cause.
Cela veut dire que la modération, le fait d’enlever ou de retirer des contenus qui seraient faux, n’est pas suffisante, puisque là on a vraiment affaire à une espèce d’encerclement informationnel où on va essayer de modifier la perception qu’ont les citoyens d’un problème.
Mais même au-delà, on peut dire qu’un des buts, on va dire long terme, c’est de modifier la structure même des rapports sociaux et des groupes sociaux au sein d’un pays. Entre 2016 et 2022, on a observé l’espace politique français, chaque point est un compte Twitter, les petits filaments sont les relais entre les comptes tweeters, vous en avez à peu près 80 000 sur cette image. Vous avez deux images du paysage politique français, entre 2016 et 2022, et on voit la restructuration du paysage politique français : en 2016, on allait de LFI au Rassemblement national en passant par les partis modérés, PS et LR ; en 2022, PS et LR étaient complètement déstructurés, on a eu un gros bloc d’extrême droite qui a émergé avec, notamment, des nouvelles communautés Reconquête et la nouvelle communauté numérique qui s’est formée pendant la pandémie autour de Florian Philippot sur le thème antivaccin, anti-vaccin/résistance au système. Donc, là, une nouvelle passerelle s’est formée entre, en gros, le spectre de l’extrême gauche et le spectre de l’extrême droite et qui a joué pour la circulation narrative bien au-delà de la pandémie. Par exemple, en ce moment, il y a une reconfiguration autour du climato-dénialisme et cette communauté, qui s’est insérée entre les deux extrêmes, est en train de le promouvoir.
Si ce genre de reconfiguration est possible, bien sûr ce n’est pas qu’à cause des plateformes, mais les plateformes et leur conception même les favorisent pour la raison suivante. Je vais vous donner un exemple. Bien sûr, je ne peux pas tout présenter, mais je vais vous donner un exemple et vous expliquer pourquoi notamment la conception même des plateformes amplifie les discours toxiques.
Les plateformes ont mis en place, depuis 2018, ce qu’on appelle le fil d’actualité qui est l’endroit où les personnes consultent la majorité de leurs contenus. Ce que quelqu’un voit sur son fil d’actualité n’est qu’un petit pourcentage de ce que produit son environnement social, ce sont quelques pourcents, c’est moins de 10 %, ce qui veut dire qu’un filtre est opéré entre ce que produisent les gens auxquels vous vous êtes abonnés et ce que vous voyez effectivement. La question est comment se produit ce filtre-là ?
On a mesuré très précisément. On a montré, par exemple sur le réseau Twitter, que, entre ce à quoi vous vous abonnez et ce que vous recevez dans votre fil d’actualité, il y a 50 % en plus de contenus toxiques, c’est-à-dire du contenu avec des insultes, du dénigrement, des attaques personnelles, etc., et ce, quel que soit, en gros, ce à quoi vous vous abonnez. Si vous vous abonnez à des choses très toxiques, vous aurez 50 % de toxicité encore en plus et si vous êtes abonné à des contenus peu toxiques, vous avez que 50 % en plus. Cela fait que ça va déformer la perception de millions d’utilisateurs – on a le même fonctionnement sur Facebook et sur Instagram, etc., parce qu’à la base, derrière, il y a la question de l’optimisation de l’engagement –, modifier la perception de millions d’utilisateurs vers un environnement plus hostile et vous hostilisez les débats. On a montré que dès que vous optimisez l’engagement, c’est-à-dire que vous voulez mettre dans les fils d’actualité des utilisateurs les contenus qui ont le plus de clics, de likes, de partage – ce qui est fait depuis 2018 – vous avez automatiquement ce genre de biais de négativité.
C’est un gros problème, parce que ça va donc renforcer l’hostilité des échanges et, notamment indirectement, ça va renforcer les personnalités, les comptes qui s’expriment de manière hostile. On a pu montrer que non seulement ça change la circulation d’informations, mais ça change la structure du réseau au sens où ça va mettre, au centre du réseau, au cœur du réseau, les personnes qui s’expriment de la manière la plus polémique et la plus hostile, avec une surreprésentation de 40 % dans le top 1 % des influenceurs de personnes qui s’expriment de manière hostile. C’est vraiment du design de plateforme, le modèle économique utilisé par les plateformes.
Il faut bien comprendre, quand on a des plateformes comme Facebook, plus de trois milliards d’utilisateurs, Twitter, Instagram, etc., que votre opinion publique se forme dans des environnements où, de manière centralisée, vous changez une ligne de code et vous changez complètement la manière de circuler de l’information, la manière des personnes de s’exprimer, c’est-à-dire que les journalistes et les politiques vont changer leur manière de s’exprimer parce que, sinon, leurs discours ne sont pas diffusés, etc.
Maintenant, je veux juste donner quelques pistes pour éviter ce genre de chose. Je quitte les visuels.
Ma thèse – comme on l’a dit aussi à côté, je ne suis vraiment pas le seul à la défendre –, c’est qu’il faut choisir entre le modèle économique des plateformes tel qu’il est actuellement et la démocratie. On ne va pas pouvoir avoir les deux très longtemps. Pour cela, il faut agir de manière systémique, rapidement, et je vais vous donner un certain nombre de pistes qui pourraient être appliquées vraiment en un temps assez court, du genre moins de 12 mois.
La première, c’est qu’il faut défendre les utilisateurs contre les clauses abusives. Actuellement, les clauses des réseaux sociaux, par exemple celles de Twitter, que personne ne lit jamais, sont abusives. Je vous fais le parallèle avec la poste : imaginez un service postal qui vous dit : « J’ai le droit de lire ce que vous écrivez, j’ai le droit de modifier ce que vous écrivez, j’ai le droit de le distribuer aux destinataires ou à d’autres personnes, j’ai le droit de ne pas le distribuer, j’ai le droit de mettre dans votre boîte aux lettres le courrier des gens qui vous écrivent ou d’autres personnes et, quand je le souhaite, je peux fermer votre boîte aux lettres et je n’ai aucun compte à vous rendre. » C’est exactement, mot pour mot, les conditions actuelles de Twitter et de beaucoup de boîtes de ce genre-là, qui sont abusives et qui laissent les utilisateurs à la merci des grands réseaux. Quand on sait que, maintenant, les jeunes ne donnent même plus leur 06 ou leur 07 mais leur Instagram, cela veut dire, en fait, que ces personnes-là sont complètement captives de ce genre de chose.
La deuxième chose. Par rapport aux ingérences étrangères, on pourrait, par exemple, forcer les plateformes à permettre à un utilisateur de s’authentifier en tant que Français, la solution technologique peut exister, tout en restant anonyme et sans donner d’autres informations à la plateforme, il suffit de passer par un intermédiaire, comme FranceConnect, qui certifie que la personne est française, ce qui permettrait aussi aux utilisateurs de filtrer les contenus en disant « je ne veux voir que les contenus émis par mes compatriotes » ce qui permettrait d’éliminer pas mal d’ingérences qui se font, justement, à partir de faux comptes.
Toujours par rapport aux utilisateurs, on peut réguler et imposer la portabilité des données et de l’influence sociale. Avant, quand vous aviez un numéro de téléphone, vous ne pouviez pas changer d’opérateur, donc vous étiez captif et vous payiez plus cher quand vous appeliez un autre opérateur. Il y a eu une régulation, maintenant vous pouvez repartir avec votre numéro. Pareil pour les réseaux sociaux, la plupart des utilisateurs des réseaux sociaux sont captifs, c’est ce qui se passe par exemple actuellement sur Twitter. Beaucoup de personnalités très influentes restent sur Twitter parce qu’elles y ont développé à la fois tout leur thread et qu’elles y ont leur audience, alors que le réseau devient toxique. On pourrait tout à fait imposer le fait qu’un utilisateur puisse partir d’un réseau pour aller vers un autre sans perdre ni ses données ni son audience, et il y a des réseaux, par exemple Mastodon [14], qui ont des protocoles qui permettent de faire ça.
Sur la question d’atténuer l’ingérence. Tout à l’heure, on a parlé de la publicité ciblée qui est vraiment une catastrophe. Il faut savoir qu’en ce moment-même, en mai 2024, des milliers de publicités russes essaiment sur le territoire français, en Italie, en Pologne et en Allemagne, on les a identifiées dans le laboratoire, c’est un des doctorants, Paul Bouchaud, qui l’a fait. On est donc sous le feu alors même que Facebook est censé les modérer et on a mesuré que Facebook modère à peine 20 % des publicités politiques, sachant que c’est très difficile, en fait, de faire une publicité politique. Si vous dites « en ce moment, ils n’arrivent même pas à contrôler le Caillou alors comment voulez-vous qu’ils assurent la sécurité en France », tout le monde sait à quoi on se réfère et ça passera, ça ne sera jamais identifié comme une publicité politique. Vous envoyez ça, de manière massive, au moment où il y a des problèmes en Nouvelle-Calédonie et vous avez un impact.
Il y a un gros problème d’accès, évidemment, aux données. On a fait les analyses que je vous ai montrées tout à l’heure au moment où Twitter avait son API ouverte, d’ailleurs c’était la seule plateforme à avoir ouvert ses données, on a pu démontrer tout un ensemble de biais des algorithmes et des failles de la plateforme qui sont vraies aussi pour Facebook. Maintenant, tout cela est fermé, on n’a plus accès, on est donc complètement aveugle. J’ai regardé beaucoup d’auditions où des plateformes vous disaient : « On modère, on enlève 90 % des contenus, etc. », vous n’avez aucun moyen de le vérifier et nous non plus. À partir du moment où quelque chose n’est pas vérifiable, vous n’êtes pas tenu de le croire à priori. On nous parle aussi souvent de ce qu’on a détecté et, parmi ce qu’on a détecté, ce qui est vrai ou faux, mais on ne sait pas ce qu’on n’a pas détecté et on ne peut pas le vérifier.
On peut mettre en place des routines d’audit. Par exemple, on peut tout à fait vérifier le biais de toxicité en temps réel, sur une plateforme, pour autant qu’on ait les données, cela se fait en temps réel et, comme cela, on peut vérifier que l’écologisation, en gros, du discours était bonne. Là, encore une fois, il ne s’agit pas d’agir sur les contenus, mais de faire en sorte que certains types de contenus ne soient pas amplifiés par rapport à la ligne de référence.
On peut aussi appliquer les principes de réciprocité : des plateformes étrangères sont interdites de déploiement dans leur pays, on ne devrait pas autoriser leur déploiement chez nous. C’est comme si vous autorisiez votre voisin à garder vos enfants, alors que lui ne veut surtout pas que vous gardiez les siens, c’est juste un principe de bon sens.
Côté institutionnel, il y a également plusieurs pistes : le fait de renforcer les espaces publics numériques, on pourrait, comme le disait tout à l’heure Monsieur Benhamou, renforcer l’émergence de plateformes alternatives. On subventionne bien les journaux, d’ailleurs aussi les télévisions, qui respectent une certaine charte déontologique, on pourrait le faire pour les réseaux sociaux qui respectent, par exemple, la portabilité.
Il faut savoir aussi que dans ce contexte-là, on pourra le détailler tout à l’heure, les élections sont très vulnérables par la conception même de nos élections actuellement. Quelque chose qui m’a frappé c’est que, autant en 2017 qu’en 2022, on appelle de plus en plus à voter contre plutôt qu’à voter pour. Pourquoi ? Parce qu’on a des campagnes très hostiles. On a plusieurs candidats au premier tour dont la plupart ne passent pas au deuxième tour, évidemment. Au deuxième tour, il reste deux candidats qui sont haïs par toutes les autres communautés, donc, après, il s’agit de manipuler et de savoir qui est le moins pire. Or, manipuler qui est le moins pire, c’est très facile avec des campagnes de mèmes. Ce qui veut dire que vous pouvez très bien avoir un candidat qui passe au premier tour avec 30 % de soutien, ce qui est déjà beaucoup pour un premier tour, qui est rejeté à 60/70 % par la population et qui passe le deuxième tour, suite à des manipulations. Cela veut dire qu’on a élu, qu’on va élire une personne qui a 70 % de rejet dans la population, ce qui n’est pas vraiment démocratique. Des modes de vote pourraient éviter ça. Le mode de scrutin actuel est un mode de scrutin archaïque qui date de 300 ans, on sait qu’il a plein de failles, il y a des modes de scrutin beaucoup plus récents et meilleurs – je défends beaucoup le jugement majoritaire [15] , mais ce n’est pas le seul – qui permettraient d’éviter tous ces travers. On pourra y revenir.
Dernièrement, juste pour conclure, j’observe beaucoup sur les réseaux sociaux, actuellement et depuis la pandémie, une récupération des valeurs fondamentales de la République, notamment, par exemple, le concept de liberté et, si ce concept-là est récupéré, ainsi que fraternité, égalité, je pense qu’on aura perdu vraiment beaucoup. Il faut donc vraiment veiller à ce que ces valeurs fondamentales soient remises à la bonne place dans le débat public.
Merci beaucoup.
Tariq Krim
Tariq Krim : Bonjour Monsieur le Président, Monsieur le Rapporteur, Mesdames et Messieurs les sénateurs, merci de m’auditionner sur ces questions.
En préalable, je vais peut-être dire je ne suis pas forcément un spécialiste des questions d’ingérence, j’ai plutôt un profil d’entrepreneur – dans le numérique, j’ai monté deux start-ups, donc je connais bien la manière dont fonctionnent ces plateformes. J’ai également suivi les questions de géopolitique du numérique depuis plus d’une trentaine d’années, ce sont des sujets qui me sont évidemment familiers. J’ai été également à la fois au Conseil national du numérique [16] et auteur d’une mission pour le Gouvernement, une mission préalable à la création de la French Tech [17], défenseur infatigable des questions de souveraineté et de savoir-faire français dans le domaine du numérique.
Pour prendre un peu plus de hauteur par rapport à cette question, j’avais proposé de séparer mon propos liminaire en trois parties :
la première, c’est peut-être comprendre plus généralement les enjeux de la géopolitique du numérique et dans quelle mesure les questions d’ingérence se positionnent ;
la deuxième, c’est évidemment soulever les nouvelles questions liées à l’IA, ce qu’on pourrait appeler, ce qu’on commence à appeler aux États-Unis, « la sécurité épistémologique », c’est-à-dire la capacité, pour un pays, de sauvegarder sa propre culture, sa propre connaissance et son propre rapport au vrai ; la question également de l’autonomie cognitive. Comme vous le savez, on utilise de plus en plus des plateformes extérieures à soi pour réfléchir et résoudre des problèmes ;
et puis enfin, si vous me l’autorisez, je parlerai un peu de la question de la souveraineté numérique, plutôt, à mon avis, la fin de ce qu’est la souveraineté numérique et les conséquences que ça aura sur ce sujet.
Je vais être assez rapide.
En fait, ce qui est intéressant, c’est de comprendre qu’il y a trois choses qui se passent en même temps depuis à peu près une vingtaine d’années.
Tout d’abord, après une grande phase d’expansion d’Internet, on est, aujourd’hui, dans une phase de déglobalisation, on appelle souvent ça le Splinternet. Je donne un exemple : la Chine se connecte en 1994 à l’Internet. Trois ans, plus tard, elle décide de se déconnecter, de construire un réseau avec une sorte de firewall : elle laissera passer tout le contenu du reste du monde, mais elle va gérer elle-même ses plateformes, c’est d’ailleurs un des grands sujets. Vous parliez tout à l’heure de TikTok, TikTok peut opérer sur le reste du monde, mais le reste du monde ne peut pas opérer en Chine.
Aujourd’hui, on voit que ce réseau augmente, on parle parfois de ce qu’on appelle un « dictateurnet » où on aurait la Russie, la Corée du Nord, l’Iran, un ensemble d’acteurs. On peut imaginer, à terme, que ce réseau va se séparer, donc, ça pose d’énormes questions économiques, géopolitiques.
La deuxième, quand on parle de ces fameuses guerres, il y a aujourd’hui trois approches, trois types de guerre :
la première c’est ce qu’on appelle la cyberguerre, c’est l’attaque des infrastructures. Quand on entend que tel hôpital ou tel endroit a été victime d’une cyberattaque, ça veut donc dire, à chaque fois, qu’on est dans cette logique de hacking des infrastructures ;
la deuxième, qui a plusieurs noms, on peut parler de guerre cognitive, narrative, warfare, likewar, c’est une guerre qui consiste à vouloir hacker les cerveaux, donc à changer, cela a été bien expliqué auparavant. Ce qui est nouveau, c’est que, pendant très longtemps dans le domaine militaire, on avait une forme de dualité où on avait clairement le domaine militaire et, de l’autre côté, le domaine civil. Et puis guerre en Afghanistan : l’armée américaine a proposé à ses soldats de pouvoir utiliser Facebook et, soudain, on s’est retrouvé avec des conversations entre d’un côté les talibans et de l’autre côté l’armée américaine qui communiquaient sur Facebook Messenger, donc, soudain, une plateforme commerciale s’est retrouvée au cœur. Depuis, on s’est bien rendu compte que les plateformes commerciales sont utilisées à la fois pour les opérations d’ingérence ou des attaques militaires ;
et puis la dernière, qu’il ne faut pas oublier, celle qu’on appelle la « lawfare », c’est utiliser le droit. Ça tombe bien, quand on contrôle l’Internet et qu’on a accès à l’ensemble du monde entier à travers des serveurs, à travers des services, en fait on peut intégrer la loi que l’on veut, notamment le CLOUD Act [18], le FISA [19], toutes ces lois extraterritoriales.
La troisième chose, c’est cette bataille de l’amplification qui est en train d’arriver. Tout ce dont on a parlé se basait sur la question des réseaux sociaux, sur le fait qu’on était dans un environnement où on avait des algorithmes. Et on est en train de basculer, aujourd’hui, dans un nouveau modèle, en tout cas il y a une vision qui s’est mise en place qui consiste à dire que si demain on dispose de suffisamment de puissance de calcul, on va pouvoir répondre à des problématiques très importantes, donc tout le monde est dans une course affolante là-dessus.
À mon avis, il y a deux batailles qui se passent en même temps : la première, la plus connue, la bataille entre la Chine et les États-Unis, une bataille qui est un peu bizarre parce que, en même temps, la Chine et les États-Unis ont besoin l’une de l’autre pour leurs économies, c’est la fameuse militarisation des interdépendances dont mon voisin parle souvent ; la deuxième chose qui, à mon avis, est une guerre qu’on voit beaucoup moins, c’est une guerre avec un accord plutôt tacite entre les États-Unis et la Chine, pour se dire que, finalement, la Chine va pouvoir utiliser les nouvelles technologies pour dépecer l’Europe de ses industries du 20e siècle –—nucléaire, automobile, 5G, télécoms—–, toutes les industries classiques dans lesquelles nous avons prospéré sont aujourd’hui ouvertes.
Donc, quand on parle de cette configuration, il faut comprendre que l’IA va aussi, à un moment ou un autre, remplacer, en tout cas prendre le savoir-faire européen.
Ce qui est intéressant, c’est qu’on est dans un nouvel environnement. Depuis l’arrivée de l’IA, il y a trois choses qu’il faut bien comprendre :
la première c’est qu’on est passé d’un monde déterministe –—les conditions initiales définissent les conditions de sortie, on sait ce qu’on a en entrée, ce qu’on a en sortie ; avec l’IA générative, on est en train d’entrer dans ce qu’on appelle un monde non déterministe, c’est-à-dire que, finalement, on est dans un environnement où, en fonction des points d’entrée –—on le voit quand on tape la même phrase sur ChatGPT—–, on a des réponses différentes et cela va être vrai dans plein de domaines, dans le domaine créatif. Avec l’IA générative, cela veut dire qu’on peut faire quelque chose qui n’existait pas avant et c’est d’ailleurs ce qu’expliquait très bien le fondateur d’OpenAI : les techniques classiques, qu’on connaissait, c’étaient des messages qui étaient ensuite diffusés sur les réseaux sociaux ; aujourd’hui, on est dans un monde où l’IA peut construire des centaines de milliers d’agents traitants synthétiques qui vont convaincre une par une, chacune d’entre elles, les personnes. On est entré dans une ère où on va être non plus dans une personnalisation de masse, mais véritablement une massification de la personnalisation, on va être dans du one on one avec des milliers, des millions d’agents. Cela a un impact évidemment économique. Vous n’êtes pas sans savoir qu’il y a eu d’énormes annonces, en France, notamment avec Choose France, des investissements de Microsoft, de Google dans les datacenters.
Pour cette bataille de l’IA, en fait, on a besoin de trois choses : on a besoin de talents, l’Europe en a beaucoup, on a besoin de puces, elles sont quasiment toutes fabriquées, aujourd’hui, par une entreprise qui s’appelle Nvidia, à ceci près que, pour construire des puces, Nvidia a besoin de l’Europe : les licences, pour les puces, viennent d’Angleterre, l’IP est en Hollande, la machine qui fait les ultraviolets pour imprimer les puces vient de Hollande, une partie des technologies vient d’Allemagne, les lasers viennent de Californie, le coating, ce qu’on met par-dessus les puces, vient du Japon. En fait, on est dans un système qui est quand même très globalisé, donc on a besoin de l’Europe pour construire ça.
Et puis, la troisième chose qui est importante, c’est d’avoir des datacenters. Ce que l’on voit aujourd’hui, depuis peut-être moins d’un an, c’est un changement complet de la stratégie des grandes plateformes qui, jusqu’à maintenant, ne voulaient pas rentrer dans ces datacenters, elles considéraient qu’elles étaient des vendeurs de pelles et de pioches mais ne voulaient pas posséder les mines, on va laisser ça à des acteurs tiers. Aujourd’hui, la pression financière est tellement importante, on est quand même passé de sociétés qui valaient des milliards de dollars à des centaines de milliards, aujourd’hui le terme trillion, c’est plutôt mille milliards de dollars, ça vous rappellera peut-être un film bien connu qui parlait, entre autres, de ce sujet. On est dans une situation où on a tellement besoin de datacenters qu’on va acheter absolument tout. On a eu 18 milliards d’investissements, mais 18 milliards, c’est le prix qu’Amazon va payer uniquement en Espagne pour s’installer avec ses datacenters ; vous allez avoir des investissements colossaux. Pourquoi ? Parce que, à terme, on souhaite évidemment contrôler l’ensemble des données, l’ensemble des choses, parce que l’IA va permettre, on l’espère en tout cas, de construire des environnements synthétiques, construire du savoir-faire. On est dans un changement radical. Aujourd’hui, la question de savoir si l’IA remplace l’emploi est, à mon avis, un faux sujet, on a un problème démographique important et un effondrement des talents, c’est notamment vrai en Europe, c’est vrai en Chine, c’est vrai partout. Il faut plutôt se demander si demain on va pouvoir utiliser l’IA pour résoudre des problèmes importants. On le voit, par exemple, dans le domaine militaire : si vous avez un drone, vous pouvez utiliser une personne pour le contrôler, ce qu’on appelle les fameux drones FPV qu’on voit en Ukraine ; si vous avez des millions de drones, un être humain ne peut pas le faire, donc on a besoin de l’IA. Soudain, tout le monde se dit « on a besoin de ça ».
D’une certaine manière, cet investissement va se faire à plusieurs niveaux, évidemment dans le domaine militaire, mais également le domaine de la culture. Ce qui est nouveau avec l’IA dite générative, c’est, déjà, qu’on ne parle plus d’algorithmes mais de modèles ; on n’apprend pas avec, on ne donne pas des paramètres, on demande à la machine d’apprendre, donc, la question qui se pose, c’est : qu’est-ce qu’elle apprend ; c’est comme l’éducation d’un enfant : où va-t-il à l’école ?, on saura ce qu’il a appris.
L’autre chose importante : on ne s’intéresse plus à des données pures, mais à de la culture. Donc, là, on est dans une problématique qui est tout à fait nouvelle : on a des appareils, des outils qui ont une capacité d’acculturer ou de déculturer des populations entières. On parle souvent d’autonomie cognitive : qu’elle va être l’autonomie cognitive d’un pays ?
Se pose donc, évidemment, la question de la prochaine génération d’ingérence ; aujourd’hui on utilise les réseaux sociaux, d’une certaine manière on joue sur la stabilité émotionnelle d’un pays, finalement ce que l’on voit c’est ce qu’on a vu pendant la campagne américaine de Trump : tout le monde se déteste sans savoir pourquoi, on s’insulte sur Twitter, mais on ne sait plus vraiment pourquoi. Ça s’est maintenu, mais, aujourd’hui, on va passer à l’étape d’après qui va être de convaincre les gens de vivre dans une réalité qui est un peu unique. Peut-être avez-vous lu ce livre de Philip K. Dick qui s’appelait Le Maître du Haut Château, un chef-d’œuvre qu’il a écrit il y a des années, il y a eu également une série, où il imaginait une Amérique divisée en deux : une partie des États-Unis pensait qu’elle avait perdu la guerre, qu’Hitler avait gagné avec les Japonais, et plus on s’approchait du centre des États-Unis, on avait, en fait, l’inverse, des gens qui s’approchaient de la vérité. On était donc dans un pays où on avait, en parallèle, deux visions de la vérité.
Ce qui va se passer avec l’IA, c’est qu’on va être dans un environnement où on aura des millions de versions de la vérité qui vont circuler : des gens, en fonction de leurs groupes d’influence, vont croire dur comme fer. On a parlé de Cambridge Analytica, il faut se souvenir de ce qui s’est passé avec le Brexit : le régulateur des élections s’est rendu compte que des publicités avaient été publiées sur le Brexit, des mois, voire des années après les élections.
C’est un vrai sujet qui m’amène très rapidement à la troisième partie qui est la question de la souveraineté numérique.
Évidemment, la question qu’on doit se poser est, si on veut agir dans cet environnement, soit on utilise les outils des autres, soit on utilise ses propres outils. Le monde de l’informatique a toujours basculé entre deux types de modèles : des modèles centralisés puis des modèles décentralisés. Dans les modèles centralisés, on n’a jamais été très bons, regardez Microsoft quand il y a eu Windows ou encore le cloud ; dans les modèles décentralisés, on a toujours été plutôt pas mauvais parce qu’on arrivait à s’adapter. Le problème, c’est qu’aujourd’hui on a une nouvelle technologie qui s’appelle l’IA, qui est probablement ultra centralisatrice, peut-être même plus centralisatrice que tout ce qui a existé, on se trouve donc dans une situation qui est très complexe.
Mon voisin parlait de politique industrielle, le problème est le suivant. Prenons la fameuse taxe GAFAM de Bruno Le Maire ; évidemment, quand il propose cette idée, qui est une bonne idée, immédiatement les États-Unis vont dire nous allons faire la même chose retaliation [représailles] sur l’agriculture, les spiritueux, le luxe. On est dans une situation où, finalement, on a ce talon d’Achille : on ne peut pas développer de nouvelles technologies, les exporter, parce qu’on a déjà nos industries existantes. La question qui se pose c’est : comment peut-on faire ? Si on prend l’agriculture, l’agriculture tourne quasiment exclusivement sur Microsoft. On n’a pas su, en fait, construire non seulement une politique publique d’achats, Small Business Act, mais également une politique de solidarité de façon à ce que les entreprises françaises qui exportent achètent des entreprises de technologie qui fabriquent localement qui, demain, vont exporter. On est donc dans une espèce de système qui fait que, pour l’instant, on n’a pas réussi à trouver la bonne approche et pour l’instant, pour être très honnête, je ne suis pas très positif sur l’avenir, mais c’est un vrai sujet.
En guise de conclusion brève. Aujourd’hui, on est dans un environnement complètement nouveau dans lequel nous avons une partie de la solution, mais nous n’avons pas suffisamment d’argent pour investir dans ces domaines et, surtout, nous avons un autre vrai sujet : aujourd’hui, nos meilleurs talents partent travailler pour les grands de ce monde qui savent les attirer. Une des questions c’est : si on veut changer les choses et, surtout, si on veut exister à la fois dans le soft power et dans le cultural power de la France, il faudra changer ça.
Merci.
Julien Nocetti
Julien Nocetti : Merci Monsieur le Président, Monsieur le rapporteur, Mesdames les sénatrices, Messieurs les sénateurs, merci beaucoup de votre invitation à m’exprimer sur cette thématique passionnante, avec, peut-être, un propos liminaire de ma part qui vise d’abord à vous dire que je m’exprime au nom du CAPS, le Centre d’analyse de prévision et de stratégie du ministère de l’Europe et des Affaires étrangères, que j’ai rejoint récemment, qui a pour but, depuis une cinquantaine d’années, d’éclairer la réflexion à la décision du ministre, c’est, en quelque sorte, un think tank du ministère qui assume, aussi parfois, son rôle de poil à gratter. Tout ça pour vous dire que cette liberté a une contrepartie qui est que tout ce que je vais pouvoir vous dire n’engagera pas la parole du ministère ni du gouvernement, c’est ma parole personnelle qui fera foi. Précision importante.
Je vais peut-être fonctionner en entonnoir en repartant de mon expertise en relations internationales pour resituer l’enjeu dans sa perspective, une nouvelle fois internationale, européenne, avec une thématique qui est traversée, comme vous le savez, par une terminologie abondante. Ce qui m’a surpris, quand j’ai reçu votre invitation, ça a été de voir que vous avez employé le terme d’« influence » étrangère. Je ne vais pas me lancer dans une digression sur la différence entre influence et ingérence, mais l’enjeu est de taille. De récents travaux parlementaires, dans la chambre basse, sont revenus sur cette différence qui est fondamentale : l’idée que l’ingérence veut vraiment viser à déstabiliser le pays qu’elle cible, ce sont des tactiques qui vont avoir pour objectif une malveillance, une dissimulation, voire une clandestinité dans leurs modalités, alors que l’influence va reposer sur la conviction, la séduction, la persuasion, etc. Il peut évidemment y avoir un fil conducteur entre ces différentes notions : l’influence peut, dans certains cas, paver la voie à des tactiques d’ingérence.
J’arrête ici ces comparaisons, mais, pour le coup, sur nos thématiques numériques, elles ont vraiment une importance. Pour revenir à ma maison, le rapport CAPS AE, en 2018, s’était déjà arrêté, il y a six ans, sur cette différenciation et sur l’expression de manipulation d’information pour catégoriser ce qui, parfois, fait l’objet d’un grand gloubi-boulga dans le discours public et médiatique, avec l’emploi de termes comme la désinformation, la propagande, la subversion, les fake news, les infox, la guerre politique, etc. Tout cela afin de souligner le caractère qui est à la fois malveillant, donc l’intention de nuire, et aussi clandestin, de stratégie informationnelle hostile, parce que vous êtes supposé ne pas être au courant, évidemment des manœuvres qui vous visent.
L’autre point liminaire, que je trouvais important de mentionner devant vous, c’est que cette thématique qui nous rassemble aujourd’hui, brasse, au fond, une myriade de problématiques qui sont autant d’enjeux à traiter pour les décideurs. Ces ingérences numériques vont être, à la fois, un enjeu de stratégies étatiques d’acteurs hostiles, en l’occurrence quand on regarde l’enjeu, évidemment, de Paris ; ce sera un enjeu, aussi, de confiance dans les médias, un enjeu de modération des contenus des grandes plateformes, et Monsieur Chalarias, notamment, l’a très bien abordé, la question des infrastructures numériques, j’aurai peut-être l’occasion d’y revenir, et, enfin, la politique des sanctions, et ça aussi depuis notamment février/mars 2022, on est bien placé pour savoir que les différentes initiatives du législateur européen, qui peuvent être mises en place, ont des impacts très concrets sur la réception de contenus hostiles et manipulés.
Tout cela pose donc une question très concrète pour nous tous : déjà, quelle hauteur de vue peut-on avoir quand on a une telle panoplie de sujets à traiter et comment décider dans un tel contexte, sachant qu’on peut difficilement être expert de toutes ces thématiques ?
Évidemment, je ne vais pas aborder tous ces différents champs, je vais me focaliser sur trois/quatre enseignements relatifs à ces ingérences numériques, en soulignant aussi quelques points d’attention très particuliers, notamment l’un d’entre eux sur la réception.
Le premier point, on l’a aussi un peu abordé, c’est un enjeu qui est devenu vraiment un facteur structurant des relations internationales. C’est évidemment un lieu commun que de le dire, mais quand on allume son poste de radio, son poste de télévision, on est saisi d’un effet quasiment de saturation devant les nouvelles qui ont trait à ces sujets d’ingérence numérique et informationnelle. J’ai compilé juste deux/trois exemples, histoire de vous donner un aperçu de cette densité et de cette complexité.
En avril, il y a quelques semaines, Meta a supprimé son outil de lutte contre la désinformation, qui s’appelle CrowdTangle, avant les élections américaines, pour le coup, dans une période de campagne électorale. Meta est une plateforme sur laquelle prolifèrent les propagandes ciblées, affiliées à la Russie, qui ciblent, en amont des élections européennes, des pays comme la France, l’Allemagne, l’Italie et la Pologne, ce qui a été rappelé tout à l’heure.
Dans le même temps, la Cour suprême du Brésil a lancé une enquête contre Elon Musk pour instrumentalisation criminelle de X, donc Twitter.
Quelques jours plus tard, OpenAI, la maison de la maison-mère de ChatGPT, reconnaissait, dans un rapport, que ses modèles ont été utilisés pour générer des contenus à la fois textuels et visuels dans plusieurs campagnes d’influence internationale, dont l’opération russe RRN [Reliable Recent News] Doppelgänger [20].
Il y a quelques jours, on l’a tous remarqué aisément, sous couvert d’aider ses ressortissants à l’étranger, Pravfond, qui est une fondation du ministère russe des Affaires étrangères, finançait des projets de désinformation et la défense légale de suspects d’espionnage, notamment sur le sol européen, pas seulement, mais en particulier.
C’est évidemment une actualité qui est extrêmement dense et qui doit nous interpeller, bien évidemment, même si ça peut entraîner en retour une forme de lassitude, mais c’est un point de vigilance qu’il est extrêmement important d’avoir à l’esprit quand on n’est pas en mesure d’agir dans ce champ.
Dans une perspective peut-être plus macro, ces manipulations de l’information sont une source majeure de déstabilisation classée par le Forum économique mondial, le WEF, parmi les principaux risques mondiaux en 2024, aux côtés des risques climatiques et environnementaux. En fait, de manière générale, quasiment la totalité des grandes enceintes internationales de débat ont, ces dernières années, réévalué à la hausse le degré de nocivité, de corrosivité que font peser les manipulations internationales sur nos systèmes. À titre d’exemple, prenez la Conférence de Munich sur la sécurité qui, dès 2017, proposait de considérer la démocratie comme étant une sorte d’infrastructure critique qu’il fallait à tout prix protéger des visées hostiles de nos compétiteurs.
Dans une lecture tout aussi macro, je reviendrai ensuite sur un point de vigilance, je voulais relever le hiatus qui est même assez formidable entre cet accès à la connaissance et à la transparence permis par la dissémination des moyens numériques, et les capacités, pour les États, d’agir, via ces manipulations de l’information, dans des interstices de conflictualité, parce que c’est bien de cela dont on parle, ce sont des interstices à la fois juridiques, sociétaux, économiques, etc., sous le seuil, tout en masquant leur responsabilité et c’est bien pour cela qu’on est tout à fait en peine d’agir de façon satisfaisante dans ce domaine informationnel et numérique.
Autre point qui est aussi illustré par différents points d’actualité : ces actions informationnelles ne font plus l’objet d’aucun frein de type moral et visent, aujourd’hui, à instrumentaliser des enjeux, des visuels régaliens. On l’a tous vu ces derniers jours, mais je soulignerais peut-être davantage le récit diffusé selon lequel il existerait un projet de partage de la dissuasion nucléaire française, avec la conscience parfaite, chez les adversaires, que ce type de désinformation sera repris par une partie de la classe politique et des communautés affinitaires sur les réseaux sociaux. Donc, là, vous avez une continuité entre la dimension internationale et intérieure, étatique, qui est tout à fait, aujourd’hui, évidente et qui mérite, là aussi, un regard beaucoup plus fouillé.
Un point de vigilance et c’est, à mon avis, un point assez fondamental quand on cherche, là aussi, à saisir en finesse toute l’importance de cet enjeu des ingérences numériques, c’est de saisir la différence qu’il y a entre une partie de la parole politique sur ces questions et le discours scientifique, Monsieur Chavalarias l’a aussi souligné, avec l’enjeu d’aller déterminer des métriques, d’aller s’intéresser à la réception de différents types de discours, etc. La parole politique, pas seulement en France bien sûr, a le souci, désormais de plus en plus, d’alerter les opinions publiques, les concitoyens, sur les menaces liées aux manipulations d’informations, notamment en allant déclassifier, en allant exposer, de façon beaucoup plus offensive, ces stratégies hostiles.
Le problème est qu’il y a potentiellement un effet négatif de porter des discours alarmistes sur cette menace que représente la désinformation, en particulier sur les perceptions, soit sur la perception qu’on peut avoir des médias, de leur rôle, de leur responsabilité, et de la confiance qu’on peut conserver vis-à-vis des institutions démocratiques.
Ce que je veux dire ici c’est qu’on a une ligne de crête très complexe sur ces avertissements alarmistes, entre la documentation de la présence d’une désinformation numérique et le fait de devoir rendre des comptes, de devoir rendre compte des limites de sa réception, de son influence, donc de son caractère persuasif et corrosif.
À cet égard, vous avez une série de travaux académiques, notamment aux États-Unis, qui a commencé à souligner cet impact à priori négatif des discours publics sur la lutte contre les manipulations de l’information. C’est un prisme américain, pour faire court, qui renvoie à la fois à la modélisation encore parcellaire de la réception de la désinformation – est-ce que ça fonctionne vraiment ? ; à l’idée aussi que toutes les stratégies adverses ne se valent pas toutes et ne fonctionnent pas toujours. Au fond, ici, c’est l’idée qu’on met en avant des stratégies russes, des stratégies chinoises, des stratégies iraniennes, etc., ce n’est pas pour autant que ces stratégies verticales auront des effets de nature stratégique vis-à-vis des cibles de ces États.
Dernièrement, et ça mériterait de faire l’objet de travaux sociologiques en particulier, ces discours alarmistes peuvent susciter une forme d’anxiété au sein de la population. Dit autrement, vous avez toute une pollution, tout un bruit médiatique autour de ces sujets qui est également l’un des objectifs des acteurs qui vont propager des manipulations d’informations. Pour forcer le trait, au risque d’offrir une chambre d’écho aux manœuvres hostiles — en l’occurrence, dans l’actualité immédiate, la Russie, c’est souvent russe —, voire, en plus, de favoriser une forme de soutien vis-à-vis de la restriction de la liberté d’expression en ligne et, à plus long terme, d’aller contribuer à ce fameux désenchantement vis-à-vis de la démocratie.
Vous avez donc une forme d’hyper-vigilance qui va, certes, capter votre attention, mais, exposer des campagnes informationnelles sans apporter d’éléments nourris sur leur impact ne va pas forcément contribuer à l’efficacité des réponses qu’on pourra mettre en œuvre par la suite.
Je sais bien que c’est une problématique extrêmement difficile et sensible, mais ça renvoie aussi, chez nos décideurs, à toute une série de biais, à la fois le mythe du public nécessairement attentif et réceptif à ces discours hostiles ; un autre biais est celui de l’effet magique de la propagande qui, nécessairement, va fonctionner. Je m’arrête ici, pour le coup, mais ça pose des questions tout à fait concrètes.
Un dernier point lié à ça et, ensuite, je m’arrêterai, Monsieur le Président, c’est pour souligner les risques liés à la prolifération, aujourd’hui, d’une industrie privée de lutte contre les manipulations de l’information. Vous avez, aujourd’hui, une attention médiatique qui est assez importante vis-à-vis de différentes études, de différents rapports qui émanent d’acteurs privés, dont il était question ce matin quand on a tous allumé la radio, sauf que ça peut, d’une part, aggraver la crise de confiance qu’il peut y avoir entre nos différentes institutions, à la fois publiques, les concitoyens, le secteur privé qui obéira avant tout, on le sait tous, à des motifs mercantiles. Est-ce qu’il faut laisser, aujourd’hui, la réponse, l’attribution de campagnes informationnelles hostiles quasiment à de grands acteurs privés technologiques ?, je n’en suis pas certain. Ne faut-il pas favoriser l’éclosion, le développement d’une industrie européenne ? On a, aujourd’hui, tout un tissu de start-ups qui est extrêmement compétent et performant pour aller, justement, retisser des fils et essayer de travailler en particulier sur la réception de cette fameuse désinformation. Mais, pour le coup, l’empreinte médiatique des grands acteurs extra-européens est telle que ça met entre parenthèses, très largement, leurs travaux tout à fait passionnants.
Je vais peut-être m’arrêter ici, juste souligner qu’il y a aussi des tendances de fond, notamment sur la clandestinisation de plus en plus marquée de ces stratégies relationnelles hostiles et une autre tendance qui est celle de s’attaquer aux infrastructures numériques pour ensuite viser la réception que des populations entières auront vis-à-vis de l’information qu’elles vont recevoir.
Merci à vous.
Dominique de Legge : Merci à vous quatre, je vais laisser la parole à notre rapporteur. Peut-être une première série de questions, si tu en es d’accord et, après, on pourra laisser la parole aux autres collègues sachant que, pour l’instant, Sylvie Robert a sollicité, Nathalie aussi et peut-être d’autres.
Rachid Temal
Rachid Temal : Merci Monsieur le Président.
D’abord, je vous remercie pour la très grande qualité de vos interventions, de vos analyses croisées et puis de vos propositions.
Un commentaire pour arriver après à une question.
Vous évoquez le stade un, la naïveté, j’ai envie de dire le stade deux, la défense et le stade trois, être offensif.
Peut-être qu’un des sujets de cette commission d’enquête, une des raisons, c’est effectivement de voir le rôle croissant des ingérences dans la sphère politique, donc, dans l’ensemble des sphères, c’est pour cela que nous l’avons mise en place, avec l’idée de dire qu’il faut sortir de la naïveté.
Sur les structures étatiques, on peut dire que, globalement, on en est sorti, j’ai dit globalement, même si on fera des privatisations. Là où ça devient plus compliqué, c’est peut-être sur la société civile où, là, on voit bien qu’on est peut-être encore dans la naïveté.
Vous évoquez plusieurs sujets, vous évoquez le modèle économique de ces plateformes avec leur puissance, en y ajoutant, quand même, que, sur la dualité on voit bien que les Big Tech sont aussi parfois très puissants dans les dispositifs civils et militaires, notamment aux États-Unis. Ils ont donc aussi un rôle aujourd’hui de béquille de l’État, ça renforce les difficultés que vous évoquez, avec la question démocratique, vous l’avez dit, l’industrie, également la question des concurrences de vérité et du rôle d’une puissance publique justement, quand sa parole est dorénavant soit contestée soit, en tout cas, remise en doute.
Une fois que j’ai dit tout cela, ma question est relativement simple : est-ce qu’il est trop tard ou pas ? Est-ce qu’il est possible ou pas ? Quand je vous entends — je ne suis pas un expert comme vous —, vous avez plein de solutions et je ne demande qu’à les croire. Vous l’avez dit vous-même, d’ailleurs Monsieur Krim disait : « Est-ce qu’on a les moyens financiers ? Est-ce que, en face, il y a la capacité ou pas ? Est-ce qu’il y a les talents, etc. ? »
Ma question est simple. Monsieur le Président, nous sommes en fin de commission, nous rendrons les conclusions début juillet, donc ma question : est-ce que ce n’est pas trop tard ? Et, si c’est encore possible, comment pouvons-nous actionner les choses, faire en sorte, justement, que ce rapport-là, via vos préconisations, permette de dire que nous avons compris qu’il ne fallait plus être naïf, il faut continuer la défense notamment via un ensemble d’outils à améliorer, etc., et on a déjà des propositions, mais il y a aussi l’offensive. Je sais que Madame Sylvie Robert évoquera le narratif, elle a raison, mais moi je m’intéresse surtout aux infrastructures : comment créer un autre système d’infrastructures qui soit, justement, en capacité d’être moins sujet à l’économie de l’attention, donc à ce qu’est leur modèle économique algorithmique.
Voilà ma seule question qui, je crois, permettra d’avancer.
Dominique de Legge : Je sens que Monsieur Benhamou a envie de réagir ou de répondre à la question, donc je vais lui donner la parole, mais il ne faudrait pas que ça gêne ou empêche ses collègues de pouvoir également intervenir et dire un mot s’ils le souhaitent. Monsieur Benhamou, allez-y.
Bernard Benhamou
Bernard Benhamou : Si vous me permettez. Je n’ai pas abusé de votre temps, j’ai été économe de mon temps pour l’introduction, je vais essayer de l’être sur la réponse.
Je crois que vous posez la seule véritable question qui vaille, c’est-à-dire, effectivement, sommes-nous déjà trop tard ?
Sur les moyens financiers, je vais tout de suite répondre. Je pense que les quatre dernières années nous montrent que ce qu’étaient des dogmes européens, et moi je l’ai vécu quand, justement bien avant cela, on parlait effectivement de programmes européens ; quand il était question d’un endettement européen, nos voisins allemands répondaient « Nein, quelle était la question ? », c’est-à-dire que ce n’était même pas envisageable, même pas en rêve. On a vu, pour le plan Covid, un investissement de 800 milliards, donc un emprunt européen, aujourd’hui, la même chose risque d’avoir lieu par rapport à la guerre en Ukraine. Je pense et je sais même que ça fait partie de certaines des préconisations de certains candidats aux élections européennes, on sait très bien qu’un emprunt massif européen sur des objectifs stratégiques est non seulement possible, mais il est souhaitable. Quant au fait de savoir si on peut débloquer des milliards de milliards, donc des trillions, je sais qu’il y a tout un doute sur les unités mais peu importe, oui c’est possible, c’est souhaitable et je dirais que ce que font les Américains avec leurs plans sur l’IRA, Inflation Reduction Act [21], est effectivement un exemple, sachant qu’il s’agit déjà, pour eux, d’une distorsion de concurrence vis-à-vis de nous et on le voit effectivement de manière claire.
Là-dessus, je pense que ces dernières années nous montrent que le schéma possible.
Sur la guerre perdue de la vérité, certains chercheurs se sont répandus en disant que c’est trop tard. Je considère que c’est dangereux d’envisager une forme de résignation morale par rapport, effectivement, aux narratifs adverses qui sont multiples, ça a été dit, qui peuvent effectivement être d’autant plus dangereux qu’ils ont des instruments et des leviers d’instrumentation qui sont extraordinairement puissants. Là-dessus, je pense qu’il nous faut nous inspirer d’un autre ouvrage, que je vous recommande, dont la lecture est éclairante dans ce domaine, Les ingénieurs du chaos de monsieur Giuliano Da Empoli, qui, avant de parler du Mage du Kremlin, parlait effectivement des mouvements extrémistes qui ont tendance à se regrouper, ce que disait très bien Monsieur Chavalarias dans son schéma. On voit effectivement que la politique devient centrifuge, là où auparavant, gagnait la politique au centre, maintenant ce sont les extrêmes qui s’agrègent pour constituer, effectivement, une voix majoritaire.
Je rappellerai et c’est l’actualité qui nous occupe ces derniers temps. Vous parliez des instruments de l’État en matière de défense. C’est vrai dans les démocraties, ça devrait l’être ! Aujourd’hui, un grand journal de ce secteur, Wired, évoquait les plans d’un certain monsieur Donald Trump, s’il a le pouvoir, donc son agenda, agenda 47, c’est comme ça, présidence 47e, par rapport à ces domaines et qui est tout simplement de mettre en coupe réglée l’ensemble des instruments de surveillance de l’administration américaine pour en faire un outil de répression politique, de contrôle et de répression politique.
Vous parliez de naïveté. Notre naïveté a été de penser que la démocratie était un fait inéluctable, dans les démocraties. Nous avons à nous préoccuper de ce que seront nos instruments de contrôle si un gouvernement extrémiste venait au pouvoir, y compris en France, et ce n’est pas, malheureusement, de la politique-fiction.
Un dernier point. Sur les instruments de régulation, le Small Business Act a été très brièvement évoqué, qui est un instrument qui existe depuis 70 ans aux États-Unis, 1953, et que nous nous refusons, par le biais d’une influence et d’un lobbying forcenés de certains grands acteurs industriels, à mettre en place en Europe. Je pense qu’il n’est que temps.
De la même manière, des mots qui étaient auparavant tabous sur le protectionnisme que pratiquent massivement les Américains et, plus encore massivement, les Chinois, c’est l’European Buy Act, EBA ; on parle de SBA et de EBA. Il nous faut effectivement limiter. J’ai eu l’occasion, dans le cadre d’un rapport sur le numérique et le développement durable, dont je ferai une communication dans peu de temps, de dire qu’il faudrait une taxe carbone aux frontières, sachant que nos interlocuteurs chinois ont une énergie dix ou quinze fois plus carbonée que la nôtre et qu’on les laisse vendre des voitures dont le bilan carbone global est délirant, parce que, dans la réalité, elles ne seront jamais carbone neutre et encore moins carbone positif, du fait de l’énergie, sans parler des matières premières et de l’extraction des matières premières, terres rares et métaux critiques en question.
Je pense en avoir terminé.
En gros, le propos est de dire que si volonté politique il y a en matière de politique industrielle, l’idée suivant laquelle nous serions nécessairement incapables de la mettre en œuvre est une idée défaitiste, on parlait de résignation dans ces domaines. Je pense que les échecs nombreux et les scandales nombreux, dont Cambridge Analytica dont on parlait, mais aussi d’autres, montrent une voie. Je vous parlais d’Anu Bradford. Dans son livre, Empires numériques, elle dit très bien que ces échecs nombreux conduisent l’ensemble des pays qui observent les différentes plateformes de régulation, les différents blocs de régulation, à considérer que la vision européenne est la bonne et c’est aussi le cas de vos collègues parlementaires américains qui savent qu’une régulation devrait avoir eu lieu dans ces domaines depuis au moins dix ans, depuis l’administration Obama, qu’elle n’a pas eu lieu du fait, là encore, d’un lobbying forcené de ces plateformes et qu’il est temps effectivement. Même en Chine, et c’est assez étrange, on remarque que le texte de régulation sur les données chinoises emprunte au RGPD [22] en ayant, évidemment, une grosse exception sur l’État qui se permet à peu près tout et n’importe quoi en termes d’accès aux données personnelles. Globalement, on voit bien que nous avons un à la fois rôle industriel à développer, un muscle industriel à développer, avec une commande publique dont le Small Business Act pourrait être l’un des vecteurs et avec une exemplarité de l’État dans le choix des plateformes, ce qui nous a occupés avec certains de vous ici par rapport à certains acteurs publics qui, effectivement, considèrent, de façon je dirais là encore naïve, la participation des grandes plateformes américaines à ce qui devrait être des missions de l’État, en particulier sur les données médicales, sur la sûreté nucléaire, sur les données médicales, sur l’ensemble des données sensibles, là on peut parler d’une naïveté historique qui confine à la complaisance. Il est temps, il est encore temps d’y veiller pour changer les choses.
David Chavalarias
David Chavalarias : Je suis d’accord sur le fait qu’il est encore temps, d’ailleurs, les différentes propositions que j’ai mentionnées ne sont absolument pas exhaustives et ne prennent pas forcément du temps, je pense qu’elles peuvent être mises en place en moins d’un an. Vous les avez dans le rapport, bien sûr, mais il y a beaucoup de choses qui peuvent être faites très rapidement.
Il faut quand même se rendre compte, si vous pensez à Facebook : en 2017, nous avons identifié plein de désinformations sur Facebook, d’autres l’ont fait avant nous. Aujourd’hui, dans notre laboratoire, une seule personne, certes très intelligente, mais une seule personne a montré que Facebook a raté 20 % des désinformations sur la campagne politique européenne actuelle. Ça veut dire, tout simplement, qu’une entreprise comme ça ne met par les moyens et ça fait plusieurs années. Donc, un pays est souverain, il peut légiférer, il peut imposer des amendes, il est temps de faire les choses.
Sur des choses à mettre en place de manière très concrète, on a beaucoup parlé de l’IA tout à l’heure, il faut savoir que c’est aussi un peu une course. C’est vrai que l’IA va créer de la désinformation massive, mais on peut aussi essayer de changer les espaces informationnels et, par exemple, le jour où vous arrivez à imposer le fait qu’un utilisateur puisse filtrer ses interlocuteurs par citoyenneté, en fait vous n’avez plus d’interférence avec les IA, parce que les IA ne vont pas se connecter à FranceConnect pour obtenir un badge comme quoi elles sont française.
En fait, il y a pas mal de solutions qui ne sont pas forcément très coûteuses, qui peuvent avoir des résultats quasi immédiats ; il y a des solutions qui vont effectivement demander un peu plus d’argent, mais qui demandent surtout une volonté politique. Il faut savoir, et ce n’est pas pour être alarmiste, que si vous n’avez pas de volonté politique aujourd’hui, personne ne pourra en avoir demain, parce que c’est de cela dont il s’agit.
Tariq krim
Tariq Krim : Très brièvement. On parlait tout à l’heure, si j’ai bien compris, naïveté, défense, offensif ; l’offensif est toujours possible, après, il faut l’assumer, c’est un sujet important. C’est vrai qu’il est limité par le fait que l’on n’a pas accès à des réseaux locaux. On dit souvent que l’opinion russe n’existe pas ou l’opinion iranienne n’existe pas, c’est évidemment faux. On a plein de moyens de le faire.
Ce qui me semble important. On parlait beaucoup des modèles économiques et il y a deux choses que je voulais préciser : la première c’est pourquoi Facebook est développé de la manière dont il est développé, ou n’importe quelle application en fait. Évidemment, aucun des acteurs n’a envie d’avoir un produit qui soit fondamentalement biaisé. Mais, dans la manière même dont ces produits sont construits, ils le sont pour des raisons très simples. Vous avez plusieurs équipes.
La première équipe, qui est l’équipe la plus importante, c’est l’équipe qui développe le produit ; son bonus est basé sur la capacité à faire un produit qui est à la fois très addictif mais aussi qui est capable de croître le plus vite, on parle de growth. Des techniques ont été inventées par Facebook et, d’après une personne que je connais chez Facebook, elles ont fait passer Facebook de 100 à un milliard, avec des stratégies pour grandir dans des pays qui étaient réputés difficiles pour les réseaux sociaux, notamment le Japon ; juste pour l’exemple, la Norvège où on considérait que moins de 50 personnes allaient sur Facebook en une demi-journée. La croissance a été très rapide.
Ensuite, vous avez une deuxième équipe qui s’occupe de la monétisation, c’est bonus puisque ce sont des êtres humains qui sont payés en fonction de fonctions précises : on a fait quelque chose de gigantesque, vous devez donc trouver une façon de monétiser l’espace le plus possible. À partir de là, on leur donne toutes les possibilités.
Et puis, enfin, vous avez une troisième équipe, qu’on appelle souvent en anglais Trust and Safety, qui s’occupe de vérifier que le produit respecte les règles, et cette équipe arrive après, elle arrive après qu’on a demandé en injonction, qui est aussi une injonction du marché de grandir le plus vite possible et de ramener le plus d’argent possible. Elle arrive véritablement dans un troisième point, donc c’est vrai que, fondamentalement, ces questions arrivent toujours à la fin. C’est aussi une des raisons pour lesquelles on est dans la situation dans laquelle on est.
Maintenant, il faut comprendre que le modèle économique est en train de changer. D’ailleurs, il a changé avec TikTok qui a vraiment inquiété Facebook parce que, si vous regardez le modèle de Facebook, ou d’Instagram, c’était un modèle de socialisation, on parle à ses amis, on se compare à ses amis, on fait des choses avec ses amis, on se connecte à ses amis, etc. D’ailleurs, ce qui a créé des problèmes chez les jeunes, puisque, en général quand vous êtes à l’école, et que vous êtes le vilain petit canard, que vous n’avez pas envie d’aller sur Facebook ou Instagram parce qu’on va passer son temps à vous buller, à s’attaquer à vous. Ce qui est génial avec TikTok, c’est que, soudain, on a un système automatisé, on n’a pas besoin de parler aux autres, ça vient tout seul. Et Facebook est dans une poursuite, depuis des années – d’ailleurs ils ont embauché plusieurs personnes, notamment des Français –, pour construire une intelligence artificielle qui soit aussi bonne que celle de TikTok, mais, pour l’instant ça n’a pas marché. Avec l’arrivée de l’IA, on a un risque, non seulement nous sommes des gens qui parlons à des flux uniques, mais ces flux sont totalement synthétiques, n’onnt plus aucune phase avec la réalité, on rentre donc dans un nouvel univers.
Ce qui est important c’est que la valorisation actuelle de ces entreprises est basée exclusivement sur l’exécution d’un projet IA, depuis un an, deux ans à peu près, et tout ce qui existait avant, d’une certaine manière, est mis sur le côté.
Quand on se pose la question de savoir, comme tu le disais, si l’équipe de Facebook ne s’occupe plus de ça, elle a été rebasculée sur les questions d’IA parce que c’est là que Facebook, Google et tous les autres imaginent des revenus futurs. On est aussi dans un domaine très opportuniste où, en fait, on doit créer des narratifs. Le narratif des réseaux sociaux est terminé, ça n’attire plus personne, ça n’excite plus personne, les investisseurs ne veulent pas en entendre parler ; le cloud lui-même est d’ailleurs maintenant moins intéressant. Ce qui est nouveau, c’est l’IA et c’est comment construire ces fameux services qui vont être utilisés par des milliards de personnes et dont on espère que les revenus seront, évidemment, importants.
Julien Nocetti
Julien Nocetti : Un mot très rapide. Je reviens à votre question initiale sur la rhétorique du retard qui, au fond, nous fige et on la retrouve d’ailleurs dans une échelle européenne sur toutes les problématiques de régulation du numérique.
Pour revenir sur cet enjeu du retard, de la temporalité, il faut bien voir ici peut-être deux paramètres, à très grands traits.
Le premier, c’est que nous avons, sous ces thématiques d’ingérence numérique, tendance à nous focaliser sur des épisodes de crise : manifestations, cycles électoraux, irruption de violences localisées, etc. Le problème, c’est que, chez nos compétiteurs il y a une conception du temps long, voire du temps très long, de ces sujets. Il faut donc être en mesure de penser et d’agir, en retour, sur une échelle de temps à laquelle nous ne sommes pas habitués ; c’est une difficulté conceptuelle qui est, à mon sens, éminente et au sujet de laquelle il est très important de réfléchir vraiment urgemment.
Le deuxième point, c’est sur les réponses différenciées qu’on peut apporter. On a une tendance à penser de plus en plus, en Europe et aux États-Unis, des réponses de façon plus offensive dans ce domaine informationnel, c’est-à-dire que ça consisterait à les diffuser, à diffuser notre récit avec le même niveau d’intensité que les adversaires, en jouant sur les mêmes leviers émotionnels, idéologiques, etc. En l’occurrence, si on prend le cas de la Russie, une nouvelle fois, ce n’est pas une surprise, ou des États révisionnistes, ça consistera à aller exposer leur hypocrisie dans certains types de récits qu’ils mettront en avant et ce serait, de cette manière-là, que nous serions en mesure d’aller renforcer, d’aller promouvoir nos valeurs démocratiques. C’est un premier point qui pose, là aussi, toute une série de questions très politiques.
Et le deuxième, c’est de mettre sur un piédestal la défense de nos valeurs, avant tout, qui consiste à dire, globalement, que nous ne devons pas jouer sur le même terrain que nos compétiteurs, parce que nos adversaires ne souhaitent qu’une seule chose : que nous remettions définitivement en cause notre modèle démocratique et tous les différents piliers, le vote, la confiance, etc.
Ce sont donc différentes échelles de réponse qu’il faut aussi être en mesure de bien distinguer et aussi d’articuler.
Sylvie Robert
Sylvie Robert : Merci Monsieur le Président. Merci beaucoup Messieurs.
Je ne vais pas reparler du narratif, parce que mes collègues m’en entendent parler, c’est devenu obsessionnel, mais je vais quand même reprendre les propos de Monsieur Krim, qui m’ont beaucoup intéressée. Vous avez dit, Monsieur, que finalement la période des algorithmes était terminée et que, dans le passage vers l’intelligence artificielle, on allait se retrouver dans un champ que l’on connaît, mais qui est beaucoup plus difficile et, en même temps, peut-être intéressant à appréhender, un environnement culturel au sens cognitif, on parle de guerre de perception, c’est-à-dire vraiment la construction et, du coup, peut-être beaucoup plus cohérente que le simple fait d’avoir des données algorithmiques qui profilent, qui permettent de cibler, et puis de créer du récit, mais là de créer des histoires et peut-être, dans cette période-là, allons-nous devoir finalement prendre conscience qu’on va passer à ce stade-là.
J’avais deux questions. Vous avez parlé d’ingérence. Notre commission d’enquête est sur la question des influences, ce qui n’est pas tout à fait la même chose et je reprends vos propos, c’est-à-dire que notre offensive ne doit pas être de même nature ou alors, peut-être. En tout cas, on peut utiliser les mêmes outils mais à d’autres finalités. Est-ce que cette question de l’IA générative qui va finalement acculturer, vous l’avez dit Monsieur Krim, voire déculturer, c’est cela que je trouve extrêmement préoccupant et, en même temps effrayant, ne va pas être, pour nous, la possibilité, justement, de peser, si on s’en donne les moyens financiers, technologiques, politiques, de pouvoir vraiment travailler à une stratégie d’influence via les médias ? Vous avez dit, je crois, qu’on n’a pas accès obligatoirement aux médias locaux, mais on a aussi des outils d’influence. Est-ce que, pour vous, c’est possible, aujourd’hui ? Monsieur Benhamou, vous avez dit qu’on a encore le temps, en tout cas on peut le faire un petit peu. Est-ce que, aujourd’hui, on peut le faire et qui peut le faire ?
Merci.
Dominique de Legge : Bien. On a compris que la question de la Présidente Robert s’adressait surtout à Monsieur Krim, mais aussi à Monsieur Benhamou, je leur propose de la retenir. Je vais donner la parole à Madame Goulet et après à Madame Morin-Desailly, comme cela on essaiera de répartir les réponses entre vous quatre.
Nathalie Goulet
Nathalie Goulet : Merci Monsieur le Président.
Un constat d’abord. Lorsqu’on a alerté, vous étiez présents les uns et les autres, en tous les cas beaucoup d’entre vous, sur Microsoft qui équipait le Health Data Hub [23] ; nous avons largement alerté, Catherine Morin-Desailly et moi-même, lorsque Microsoft a été choisi pour les données de BPI France pour les prêts garantis par l’État au moment du Covid, pouvant ainsi aspirer les données de milliers d’entreprises ; lorsque Microsoft équipe le ministère de la Défense nous alertons, et puis il ne se passe rien !
Monsieur Nocetti, vous nous avez dit que c’est quand il y a une crise, mais, finalement, pas du tout, parce que même à froid, si j’ose dire, nous sommes très nombreux ici, Catherine Morin-Desailly en tête, à alerter sur des sujets de souveraineté numérique. Donc, venir nous expliquer après que, finalement, tout cela est compliqué et que, peut-être, c’est un peu tard ! En tous les cas ici, dans cette maison, et, encore une fois, il faut rendre à César ce qui appartient à César, Catherine Morin-Desailly a mené ce combat depuis longtemps, elle n’a pas été toute seule, on a quand même été un certain nombre. De ce point de vue-là, c’est un peu compliqué. Comme il y a des prévisions et des stratégies au ministère, Monsieur Nocetti, ça me rappelle une phrase du doyen Vedel qui disait « le plan parle à l’indicatif présent et futur, parfois au conditionnel, jamais à l’impératif. » Bon ! On est quand même dans une difficulté.
Ma première question est : comment expliquez-vous cette naïveté, finalement itérative ?, parce que ce n’est pas une seule fois et ce n’est pas une seule fois qu’il y a eu des mises en garde. Donc, quand on demande aujourd’hui, dans cette commission d’enquête, les moyens qui appartiennent à l’État et aux pouvoirs publics face aux influences, on est quand même face à une difficulté, c’est la première chose.
La seconde chose, c’est votre appréciation. Le responsable de TikTok était là avant vous : d’après vous, quelle est sa marge de manœuvre dans la réponse ? L’intérêt de poser des questions, c’est quand on pressent les réponses, en même temps. Quelle est la marge de manœuvre des responsables de TikTok face à une stratégie qui, manifestement, n’est pas uniquement de leur fait ?
Et puis, la troisième chose, qui est quand même importante, et j’aurai presque fini, c’est la coordination des différents outils, VIGINUM [24] et les autres, la Défense, le ministère des Affaires étrangères, etc., quand le budget de la diplomatie d’influence diminue. C’est aussi un sujet.
Et enfin la fiscalité, parce que, finalement, la fiscalité de ces GAFAM est importante et c’est aussi un outil.
La première question : comment expliquez_vous cette naïveté itérative ;
la deuxième question : quelle est, d’après vous, la marge de manœuvre de TikTok, des responsables de TikTok ici, dans les réponses qu’ils nous donnent, puisque, d’après eux, tout va très bien ;
et monsieur Nocetti, plutôt pour vous, comment fonctionne la coordination entre les différents outils et tenez-vous compte du travail du Parlement ?
Catherine Morin-Desailly
Catherine Morin-Desailly : Quelques mots en complément de ce qui a déjà été dit.
Je dois dire Messieurs, en vous entendant, que je suis consternée, non pas par les propos que vous tenez, parce qu’ils sont toujours plus pertinents que d’habitude, ce n’est pas la première fois que vous vous exprimez devant le Sénat, au moins pour trois d’entre vous, mais on a l’impression que rien ne se passe depuis dix ans. Ce que vous avez dit aujourd’hui, vous le disiez déjà il y a dix ans, en 2013, quand vous avez été auditionnés sur ce fameux rapport « L’Union européenne, colonie du monde numérique ? », puis en 2015 devant la commission qui s’était mise en place, mission commune d’information sur ce que pourrait être le rôle de l’Europe dans la gouvernance mondiale de l’Internet, d’ailleurs peut-être que c’est une question que je vous poserai tout à l’heure, sur cette gouvernance mondiale de l’Internet, et vous nous alertiez déjà sur sortir d’une naïveté complaisante, donc la question de Nathalie Goulet est tout à fait pertinente, pour moi ce n’est même plus de la naïveté, c’est de la complaisance, voire de la complicité à certains égards, à vous de nous éclairer sur ce sujet.
Vous nous alertiez : les plateformes ont abusé fiscalement, puis les plateformes ont abusé économiquement, verrouillant tous les systèmes, d’où le DMA [10] qui s’est mis en place par la suite, les plateformes ont abusé sur les réseaux sociaux et les services en manipulant les opinions, en pratiquant toutes sortes de malversations, des fausses nouvelles, le cyberharcèlement, etc., et vous nous alertiez en disant « attention maintenant affaire Cambridge Analytica, suite à l’affaire Snowden, les opinions occidentales vont être manipulées, c’est la guerre cognitive qui est en route, il faut faire quelque chose », c’était il y a déjà deux ans que certains d’entre vous nous alertaient ici même.
Donc, que faut-il faire, en effet, pour réveiller les opinions publiques, mais avant les opinions publiques, réveiller nos gouvernants, parce que c’est bien cela le sujet ? En France, le sujet a été clairement identifié, des propositions par le Sénat, ont été faites, je reprends l’intitulé de nos propositions de résolution « Pour une stratégie globale et offensive de la gouvernance de l’Internet » qui énonçait toutes les propositions jusqu’aux dernières propositions que vous avez formulées, Monsieur, qui se trouvent dans les rapports que nous avons faits à la commission des Affaires européennes, à l’occasion à la fois du DSA [9], de l’IA Act et du Data Act sur la portabilité, l’interopérabilité.
Donc, que faut-il faire pour que les gouvernants prennent en compte ce que nous disons ?
Les phénomènes ne font que s’aggraver, s’amplifier et vont nous laisser bientôt dans l’impossibilité de réagir. Il n’est pas trop tard, certes, mais quand on voit la force de frappe de ces entreprises qui sont devenues des monstres qui avalent tout sur leur passage ! J’ai été frappée à nouveau par le discours très fort que vous nous avez tenus sur les modèles toxiques de ces plateformes, c’est un sujet que l’on n’arrête pas de mettre sur la table et personne ne semble prendre en compte ce modèle économique toxique et pervers, très identifié, des plateformes. Que faut-il faire ?
Et puis, il y a un sujet que vous n’avez pas traité ou abordé, c’est la gouvernance mondiale de l’Internet. António Guterres évoque une instance mondiale à la manière de ce qui régule, en fait, la question de l’énergie atomique. Je vois que sur l’intelligence artificielle il a pris position, il dit qu’il est nécessaire de réguler collectivement sur ce sujet.
Que pouvez-vous nous dire, à l’heure actuelle, de la gouvernance mondiale de l’Internet, des instances techniques, ICANN, IETF, dans quel sens ça a évolué ? Est-ce que ça a bien évolué ? Est-ce qu’on est toujours dans le multi-parties prenantes de l’ensemble des opérateurs, y compris les entreprises qui ont leur propre intérêt à participer à cette gouvernance ? Que faut-il faire aussi parce que je pense que c’est à l’échelle de la planète qu’il faut se poser sérieusement ces questions et mettre des garde-fous ?
Dominique de Legge : Merci. Avant de vous redonner la parole, ce sera dans le sens inverse de celui que nous avons observé pour démarrer, nous allons démarrer par Monsieur Nocetti, je vais donner la parole à André Reichardt qui a aussi une intervention à faire. Vous avez des questions relativement précises, elles doivent donc pouvoir appeler des réponses relativement précises. André.
André Reichardt
André Reichardt : Merci Président. Merci Messieurs pour cette participation à nos travaux. J’ai beaucoup appris, parce que je n’ai pas participé à tous les travaux précédents où vous étiez intervenus les uns et les autres, si j’ai bien compris, donc j’ai été véritablement sous le charme de ces discours successifs.
Je voudrais poser une question concernant plus particulièrement le travail de Monsieur Chevalarias, en le remerciant pour les pistes d’intervention qui figurent dans ce document dont on nous a donné un exemplaire. Je voulais partir de cette piste concernant la mise en place de routines d’audit des plateformes. Si j’ai bien compris ce que disait tout à l’heure Monsieur Tariq Krim, vous disiez trois étapes : conception, mise en place, après vous disiez monétisation et ce qui m’intéresse, c’est la troisième étape, vous appelez ça Trust and Safety.
Tariq Krim : Trust and Safety, en bon français c’est modération.
André Reichardt : Ce qui m’intéresse c’est cela. Vous disiez que ces gens étaient rémunérés au bonus. Vous nous avez dit quels étaient les critères de bonus des deux premières phases, vous ne nous avez pas précisé le critère de bonus de la troisième phase, or, ça m’intéresse vraiment dans la mesure où, notamment sur TikTok, on voit bien que c’est fondamental. Le Trust and Safety dont vous parlez, pour une plateforme comme TikTok c’est fondamental. Ils nous racontent comment fonctionne leur Trust and Safety et nous avons une appréciation totalement différente de ce qu’ils font.
Quels sont les critères de bonus de ces gens ?, parce que lorsque c’est bien réussi, vous avez bien compris qu’on peut retrouver les mêmes dans la mise en place de routines d’audit de ces plateformes pour, justement, contrecarrer les éventuelles dérives qui peuvent être mises en place par ces plateformes. Donc, ça m’intéresserait de voir, dans notre proposition de lutte en la matière, comment elles fonctionnent véritablement, quels sont les critères qui sont poursuivis, de telle façon à ce qu’effectivement, vous l’avez compris, avec l’utilisation de ces critères, on puisse y faire face dans la lutte.
Enfin, vous pouvez peut-être, Monsieur Chavalarias, nous dire aussi ce que vous entendez par l’évolution des institutions vulnérables aux manipulations d’opinion et, tout particulièrement, vous avez mis entre parenthèses le mode de scrutin. Est-ce que vous pouvez nous en dire plus à cet égard ? Si vous pouvez être un peu plus concret en la matière, ça m’intéresse beaucoup. Je vous remercie.
Dominique de Legge : Merci André.
Nous avons une vingtaine de minutes, vous êtes quatre, vous pouvez faire la division rapidement. On va commencer par Monsieur Nocetti qui va répondre à l’ensemble des questions et plus particulièrement à celles de Madame Goulet.
Julien Nocetti
Julien Nocetti : Exactement. Merci Monsieur le Président.
Je n’ai pas la prétention d’être pertinent sur l’ensemble des questions, dont certaines, d’ailleurs, débordent du cadre des sujets liés aux influences et ingérences numériques, je vais essayer de rester dans un créneau qui, d’ailleurs, n’est pas forcément confortable.
Pour répondre à votre question, Madame la Sénatrice, sur déjà, « prenez-vous en compte du travail du Parlement ? » Oui, effectivement. Oui, et j’ai eu la chance, à titre personnel, d’avoir été consulté lors de différentes missions d’information, commissions d’enquête, sur ces thématiques-là au sens large, et c’est évidemment d’une très grande utilité à chaque fois.
Sur la coordination des différents outils de réponse que la France a mis en œuvre, là-dessus je n’aurai pas une lecture franco-française, je vais y revenir, c’est-à-dire que j’associe aussi l’Union européenne dans ce qu’elle a pu mettre en place ces dernières années, d’ailleurs ce sont des moyens qui se renforcent depuis 2022/2023. Tout simplement, pour revenir sur le cas de la France, dans les différentes auditions que vous avez pu mener jusqu’à présent, ce qui doit ressortir, j’imagine, c’est effectivement d’une part un contexte de foisonnement doctrinal, le mot doctrine est peut-être un peu fort, mais je l’emploie à escient, sachant qu’on est dans un contexte où, vous l’avez rappelé, je crois, la diplomatie d’influence, certes, qui pourrait être mieux dotée financièrement, est en cours de révision ;
du côté des armées, la lutte informatique d’influence, la L2I, est aussi particulièrement rodée aujourd’hui et est déployée, c’est tout un champ d’action qui est très évidemment pertinent ;
la création de VIGINUM [24], en 2022, a donné lieu à un intérêt très poussé de la part des partenaires et alliés de la France avec, pour le coup, l’idée que c’était un nouvel objet institutionnel dans ce champ des manipulations d’information, qu’il ne faut pas forcément imiter tel quel mais du moins, aller consulter et ça vaut le coup dans mes fonctions actuelles. Il est extrêmement frappant de voir qu’il y a une forme de « modèle », entre guillemets, français sur ce sujet-là de lutte contre la désinformation qui prend forme, qui n’a pas été soudain, mais qui se renforce au fil des ans, évidemment.
Cette coordination institutionnelle se fait notamment via le GDSN [Global Data Synchronisation Network], que vous avez également dû consulter, mais, globalement, le contexte dans lequel nous évoluons à ce niveau-là, en France, est tout à fait rodé et, une nouvelle fois, toute la séquence qui s’est produite à partir de 2017 a permis à la fois de renforcer la prise de conscience et de tester différents modes de réaction.
Sur l’échelle d’actions européennes, que je ne sous-estimerais pas à titre personnel, vous avez la Boussole stratégique [25] qui a été adoptée il y a quelques années et qui a tout un passage sur ce que les décideurs européens appellent les FIMI, les manipulations de l’information et les ingérences étrangères, avec une boîte à outils qui est incluse dans cette boussole. Vous voyez que le législateur européen est toujours assez taquin, on parle de boussole, de bac à sable, de boîte à outils, c’est toujours un vocable assez curieux, mais très concret lorsqu’il s’agit de ces menaces informationnelles, avec un système d’alerte rapide, qui a été mis en place dès 2019, donc avant le Covid, et qui associe à la fois les États membres et les institutions européennes, donc la Commission et le Parlement principalement.
Ce mécanisme d’alerte rapide est particulièrement mobilisé depuis quelques mois, par le « format de Weimar » [26] qui associe Allemagne, France et Pologne, et je pense que vous auditionnerez le ministre des Affaires étrangères, Monsieur Séjourné, dans quelques semaines et c’est probablement quelque chose qui ressortira de son propos, à savoir une mobilisation de ce format précis pour aller montrer une cohésion entre pays affinitaires sur ces sujets, vis-à-vis de la Russie, et pas seulement, encore une fois.
Cette interaction permanente, Union européenne/France, se fait aussi, à mon sens, de mieux en mieux, même si, évidemment, on ne peut pas porter une seule voix à 27 de façon constante sur ces enjeux extrêmement évolutifs.
Très rapidement sur la naïveté. Je n’ai pas la prétention de répondre de façon exhaustive à cet enjeu-là, je relèverai juste que quand on parle de souveraineté, c’est vrai que vu des États-Unis, à la fois de l’État fédéral et des acteurs privés, il y a cette idée qu’on vit dans une ère numérique qui est totalement déspatialisée, donc que la souveraineté vespasienne telle qu’on a pu la penser depuis des siècles, ne s’applique pas, ou seulement partiellement, à cet univers numérique et de là les incompréhensions qu’on peut avoir de part et d’autre de l’Atlantique. C’est évidemment une réponse insatisfaisante et très partielle, mais nos conceptions, au-delà des intérêts politiques nationaux, sont quand même globalement très divergentes, malgré les travaux d’universitaires comme Anu Bradford ; Bernard relevait qu’elle est américaine, mais, en fait, elle est née Finlandaise donc elle a aussi, quand même, une identité européenne qu’elle ne le cache pas.
Je m’arrêterai peut-être ici.
Dominique de Legge : Merci.
Monsieur Krim, vous répondrez surtout à Madame Robert.
Tariq Krim
Tariq Krim : Oui, absolument.
Je voulais juste peut-être faire un point sur le troisième modèle dont on a parlé, le Trust and Safety. La raison pour laquelle je n’ai pas vraiment parlé de bonus, c’est qu’en général, les gens qui s’occupent de ce genre de tâche ne font pas partie des entreprises, ce sont souvent des gens qu’on utilise, des entreprises extérieures, ça peut être aux Philippines, ça peut être dans le centre des États-Unis. Ce sont des gens qui, en général, se retrouvent à voir les immondices de la planète, c’est-à-dire tout ce que personne ne doit pas voir, d’ailleurs ce sont des gens qui ont souvent des chocs psychologiques. On dit souvent que deux types de gens voient ces images : les gens qui font le Trust and Safety, donc les gens qui doivent naviguer dans les égouts de l’Internet, et les forces spéciales qui analysent les fameuses vidéos terroristes.
Une des stratégies de ces plateformes a été de dire « on va utiliser l’intelligence artificielle pour limiter ce travail », ça marche, mais ça ne marche pas complètement, donc, c’est vrai que ça pose une vraie question : très souvent, une stratégie que les grandes entreprises ont, c’est qu’elles travaillent avec des prestataires qu’on peut changer, qui n’ont pas forcément les mêmes droits et qui n’ont pas accès aux mêmes soutiens psychologiques. C’est un vrai sujet. Il y a aussi beaucoup de gens qui travaillent aussi en interne.
Pendant très longtemps, si vous voulez, puisque le résultat de la régulation est une amende qui correspond à quelques centaines d’euros pour un particulier, on continue. Il y a donc une sorte de vision assez cynique : combien va nous coûter la régulation et, si on ne respecte pas les règles, combien ça va nous coûter ? C’est là où, il faut le dire, le DSA et le DMA vont être un changement puisque, là, on commence à toucher au portefeuille.
Pour revenir sur la question que vous aviez posée, en fait ce qui est intéressant c’est, à mon avis, qu’il y a une véritable évolution dans le monde des réseaux sociaux. Le problème c’était le rapport à la vérité. On est soudain inondé de narratifs divergents, on ne sait plus où aller, on ne sait plus qui croire, que croire et c’est un vrai sujet qu’on a vu depuis les élections, depuis le Brexit où, finalement, une partie des gens ont cru des choses qui se sont avérées totalement fausses, construites, évidemment aux États-Unis également.
À mon avis, ce qui se passe avec l’IA est assez différent et c’est intéressant. Récemment, il y avait un article extraordinaire de Wired sur cette question : si vous cherchez en Chine, sur l’Internet chinois, des informations sur Jack Ma, qui est l’équivalent de Jeff Bezos, l’un des entrepreneurs les plus connus, il n’y a plus aucune occurrence, il a disparu. C’est-à-dire qu’en permanence, avec la censure, on est dans un monde où il n’y a pas de mémoire, et ça pose un problème sur l’IA, puisque l’une des vraies forces de l’IA, c’est de pouvoir cataloguer les choses, avoir une évolution des points de vue, aller sur 10/20/50/100 ans, c’est pour ça qu’une partie de la littérature a été utilisée, pas toujours légalement, parce qu’elle est cette mémoire de l’humanité. La question qui se pose avec l’IA, c’est véritablement une question du rapport à la mémoire. Ce qui m’inquiète et qui me pose des questions c’est qu’effectivement la mémoire du Web français c’est archive.org aux États-Unis : que se passe-t-il si demain Wikipédia, donc Wikimédia, disparaît, et qu’on n’a plus que les IA génératives pour répondre à telle ou telle question ? Prenons le référendum sur Maastricht, si ça disparaît, la date change. On s’est tous émus de voir que la jeune génération n’était plus capable de se souvenir des dates essentielles parmi lesquelles, malheureusement, la Révolution française, Marignan et d’autres, mais que se passe-t-il si, effectivement, ce rapport à la mémoire change ?
À mon avis, un des antidotes, un projet qui m’a toujours passionné, j’en ai parlé à différents gouvernements, c’est de s’assurer qu’on a une archive numérique de qualité, également dans un monde où la culture devient le nouveau pétrole. Soit on considère que c’est une matière fossile et qu’elle n’a aucune valeur, ce que les grandes plateformes américaines imaginent, soit on considère que c’est une matière vitale et, dans ce cas-là, elle a une valeur. Ce qui me gêne dans les discours que l’on peut avoir au niveau de l’Europe sur l’IA, y compris sur la régulation de l’IA, c’est que le principal avantage de l’Europe est toujours effacé : la question culturelle, l’archive culturelle, la vision culturelle, le futur de la créativité, et ça va être un des vrais enjeux. Pour moi, la question de la mémoire va être fondamentale, puisque désormais les images sont générées, le monde est synthétique. Peut-être que dans dix ans le monde réel, ce que j’appelle parfois « l’internet analogique », qui est en lien avec une réalité du monde, sera ultra minoritaire dans ce nouvel Internet et que, dans cet Internet analogique, la vérité sera finalement un petit point, et rechercher la vérité, ce sera finalement comme des fouilles archéologiques aujourd’hui, c’est-à-dire aller chercher dans des milliards de milliards de données synthétiques les données qui sont des données réelles et dont une partie d’entre elles correspondent à la vérité.
Il y a donc un vrai sujet qui consiste à savoir préserver la mémoire, préserver les archives, parce qu’on sera dans un débat permanent entre des archives physiques ou des archives numériques, qui correspondent aux textes premiers, et des systèmes compressés, ce qu’on appelle les LLM qui sont, en fait, une sorte de compression du savoir : on a une machine qui a appris et qui est capable, plus ou moins, de nous répéter, de nous ressortir les choses, mais on n’est pas toujours sûr que ce qu’elle dit est vrai, elle peut avoir des hallucinations.
Donc, à mon avis, cela va être une question clé qui est, dans la question de l’ingérence, évidemment essentielle : si les Français n’ont plus la capacité d’être certains d’éléments qui sont factuellement vrais, là je parle pour dans quelques années, alors on aura des ingérences d’une implacable efficacité.
David Chavalarias
David Chavalarias : Par rapport à la question des audits, juste pour préciser, il y a, en gros, deux grandes manières d’auditer les plateformes : d’une part, c’est demander l’accès à leur code, mais c’est très difficile, pour des raisons de secret des affaires souvent elles refusent, etc., et l’autre d’arriver à calculer, en fonction de ce qui rentre, c’est-à-dire les messages que produisent les gens, et de ce qui sort, s’il n’y a pas trop de distorsion. Par exemple, le biais de toxicité dont je vous parlais tout à l’heure, est une distorsion qui doit être mesurée, pour laquelle il faut demander une correction, puisque ça fait partie d’un risque systémique. Donc, mettre des sondes qui permettent, en gros, de mesurer le décalage entre l’entrée et la sortie, c’est peu coûteux et c’est facile à faire pour autant qu’on ait accès et l’accès n’est pas coûteux non plus pour les plateformes, à toute heure, avant, tout le monde avait accès, on pouvait faire ces mesures, maintenant ils ont coupé, justement parce qu’ils ne veulent pas qu’on vérifie.
En tout cas, pouvoir faire des mesures comme ça, pour moi c’est indispensable.
J’ai parlé de la toxicité. Il faut savoir aussi que, par exemple, Twitter adapte les contenus en fonction de votre opinion politique, ça aussi on l’a mesuré, or c’est interdit en France : vous ne pouvez pas adapter le produit à l’opinion politique d’une personne ; Twitter le fait, Facebook le fait probablement. Là, le DSA est en train de mettre en place un accès, mais, en fait, c’est très compliqué, on ne peut pas faire de la recherche avec ça, c’est impossible de faire des audits. Il faut donc que des instances indépendantes et aussi la recherche académique puissent facilement faire ce genre d’audit et, encore une fois, c’est quelque chose ni de coûteux ni de très compliqué, on peut le faire. C’est d’autant plus important qu’il y a tout un débat sur la liberté d’expression sur les plateformes, est-ce que c’est de la censure, etc. Là je ne parle pas de censure, je parle justement d’agir en faveur de la liberté d’expression, puisque, sur ces plateformes, la modulation du discours est en fait une atteinte, d’une certaine manière, à la liberté d’expression, même si sur ces plateformes ça n’a aucun sens, puisque, sur une plateforme privée, tout ce qui compte ce sont les conditions d’utilisation ; la liberté d’expression, c’est pour l’espace public. Mais ces plateformes privées, si grandes, devenant de fait des espaces publics, on peut se poser cette question-là et ce qui se passe actuellement c’est que, par exemple, à un moment donné, Twitter a décidé que le mot « Mastodon » devait être banni, parce qu’il voulait éviter que ses utilisateurs migrent vers une autre plateforme. Là, il y a donc concurrence déloyale. En fait, en défendant le fait que la diffusion d’informations se fait de manière neutre, c’est-à-dire pas en amplifiant certaines caractéristiques, c’est défendre la liberté d’expression, ce n’est pas du tout de la censure.
En ce moment, les plateformes font la différence entre freedom of speech et freedom of reach, donc la liberté de parler et la liberté d’être entendu. Nous, nous parlons de liberté d’expression, ce qui veut dire qu’on peut s’exprimer et être entendu sans avoir de mesures de répression : si vous avez la liberté de parler, mais que personne ne peut vous entendre, en fait c’est une atteinte à la liberté d’expression. Cela, pour la question des audits.
Sur la question de l’évolution des institutions. Ce que j’ai expliqué tout à l’heure, c’est qu’on est dans un monde où beaucoup d’opinions, d’ailleurs la majorité, se forment notamment en ligne. Il faut savoir que les réseaux sociaux ont un taux de pénétration, en France, de 80 %, c’est énorme, donc il y a des opérations d’influence où des acteurs ont intérêt à, en gros, extrémiser les débats.
Quand vous extrémisez les débats, ça veut dire, en gros, que vous fractionnez l’opinion publique. Par exemple, pour les élections, vous empêchez les ralliements, vous empêchez le débat normal, ce qui fait qu’avec le mode de scrutin actuel, où on a une voix donnée à une personne, vous avez les phénomènes, par exemple, de vote utile qui peuvent être instrumentalisés pour diviser des voix et faire passer, au deuxième tour, des candidats qui n’y seraient jamais arrivés. Ensuite, donc au deuxième tour, vous avez deux candidats qui, étant donné les campagnes d’avant, ce que je disais tout à l’heure, sont souvent détestés par tous les autres partis – à tort ou à raison mais les campagnes font ça –, ce qui fait qu’après il faut voter pour le moins pire et, comme je l’expliquais tout à l’heure, manipuler qui est le moins pire, c’est assez facile avec des campagnes de mèmes, des campagnes de robots, etc. Ce qui fait que le vote qui est censé élire quelqu’un qui, en gros, a la préférence majoritaire, peut tout à fait finir par élire quelqu’un qui, finalement, est rejeté par la majorité de la population. Par exemple, les méthodes de vote actuelles ne tiennent pas compte du rejet non plus. Dans le grand débat, un des grands thèmes qui ressortait c’est la question du vote blanc, ça n’a jamais été discuté. Je ne suis pas là pour défendre ça, juste pour expliquer que le vote actuel est, en fait, très manipulable, parce que extrêmisation au premier tour et, après, manipulation de la perception du moins pire au deuxième tour, c’est facile, avec les environnements numériques qu’on a.
Il y a des méthodes de vote, je parlais tout à l’heure du jugement majoritaire. Il est démontré mathématiquement, par rapport à la structure, qu’il est moins sensible à la manipulation par extrêmisation des préférences, c’est-à-dire que le résultat change moins si vous cherchez à pousser les gens à extrêmiser leurs préférences ; il a aussi plein d’autres avantages, notamment qu’il n’y a plus le vote utile et il permet des débats en amont plus intéressants, mais ça prendrait trop de temps pour détailler ça.
En tout cas, juste pour expliquer que les modes de scrutin actuels sont archaïques, la démocratie est malade de son mode de scrutin. Or, la théorie du choix social a fait beaucoup de travail depuis et il y a énormément de solutions qui ont été proposées ces 10/20 dernières années, qui sont très intéressantes et qu’il faudrait vraiment regarder. En ce moment, c’est comme si on roulait en carrosse alors qu’on a la Ferrari.
Juste pour terminer, on a beaucoup parlé d’IA. J’insiste sur le fait qu’un des grands dangers de l’IA, à mon sens, c’est d’avoir trop d’espérance en l’IA. Si tout le monde se met à croire que l’IA va résoudre plein de choses, etc., on part dans une fuite en avant, notamment en consommation énergétique mais pas que, qui va nous amener dans de fausses solutions. Je vous rappelle que ChatGPT, aussi intelligent soit-il, ne sait pas ce qu’est la lettre « e » ; vous lui demandez d’écrire un texte sans la lettre « e », il n’y arrive pas, il ne sait pas ce que c’est que la lettre « e », donc, il ne faut pas lui prêter trop de choses.
Ça peut aussi divertir notre éthique : un journal israélien a sorti que l’armée israëlienne utilise l’IA pour ses drones, mais pour pouvoir utiliser ses drones, elle aurait augmenté le taux de dégâts collatéraux admissibles. C’est-à-dire qu’on utilise une technologie en pensant qu’elle est très efficace, mais, en fait, elle n’est pas si efficace, elle fait beaucoup de dégâts collatéraux et, pour pouvoir l’utiliser, on abaisse nos standards éthiques. On risque, par de fausses espérances, d’abaisser les standards éthiques dans plein de domaines à cause de l’IA, donc attention. Je pense qu’un des grands dangers c’est de penser qu’elle peut faire plus que ce qu’elle ne fait vraiment, pour le moment en tout cas.
Bernard Benhamou
Bernard Benhamou : J’ai effectivement quelques éléments pour tenter de répondre.
Déjà, j’ai beaucoup apprécié l’expression « naïveté itérative » qui donne le bénéfice du doute à nos interlocuteurs, là où certains sont plus sévères et pensent qu’il y a une complaisance volontaire. Effectivement, lorsqu’un même fait se produit de manière répétée, en l’occurrence un même choix politique par rapport à ces plateformes, ça ne peut pas être totalement lié au hasard et, lorsque la pièce retombe toujours, systématiquement du même côté, on finit par se poser la question. Donc oui, je pense qu’il y a un aveuglement idéologique, une sorte de fascination ultralibérale par rapport à ces plateformes, celle qui a le plus fasciné nos élites, il y a peu, c’était Uber, effectivement, avec ce côté disruptif par rapport au travail, par rapport aux situations anciennes, et je pense qu’on n’est pas sorti de ce modèle-là.
De surcroît, quand, d’un côté, je dirais la main gauche de régulation, dit exactement le contraire de la main droite de prescription, c’est-à-dire de choix pour l’État, il y a à s’interroger dans les plateformes ou dans les passerelles qui n’existent pas entre les deux. Quelque part, vous êtes l’une de ces plateformes et, d’une certaine manière, vous nous demandiez « que peut-on faire ? », je pense effectivement qu’il y a une alerte que vous avez conduite bien souvent et bien avant tous les autres, mais il y a aussi des messages issus de structures et d’institutions, comme les vôtres, autour, effectivement, de l’opacité.
Tout à l’heure, on citait la plateforme des données de santé. Un de vos collègues parlementaires, le député Latombe, a demandé à ce que soit transmis le plan de migration qui avait été annoncé par le gouvernement, puisque monsieur Véran, ministre de la Santé à l’époque, s’était engagé, il y a trois ans, à ce que cette migration se passe sous les 18 mois, on a déjà dépassé de beaucoup, votre collègue parlementaire a demandé le plan de transmission de ces données qui ne lui a jamais été transmis, pour l’excellente raison, me semble-t-il, qu’il n’existe pas, ce qui est la meilleure raison pour laquelle on ne pourrait pas le lui transmettre. Mais, à un moment donné, il faudra dire les choses !
De la même manière, que la DGSI – je citais tout à l’heure les services de renseignement – s’est longuement mobilisée pour essayer de se départir de Palantir, je ne sais pas si vous savez, le logiciel sur le big data sur le terrorisme, qui était une création de la CIA, qui équipe tous les services de renseignement américains, mais vraiment tous, y compris tous les états-majors militaires. Par définition, c’est encore en cours dix ans plus tard, après avoir été annoncé, tambours et trompettes, depuis longtemps, donc voilà.
Vous me parliez de TikTok et de ses responsables locaux, une chose amusante de la commission d’enquête qui s’était réunie il y a un an, je crois, ce n’est pas compliqué, ils ne savaient même pas qui était le véritable responsable de TikTok. Il a fallu qu’ils fassent pression pour obtenir le nom, au départ c’était un nom français, en fait c’était une dame chinoise qui exerçait ces responsabilités et, en toute dernière minute, ils ont changé pour mettre quelqu’un à la place, en lieu et place. Il y a donc une opacité absolue de TikTok, contrairement, effectivement, aux autres réseaux. On peut avoir des métriques auprès des chercheurs et je précise que Twitter, X, est extrêmement méfiant par rapport aux chercheurs, ils ont même rendu payant l’accès aux API, aux interfaces de programmation, là où, auparavant, c’était gratuit. Je pense que ce serait une légitime demande, requête, que d’obliger ces plateformes à ce que les données soient accessibles gratuitement aux chercheurs et non pas, en plus, les obliger à dépenser de l’argent. Mais, dans le cas TikTok, on n’a tout simplement pas la possibilité de savoir qui a dit quoi. C’est ça qui est très particulier, donc, par définition, des modifications, des amplifications.
Tout à l’heure il était question de freedom of reach, c’est-à-dire qu’un propos de comptoir, tenu entre deux personnes, puisse avoir 100 millions de vues, est une anomalie. Et penser qu’eux-mêmes peuvent effectivement rendre visibles, auprès des personnes, des messages en apparence destinés à un tout petit cercle, pour, justement, leur donner une amplification, donc leur faire porter un message politique, c’est effectivement dangereux.
Madame la Présidente, vous posiez la question sur la gouvernance mondiale de l’Internet qui fut l’un de mes anciens métiers, donc je suis sensible à la question. Oui, il y a des écrits très intéressants dans ce domaine. À l’heure actuelle, je ne vous cacherai pas que les organismes dont vous parliez, dont nous avions longuement parlé en d’autres temps, l’ICANN [Internet Corporation for Assigned Names and Numbers] et quelques autres structures internationales, n’ont qu’un rôle totalement mineur, parce que le pouvoir est détenu par ces quelques sociétés dans ces domaines.
On a vu, par exemple sur les organismes de régulation du Web, que le pouvoir est totalement dévié vers les Apple, Google, au détriment de tous les autres.
Donc, par définition aujourd’hui, le côté multipartenaires, le terme anglais c’est multistakeholders, est un vœu pieux. Dans la réalité, il y a une reprise en main du pouvoir par ces grands acteurs. Point !
Je vous invite à lire l’excellent ouvrage – Dieu sait que je ne fais pas souvent la publicité pour l’un de ses coauteurs –, coécrit par monsieur Henry Kissinger et Eric Schmidt, The Age of AI and Our Human Future, « L’âge de l’IA », dans lequel il décrit, et là c’est vraiment à propos de Kissinger, la nécessité de calquer les mécanismes de régulation de l’IA sur les mécanismes de la limitation des armements nucléaires, et c’est passionnant. Il dit que c’est compliqué, mais même par rapport à la Chine et même par rapport à la Russie, à un moment donné, leur intérêt sera de se mettre autour d’une table et de négocier. C’est véritablement un élément intéressant, c’est-à-dire que le risque sera trop grand, y compris pour eux. À l’heure qu’il est, on pourrait penser que c’est nous qui sommes dans la seringue et eux qui agitent le piston, c’est un peu plus compliqué que ça.
Il a été question, tout à l’heure, du patron d’Alibaba – Alibaba est un peu l’équivalent, la copie carbone d’Amazon en d’autres temps –, il faut quand même rappeler une chose : il a été rayé des cadres, déporté, mis sous résidence surveillée, maintenant exilé au Japon, parce qu’il a osé s’en prendre à la politique non pas fiscale, mais de financement des petites entreprises en Chine, et là, il est devenu un paria. Et lui-même, qui était venu, si vous me permettez l’expression, se pavaner à Vivatech, il y a quelques années, en disant « les Européens ne savent que réguler, nous, quand on a un problème on cherche d’abord à le résoudre », mais eux ont un problème que tous nos amis spécialistes de la Chine, qui ont des activités industrielles dans ce pays, reconnaissent : ils n’ont pas de justice indépendante. Donc, ce qui manquait à ce monsieur Jack Ma, c’est une justice indépendante qui ne le mette pas, littéralement, en situation de devenir un paria, exclu de sa propre société, démis de ses fonctions et mis en résidence surveillée.
À un moment donné, il a été question du long terme que pourraient avoir les dictatures par rapport aux démocraties, c’est un long terme relatif, parce que dans la réalité, ce que me disent mes amis experts dont un que nous connaissons bien, Jean-Paul Smets : quand il est question des feuilles sur les journaux financiers en Chine, 75 % des gens finissent par être en prison, pourquoi ?, parce qu’ils atteignent un seuil critique de dangerosité et ils sont littéralement éjectés par le Parti communiste chinois. Donc l’idée suivant laquelle – et on l’a vu avec la politique zéro Covid en Chine, qui a été une catastrophe –, qu’un régime a plus le temps parce qu’il est effectivement en situation de dictature ou d’autoritarisme, c’est plus compliqué que ça n’en a l’air. Je dirais, mieux encore, que l’un des problèmes que nous avons pu remarquer dans ces pays, c’est que les signaux faibles ne leur remontent pas, ne remontent pas au sommet de peur de déplaire, c’est ce qu’on a vu avec le Covid au départ : les gouverneurs locaux n’osaient pas faire état d’un risque, donc, il y a eu un retard à l’allumage de quelques semaines qui a conduit à l’extension que l’on sait.
Je crois que le jugement hâtif sur la démocratie obsédée par la prochaine échéance électorale et les dictatures, ce qu’essaye de nous faire croire Poutine par rapport à son régime, c’est plus compliqué.
Je terminerai enfin en disant que je crois beaucoup à la législation par l’exemple. Ce que notait Anu Bradford, Finlando-Américaine, c’est que l’Europe attire effectivement une forme de sympathie mondiale par rapport à la régulation dans ce domaine et je crois beaucoup à un mouvement du bas vers le haut, c’est-à-dire de la France vers l’Europe, de l’Europe vers le monde. Je crois qu’il ne faut pas essayer – et c’est un ancien négociateur aux Nations-Unies qui vous le dit – d’aller d’abord aux Nations-Unies, ça ne marchera pas. Je crois, sur les terrains sur lesquels nous considérons qu’il y a urgence, en particulier sur la régulation des plateformes, sur la régulation des données et aussi sur la régulation de l’IA, qu’il nous faut commencer par une action française et européenne pour, après, être en mesure de l’étendre au-delà.
Merci à vous.
Dominique de Legge : Merci Messieurs de vos contributions. Merci de nous avoir tenus en haleine pendant deux bonnes heures et je suis sûr que notre rapporteur, qui a pris beaucoup de notes, s’inspirera de vos suggestions pour la rédaction du rapport. Je vous remercie en son nom et aussi au nôtre, parce qu’il nous importe d’avoir un bon rapporteur et un bon rapport.