Delphine Sabattier : Bonjour à tous. Vous écoutez Politiques numériques alias POL/N. Je suis Delphine Sabattier. Aujourd’hui, le débat est avec quatre pointures. On va parler ensemble des risques d’ingérence étrangère à la veille d’échéances électorales ou comment les pires stratèges politiques s’emparent des nouveaux outils de communication pour influencer les opinions et mettre à mal notre esprit critique.
En studio, Laurent Cordonier. Bonjour Laurent.
Laurent Cordonier : Bonjour.
Delphine Sabattier : Docteur en sciences sociales, directeur de la recherche de la Fondation Descartes [1], auteur de multiples rapports et papiers scientifiques, je vais en citer juste quelques-uns : le rapport « Comment les Français s’informent-ils sur Internet ? Analyse des comportements d’information et de désinformation en ligne » [2], c’était pour la Fondation Descartes et puis on va citer, évidemment, ce rapport que vous avez écrit avec Gérald Bronner, commandité par le président de la République, « Les lumières à l’ère du numérique » [3] .
Avec vous Thomas Huchon, journaliste d’investigation. Bonjour Thomas.
Thomas Huchon : Bonjour.
Delphine Sabattier : Cher confrère, auteur, réalisateur. Pareil, je ne vais pas tout citer, mais j’avais envie de citer quand même Comment Trump a manipulé l’Amérique ou encore Conspi Hunter – Comment nous avons piégé les complotistes. Vous êtes également consultant, enseignant, spécialiste du Web, des infox et des théories du complot.
Autour de la table également Camille Grenier, Directeur des opérations du Forum sur L’Information et la Démocratie [4]. Bonjour Camille.
Camille Grenier : Bonjour.
Delphine Sabattier : Vous collaborez avec de nombreux gouvernements signataires du Partenariat international sur l’information et la démocratie, un accord intergouvernemental qui a été initié par Reporters sans frontières et qui publie un nouveau rapport « Pour garantir un contrôle démocratique de l’intelligence artificielle dans l’espace informationnel » [5] ; ça fera partie, évidemment, de notre conversation.
Et enfin Romain Pigenel. Bonjour Romain.
Romain Pigenel : Bonjour.
Delphine Sabattier : Directeur du développement des publics et de la communication à Universcience [6], institution publique qui réunit la Cité des sciences et de l’industrie et le Palais de la découverte. Vous êtes également enseignant en communication politique digitale à Science Po Paris, ancien directeur-adjoint du service d’information du gouvernement en charge du numérique et conseiller du président de la République à l’époque de François Hollande.
Bonjour à tout le monde. Est-ce que, selon vous, nous sommes à un moment vraiment crucial, aujourd’hui, pour notre démocratie face, justement, à ces stratèges politiques qui utilisent les outils du numérique pas toujours à des fins très transparentes ? Thomas.
Thomas Huchon : Je crois que tout va bien. On vit dans une période hyper apaisée, les informations de qualité circulent vraiment de manière très pondérée ! Non, ça va pas du tout, on est dans un moment de panique totale. Je crois que tous les manques, en termes de régulation, qu’on a pu observer depuis une dizaine d’années dans l’espace numérique et dans l’espace informationnel, vont être encore plus amplifiés par l’apparition de l’intelligence artificielle et la possibilité de fabriquer des contenus, de générer des contenus sans qu’ils soient vrais, mais en ayant l’air de plus en plus vrais.
Delphine Sabattier : Là, tu parles au futur, n’est-ce pas déjà un peu le présent ?
Thomas Huchon : C’est déjà le présent. Un journaliste de France 24 s’est fait usurper son identité en deepfake la semaine dernière, on a une campagne de Trump qui a lancé ses premiers visuels, fabriqués par IA, où monsieur Trump est soutenu par des dizaines d’Afro-Américains qui ont l’air de le trouver absolument génial alors qu’il n’en est probablement rien, on est quand même assez loin de la réalité là-dessus. Je crois, en fait, que nous sommes confrontés à un problème qu’on n’a pas voulu régler depuis dix ans qui est la nouvelle forme de la circulation de l’information, qui n’est pas régulée. En fait, le problème, ce sont plus les réseaux sociaux que l’IA.
Delphine Sabattier : Comment ça, ce n’est pas régulé ?
Thomas Huchon : Il n’y a absolument aucune forme de régulation concrète sur la circulation de l’information en ligne aujourd’hui, en tout cas pas du tout suffisamment. Les plateformes ne respectent pas ce qu’elles devraient respecter.
Delphine Sabattier : Parce que du côté des médias, du côté de l’information contrôlée par les médias officiels, il y a cette régulation.
Thomas Huchon : Je n’utiliserais pas le terme de « médias officiels ».
Delphine Sabattier : C’est vrai, je dois faire attention, je parle avec un spécialiste de la théorie des complots.
Thomas Huchon : Si on imagine l’idée de médias officiels, on peut parler de l’ORTF, on peut parler des médias russes, on peut parler de la Corée du Nord, je n’ai aucun problème, mais, en France, il y a des médias professionnels et des désinformateurs professionnels, mais il n’y pas de médias officiels, ça n’existe pas, sinon il y aurait des médias officieux et, là, ça nous poserait un autre type de problème.
Delphine Sabattier : Laurent.
Laurent Cordonier : Peut-être, pour nuancer un peu le tableau, je suis d’accord dans les grandes lignes, mais il ne faut pas oublier non plus qu’en France, quand nos concitoyens s’informent sur Internet, ils s’informent avant tout par le biais des médias traditionnels et de façon extrêmement massive. C’est ce que j’ai pu montrer dans l’étude que vous avez citée, « Comment les Français s’informent-ils sur Internet », où on voit que les grands médias traditionnels, en France, restent la source numéro une d’information des Français. Après, on va dire que la difficulté ce sont les réseaux sociaux parce que, là, en effet, on ne sait pas très bien à quoi leurs utilisateurs sont confrontés en termes de contenu informationnel puisque c’est très difficile à étudier simplement. Chacun a un mur personnalisé sur lequel apparaissent des posts qui lui sont propres, on ne peut pas faire des mesures d’audience comme on le ferait sur d’autres médias.
Sur les réseaux sociaux, on a bien l’impression, en effet, que la part d’information de mauvaise qualité, trompeuse, voire manipulée, est plus importante que dans le reste de l’environnement informationnel, évidemment, donc mécaniquement, le fait de s’y trouver, d’y circuler pour s’informer, ou non d’ailleurs, mais d’y être exposé à des formes de manipulation de l’information, augmente le risque d’être induit en erreur. C’est ce qu’on observe, par exemple, dans d’autres études que j’ai pu faire sur l’information et la santé ou l’information et le climat.
Delphine Sabattier : Ça augmente le risque d’avoir de fausses informations, d’être confronté à la désinformation, mais est-ce que ça n’augmente pas, aussi, la possibilité d’être davantage informé, d’entendre plus de points de vue ?
Laurent Cordonier : En tout cas, ce n’est tellement ce qu’on mesure. Quand je mesure, par exemple, la connaissance sur des questions de santé ou la connaissance sur des questions climatiques, j’observe que les personnes qui s’informent avant tout sur les réseaux sociaux ont de plus faibles niveaux de connaissance sur ces sujets, seront donc plus sensibles à des informations fausses qui circulent sur ces réseaux. Par contre, vous avez raison de souligner le fait que rien n’est mécanique. Ce n’est pas parce qu’on est exposé à une information fausse qu’on va y croire. De même que ce n’est pas non plus parce qu’on est exposé à une information vraie qu’on va y croire. Il y a des facteurs individuels, des facteurs sociaux aussi qui protègent ou qui rendent, au contraire, davantage sensibles à des informations fausses ou trompeuses.
Delphine Sabattier : Romain.
Romain Pigenel : Je vais aussi un peu nuancer. Thomas a raison . C’est vrai qu’il y a une espèce d’accélération qui fait qu’on a l’impression, ce n’est pas qu’une impression, que les problèmes se multiplient dans tous les sens. Je crois qu’il y a deux choses : il y a d’abord une révolution qui a, en réalité, plus de 20 ans quasiment 30 ans, qui a été l’arrivée d’Internet, même avant les réseaux sociaux, et qui a fracassé ce qui était avant le monopole de l’accès à l’information. La dérégulation est donc ancienne et pas que mauvaise. Ça me frappe toujours de voir comment, pour reprendre un anglicisme horrible, en dix ans on est passé d’un narratif à un autre : dans les années 2000, le discours ambiant c’était « Internet c’est formidable, ça donne la parole à tout le monde », c’était l’époque des blogs, c’était aussi toutes les utopies avec la démocratie participative qui allait être permise par ces nouveaux moyens ; il y a aussi eu toute cette idée, qui n’était pas totalement fausse, pas totalement vraie non plus, que le Printemps arabe avait été permis par Internet. Il y a eu tout ce discours-là qui était mirifique et puis, depuis quelques années, et je crois que le point de bascule c’est Cambridge Analytica [7], on a basculé, de mon point de vue, dans un discours qui n’est pas beaucoup plus exact mais qui est radicalement inverse, où, finalement, tout est la faute à Internet, les réseaux sociaux sont catastrophiques, etc. Ce qui n’est pas faux, mais qui n’est pas complètement vrai non plus.
Deux choses en réaction.
La propagande politique a toujours existé et, comme dans toute course à l’armement, elle s’empare des nouveaux outils. Je ne suis pas certain que les stratégies d’influence à l’ancienne, par exemple de lobbies industriels ou autres, qui pouvaient payer des élus ou essayer de faire de l’infiltration dans les médias, étaient beaucoup moins efficaces que les techniques actuelles. Je pense que c’est un jeu du chat et de la souris. Il y a, je ne dirais pas un camp du bien et du mal puisque ce n’est évidemment pas ça, mais il y a des gens qui essayent de faire de l’information sérieuse, il y a des propagandistes de tous ordres, ça va depuis la communication politique jusqu’à la propagande, et ils s’emparent des nouveaux moyens.
Il y a aussi un autre sujet qui m’intéresse et je pense qu’il va être à creuser, qui est en deux temps : c’est d’abord quelle est l’efficacité de tout cela ? Je dis cela aussi en tant que communicant d’abord politique et, aujourd’hui, dans le domaine scientifique et culturel, ça se saurait si la com’ fonctionnait tout le temps à 100 %. Évidemment qu’il faut combattre les dérives, surtout quand elles prennent la forme de stratégies d’État pour déstabiliser des démocraties, mais ce n’est pas aussi simple de dire « on va arroser de vidéos et ça va transformer l’opinion, ça va faire basculer une élection ». D’ailleurs, quand on regarde la littérature, qui est complexe parce que, en fait, c’est à la connexion des sciences de l’information, de la sociologie, des sciences politiques, c’est compliqué d’arriver à établir le poids précis d’une campagne numérique ou d’une campagne de communication en général. Vous connaissez sans doute Hugo Mercier, un chercheur en sciences cognitives, qui a sorti, je crois il y a un peu plus d’un an, un petit ouvrage formidable qui s’appelle Pas né de la dernière pluie. C’est un grand chercheur en sciences cognitives. Il a fait, un peu, une revue de littérature, de bonne vulgarisation, sur tout ce qui démontre que, au fond, on n’est pas si dupe ou si crédule qu’on pourrait le croire. C’est assez orienté puisque la thèse d’Hugo Mercier c’est d’aller à contre-sens du courant dominant, mais c’est intéressant de voir, et il le rappelle avec beaucoup de choses qu’on oublie parfois, que ce n’est pas parce qu’il y a une propagande qu’elle fonctionne forcément. Après, évidemment, ce n’est pas parce qu’elle ne fonctionne pas ou qu’elle ne fonctionne pas totalement qu’il ne faut rien faire.
Delphine Sabattier : Toutes ces fractures qu’on voit aujourd’hui dans la société, est-ce qu’on peut quand même les attribuer aux réseaux sociaux ou est-ce que c’est juste le reflet, finalement, de la réalité, de la colère populaire, peut-être, je ne sais pas, de la déchéance des démocraties ? Thomas.
Thomas Huchon : C’est sûr que la démocratie, qui est, par essence, un modèle frustrant, génère un peu ce sentiment-là. Je crois que là où nos systèmes d’information, nos systèmes de régulation, l’existence d’une presse professionnelle avec tous les défauts qu’elle peut avoir, permettaient de limiter ces impacts-là, eh bien ces impacts sont en permanence multipliés, amplifiés, par les réseaux sociaux et par la nouvelle circulation de l’information. Le vrai problème, ce n’est pas tant que circulent des choses vraies ou fausses sur les réseaux sociaux, c’est que, en fait, on ne partage plus rien. Comme on vit chacun enfermé dans une réalité dans laquelle on voit des choses qui correspondent à ce qu’on croit déjà un peu, c’est donc vachement difficile de se rendre compte qu’on est en train d’être manipulé. Nous sommes en train d’être radicalisés contre nous-mêmes et la radicalisation c’est un escalier, on ne sent jamais les premières marches, on se rend pas compte qu’on est en train d’être radicalisé. Le problème ce n’est pas tant qu’il n’y ait plus de vérité, ça n’a jamais existé, je partage totalement ce que dit Romain et ce que dit Laurent là-dessus, mais je crois que le problème c’est qu’on ne partage plus les faits.
Pour moi, le point de bascule ce n’est pas tant Cambridge Analytica, même si ce truc-là est énorme, j’ai enquêté là-dessus et, à l’époque, personne ne voulait entendre parler de cette histoire.
Delphine Sabattier : D’ailleurs, on ne peut pas formellement dire que Cambridge Analytica a fait élire Donald Trump.
Thomas Huchon : Ah si, on peut le dire clairement.
Delphine Sabattier : J’ai lu des études qui contredisent ce point de vue.
Thomas Huchon : Je sais bien, mais je ne crois pas du tout à ces études-là.
Delphine Sabattier : Thomas, vous en êtes convaincu.
Thomas Huchon : Je veux dire que c’est le 21 janvier 2017 que ça bascule, c’est ce jour-là, quand la porte-parole non pas du candidat Trump mais de la Maison-Blanche vient expliquer qu’il existe des faits alternatifs. C’est ce jour-là que le monde bascule.
Delphine Sabattier : Je voulais donner la parole aussi à Camille. Vous publiez, j’en ai parlé, un nouveau rapport sur le contrôle démocratique de l’intelligence artificielle dans l’espace informationnel. Est-ce qu’il vous semble qu’on est à un point de bascule avec un nouvel outil qu’on a du mal à maîtriser, finalement ?
Camille Grenier : Ce qu’on voit, et ça a déjà été dit il y a 10/20 ans, c’est la disruption de la distribution de l’information. Là, on est arrivé à la disruption de la production de l’information-même : on ne sait plus de quelle façon est produite, nécessairement, l’information. Après, il y a les enjeux de circulation, d’amplification, ça a été dit. Il suffit de prendre le métro pour voir que nous sommes tous dans des espaces informationnels. Nous sommes dans un espace commun qui est une rame de métro, mais nous sommes tous dans notre petite bulle : des personnes achètent des chaussures, d’autres regardent des recettes sur Instagram et tout le monde est dans sa bulle. C’est vraiment, je pense, un manque de commun aujourd’hui.
Le rapport qu’on a publié avant celui sur l’IA c’était justement sur le pluralisme et la curation algorithmique et comment on peut mettre en place des solutions techniques ou de régulation pour assurer un peu plus de pluralisme et d’accès à l’information fiable [8].
Sur l’IA, c’est vrai qu’on voit, aujourd’hui, que ce sont des entreprises privées, encore une fois, qui lancent leurs produits et puis on verra ce qui se passe. Il faut remettre certains garde-fous en place. Nous avons publié notre rapport qui était le fruit de six mois de réflexion d’un groupe de travail avec la contribution de 150 experts à travers le monde, on l’a publié la semaine dernière depuis cinq villes à travers le monde.
Delphine Sabattier : C’était fin février puisque nous serons diffusés un petit peu plus tard.
Camille Grenier : On décline toute une série de recommandations à la fois sur la construction de ces modèles et de ces systèmes d’IA, leur déploiement, les cadres de régulation qu’il faut mettre en place, notamment sur la transparence, puisque, aujourd’hui, on ne sait pas vraiment comment ces systèmes d’IA sont entraînés et l’impact que ça peut avoir sur l’intégrité de l’information derrière. Et l’IA ce n’est pas seulement l’IA générative, c’est aussi toute la curation qui est faite et l’analyse des données personnelles qui est faite. On en revient aux différents espaces qui ne sont plus tant des espaces communs mais des espaces hyper personnalisés.
Je regardais aussi les premiers symptômes qu’on a sur des deepfakes. C’est vrai qu’on est quand même, cette année, dans l’année des élections, il y a plus de deux milliards de personnes.
Thomas Huchon : Quatre !
Camille Grenier : Quatre ! Ça dépend des chiffres, j’ai du mal à trouver le bon chiffre. Quatre, oui c’est la moitié de la population. C’est vrai que 2024 est une année quand même assez cruciale pour la démocratie. En Europe, on est déjà rentré dans la campagne, mais aussi à travers le monde : l’Indonésie, par exemple, un pays ultra peuplé, a ses élections. On voit, finalement, que les deepfakes ce n’est pas seulement sur les réseaux sociaux. Il y a les premiers cas de phoning où une IA prend la voix d’un président ou d’un candidat pour dire « non, n’allez pas voter à telle échéance, le plus important, c’est en novembre ».
Il y a donc les réseaux sociaux, mais il y a aussi, quand même, la production de l’information qui est, aujourd’hui, tout à fait changée par ces nouveaux systèmes.
Delphine Sabattier : Dans les recommandations que vous faites, je me suis arrêtée sur le mot « authenticité d’un contenu ». Comment fait-on, aujourd’hui, pour vérifier l’authenticité d’un contenu ?
Camille Grenier : C’est un grand sujet. C’est assez marrant. On a commencé à publier notre rapport et c’est vrai que la technologie avance extrêmement vite. Il y a cette idée du watermarking qui fait qu’on pourrait identifier et obliger, finalement, les producteurs de contenu à ce que ce soit tout à fait transparent pour les personnes qui sont exposées à ce type de contenu.
Delphine Sabattier : C’est-à-dire apposer un filigrane qui permette de montrer que ce contenu a été généré par une intelligence artificielle.
Camille Grenier : Et puis il y a d’autres possibilités. Quand on est exposé à une information, il y a toute la discussion autour du fact checking, mais qui, en général, a quand même assez moins de portée que le contenu initial. On a fait une recommandation, notamment dans le cadre des élections : si une personne est exposée à un contenu qu’on pourrait qualifier de désinformation, comment s’assure-t-on que les mêmes utilisateurs sont aussi exposés au fact checking et au fait que cette information était fausse ?
Delphine Sabattier : Laurent Cordonier, vous allez participer, vous me l’avez confié, à une commission d’enquête sur les politiques publiques face aux opérations d’influence étrangère. Donc, en France, on a conscience, aujourd’hui, des risques en pleine période électorale européenne ?
Laurent Cordonier : La conscience est en train de se créer en France. Il y a eu un peu de retard au démarrage de la part des autorités et aussi, il faut le dire, des services de renseignement qui, par rapport aux États-Unis par exemple, ont été un peu plus lents à réagir sur ces questions, notamment d’ingérence numérique étrangère. Je pense que, aujourd’hui, la conscience est prise, la difficulté va être de trouver les bons moyens, les bons leviers d’action, évidemment.
Je pense que ça repose la question qui était tout à l’heure sur la table et qui est vraiment centrale : est-ce que la désinformation fonctionne ?, parce que c’est vraiment ça le nerf de la guerre. Je l’ai indiqué, au début : être exposé à un contenu faux n’a pas un effet mécanique sur nos croyances. Mais il faut bien considérer — d’ailleurs mon collègue et ami Hugo Mercier fait très bien de le rappeler dans son livre, une abondante littérature le montre — que nous sommes loin d’être naïfs : pour peu que les populations aient un peu d’éducation, elles sont, en général, capables de séparer le bon grain de l’ivraie informationnelle.
Par contre, la question du fonctionnement des informations c’est : que vise la désinformation, notamment les ingérences numériques étrangères ? Que visent-elles à faire ? Si l’idée c’est de se dire qu’elles veulent nous faire gober un message particulier, probablement que ça marche mal. Par contre, si l’objectif de la désinformation et des ingérences numériques étrangères, c’est de créer du doute et de polariser la société cible de ces attaques, en général une démocratie libérale, alors, là, on peut vraiment penser que ça fonctionne beaucoup mieux.
C’est bien ce qu’on voit avec les campagnes russes qui ont notamment attaqué la France déjà pendant la période des Gilets jaunes et avant, et qui continuent depuis. Ces campagnes de désinformation ont pour objectif d’appuyer sur des lignes de fracture qui sont préexistantes au sein de la société, dans le but de les renforcer et, là-dessus, en tout cas, on a pas mal d’études qui laissent penser que fréquenter davantage les réseaux sociaux, des réseaux comme X, ex-Twitter, augmente, en effet, la polarisation affective, c’est-à-dire le niveau auquel vous détestez le camp adverse. D’ailleurs, il y a des résultats assez amusants qui montrent qu’on a tendance à surestimer la détestation du camp adverse à notre égard et, comme tout le monde fait ça, on a l’impression, à la fin, que tout le monde se déteste et, évidemment, ce n’est pas très bon pour des questions de cohésion nationale. On voit bien que quand ces fractures sont amplifiées dans des sociétés qui sont confrontées à des questions, aujourd’hui, de guerre à leur porte, aux portes de l’Europe, etc., c’est évidemment l’objectif visé et l’objectif peut fonctionner par des campagnes, pour le coup, de désinformation ou, en tout cas, d’amplification de certains phénomènes internes.
Delphine Sabattier : Quand on est capable d’identifier ces campagnes de désinformation, ça veut dire qu’on est capable de les stopper ? Thomas ? Que fait-on face à ça ? Là, il y a une commission d’enquête qui est lancée, mais ça veut dire que, derrière, il va y avoir des décisions à prendre. Tout le monde veut réagir. On y va.
Thomas Huchon : On a un vrai problème qui est que tout cela est très difficile à remonter. Il s’agit d’opérations d’influence, bien souvent secrètes, menées par des agences de renseignement, on n’est donc pas exactement sur des gens qui ont toujours pignon sur rue. Ça été le cas avec la création d’un certain nombre de médias, je pense à Russia Today, à Sputnik, qui ont été aider des agents de la déstabilisation de la démocratie française, pendant des années, en essayant de se faire passer pour des journalistes, c’est-à-dire en revendiquant un certain nombre de valeurs journalistiques de manière un peu lunaire, mais bon !, c’est aussi ce que permet, finalement, ce marché complètement dérégulé de l’information aujourd’hui. La seule vraie manière de se prémunir contre ces opérations d’influence, c’est de développer l’esprit critique et la résilience dans la société, malheureusement, ce n’est pas si facile que ça.
Dephine Sabattier : Vous parlez de marché dérégulé, il faut quand même mettre en place des politiques publiques aussi.
Thomas Huchon : Oui, c’est sûr que ça serait beaucoup plus difficile pour les Russes de foutre le bazar dans nos démocraties si les réseaux sociaux respectaient le fait qu’ils sont des médias, donc, qu’ils sont responsables de ce qui est diffusé sur leur page.
Delphine Sabattier : Et pas de simples hébergeurs.
Thomas Huchon : Eh bien oui ! À un moment, il va falloir arrêter de considérer que quelqu’un qui éditorialise le contenu pour vous, qui gagne de l’argent avec de la publicité et qui vous diffuse de l’information, n’est pas un média. À un moment, il va falloir qu’on comprenne ce truc-là !
Delphine Sabattier : Ils ont des obligations de modération qui s’imposent aujourd’hui.
Thomas Huchon : Visiblement, ils n’ont pas l’obligation de déclarer leur chiffre d’affaires publicitaire dans notre pays, ce qui est la majeure partie de l’argent qu’ils gagnent, ils n’ont pas l’obligation de répondre systématiquement à la justice française quand on les interpelle sur des campagnes de harcèlement qu’on peut subir ; c’est mon cas depuis des années, je suis injurié et menacé de mort sur Twitter, sur Facebook sur Instagram, sur TikTok, j’ai beau faire des procédures de manière assez régulière, il ne se passe jamais rien ! Donc, à un moment, tout cela pose quand même un vrai problème. Et enfin, il y a un moment où on ne peut pas laisser des entreprises étrangères, qui ont des lois qui ne correspondent pas aux nôtres, foutre en l’air nos démocraties. On ne peut pas rester assis à regarder ce qui se passe, ce n’est pas possible ! On est dans Politiques Numériques, il va falloir que les politiques comprennent qu’ils ont plus d’intérêts à réguler Facebook qu’à faire un live sur Facebook eux-mêmes. Il faut qu’ils comprennent que le jeu de la démocratie ce n’est pas uniquement de décider quand ils veulent parler à leur communauté et, potentiellement, déclencher des raids numériques sur les gens qu’ils détestent. Il va falloir qu’on remette le truc au centre de la table. À un moment, il faut un arbitre, on ne peut pas laisser les équipes continuer comme ça, j’attends donc cet arbitre avec impatience.
Delphine Sabattier : Romain, vous vouliez réagir, et puis on va parler de l’esprit critique.
Romain Pigenel : Justement, ça fera lien. Que faire face à ces campagnes de désinformation ? Je pense qu’il y a trois niveaux de réponse :
déjà, il y a le niveau de réponse sur le plan des médias au sens technique, c’est-à-dire des vecteurs eux-mêmes, soit avec des solutions technologiques, comme vous l’évoquiez, c’est-à-dire le watermarking, etc. Ma conviction profonde c’est que ça sera, malheureusement toujours, un peu une course entre le chat et la souris et qu’il y aura toujours un temps d’avance pour le fraudeur, ce n’est pas pour cela qu’il ne faut pas le faire ; il y a cette piste-là ;
il y a la piste de la régulation, je ne vais pas y revenir, elle a été évoquée. Je trouve que les choses avancent lentement, mais lentement dans le bon sens, notamment l’Europe, qui est une machine lente mais puissante, commence à poser des jalons avec le Digital Markets Act [9] qui vient de rentrer en action.
Delphine Sabattier : Et le DSA [10].
Romain Pigenel : Aussi. Je trouve, quand même, que l’Europe joue plutôt un rôle plutôt intéressant.
Après, il y a un deuxième plan qui est le plan de la production de contenus. C’est vrai qu’on peut avoir le sentiment que, souvent, les désinformateurs ont un temps d’avance et je le crois pour plusieurs raisons.
D’abord parce que, pour ce qui est des désinformateurs je dirais non étatiques, c’est un fait historiquement vérifié : comme ils n’avaient pas accès aux canaux de communication traditionnels, ils ont été les premiers à se jeter sur Internet et c’est pour cela que, quand on regarde y compris les phénomènes complotistes, sectaires, extrémistes, ils ont souvent eu un temps d’avance dès les années 2000 sur la présence sur le Web parce que, justement, ils avaient compris que c’était la porte d’entrée qui leur permettait de contourner le système, mais qui existait bien puisqu’il avait un système médiatique auquel, heureusement, ils n’avaient pas accès. Le constat que je fais depuis 15 ans et contre lequel je me bats dans tous mes postes successifs, c’est quand même le retard à l’allumage de la puissance publique, au sens large, pour arriver, je vais prendre un terme excessif à dessein, à inonder de contenus Internet. On est dans une bataille de trouvabilité des contenus. À un moment, sans rentrer dans des considérations techniques que, par ailleurs, les auditeurs connaissent, mais si on n’a pas des contenus nombreux et bien optimisés, on ne remonte pas.
Après, sinon, on peut choisir un autre biais, qui est le biais de la censure, c’est une autre voie, et on peut dire, pourquoi pas, qu’il faut fermer ces réseaux, je dis cela sans rire. Mais si on dit qu’ils sont ouverts, il faut les réguler et il faut jouer le jeu. Alors ça va mieux, je vais prendre simplement un exemple.
Delphine Sabattier : Il y a une autre voie qui est de devenir nous-mêmes des désinformateurs pour contrer les propagandes. Aujourd’hui, c’est envisagé, en tout cas aux États-Unis ils le font, c’est une pratique.
Romain Pigenel : Un exemple très concret, si vous voulez bien, et je vais finir. En 2016, Congrès de lancement de Santé publique France, qui est l’opérateur que vous connaissez, je me souviens que j’avais fait la démonstration en direct : quand vous regardiez YouTube, vous tapiez « vaccin », les 20 premiers résultats étaient tous des vidéos anti-vaccin. Aujourd’hui c’est mieux, pourquoi ? Parce que, heureusement, les centres de culture scientifique comme celui que je représente, Universcience, les institutions scientifiques commencent, par exemple sur les vaccins, à produire des contenus, mais on voit bien qu’il y a un retard à l’allumage. Là-dessus, de toute évidence, ça va mieux, mais ça ne va pas encore assez bien. C’est un débat que j’ai souvent, quand j’entends ou que je vois des universités qui disent « on va fermer notre compte Twitter pour faire mal à Elon Musk », d’abord ça ne fait pas mal à Elon Musk et je pense que c’est une décision catastrophique. Selon un vieil adage, « quand partent les dégoûtés restent les dégoûtants », donc, quand il y a un terrain, il faut l’occuper ou alors il faut couper le terrain.
Et puis, le troisième vecteur de réaction, ce sont évidemment les individus, les récepteurs eux-mêmes, avec, en effet, l’importance de développer l’esprit critique, c’est en partie pour cela que je suis invité. Comme vous le savez, à Universcience, on a lancé un programme d’éducation pour arriver à développer l’esprit critique, qui est devenu national, avec une cinquantaine d’opérateurs, centres et musées de science, bibliothèques qui sont des super acteurs de terrain sur l’éducation aux médias, on le dit trop peu, mais heureusement c’est souvent dans des territoires peu équipés culturellement qu’il y a des bibliothèques qui font un super travail. L’esprit critique c’est quoi ? C’est la capacité à trier et qualifier l’information pour se construire son opinion de manière libre et éclairée. Mais l’esprit critique tout seul ne suffit pas. Il faut aussi le compléter par une culture scientifique. Pourquoi ? Parce que si vous êtes uniquement dans un esprit super critique, ça peut donner, au bout du compte, ce que l’on voit et ce que Thomas connaît bien, qui est le complotisme, puisque, d’un certain point de vue, certaines formes de complotisme, c’est un hyper-criticisme. Donc, si on ne sait rien et qu’on critique tout, on peut se retrouver dans une forme de paranoïa. C’est pour cela que l’on défend à Universcience, Cité des sciences et de l’industrie, Palais de la découverte, l’idée qu’il faut développer l’esprit critique grâce à l’éducation aux médias, grâce à l’enseignement de la méthode scientifique, parce que la méthode scientifique expérimentale est aussi une manière parallèle à la méthode journalistique d’arriver à analyser les faits, construire une opinion de manière fondée, mais il faut aussi, derrière, développer la culture scientifique, parce que, sinon, on doute de tout ! Après tout, moi qui ne suis pas ingénieur en bâtiment, qu’est-ce qui me permet de savoir que les tours du World Trade Center n’ont pas été dynamitées par le gouvernement américain ! Si je pars de rien, d’aucune compréhension sur ce qu’est un consensus scientifique, d’aucun fond scientifique et technologique, je peux douter tout. L’esprit critique ce n’est pas douter de tout, tout le temps, c’est savoir bien douter. En tout cas, je pense que c’est ce qu’il faut arriver à développer.
Delphine Sabattier : Vous allez publier les résultats du troisième baromètre [11] dans quelques jours. Pouvez-vous nous dévoiler déjà quelques chiffres ? Qu’est-ce qu’il en ressort ? Comment s’en ressort-on, en France, quant à l’esprit critique ?
Romain Pigenel : Je ne vais pas redire ce qu’a déjà dit Laurent Cordonier, parce que plein de choses sont concordantes entre nos études. Quand même, quelques faits massifs. C’est du déclaratif, évidemment, mais, quand on interroge les répondants sur leur manière de discriminer l’information, quelle est la bonne, moins bonne, etc., ils sont plutôt bons, mais il y a un élément sur lequel ils se plantent toujours, c’est sur l’importance de se méfier de ses propres intuitions. Dans une partie de notre questionnaire, on a une question où on demande : « Pour vous, qu’est-ce que c’est que l’esprit critique ? Comment qualifiez-vous la bonne information ? » Il y a les réponses évidentes du type « regarder la source, l’émetteur, etc. », en général, les gens répondent avec un score haut, mais quand on leur dit : « Pour vous, est-ce que l’esprit critique c’est se méfier de ses propres intuitions ? », il n’y en a que 18 % qui répondent oui. Et là, on fait le lien avec la problématique des biais cognitifs, c’est-à-dire qu’il y a une très faible connaissance ou une mauvaise connaissance, justement dans le grand public, de la problématique des biais cognitifs. Il faut de toute évidence, là-dessus, notamment au niveau de l’éducation primaire, mais aussi de la formation professionnelle, mettre le paquet sur cette question parce qu’on voit bien que, là-dessus, il y a vraiment quelque chose qui n’est pas tout à fait clair.
Un autre élément intéressant, c’est que ça ne va pas si mal que ça chez les jeunes. Je sais que d’autres études ont pu sortir des résultats catastrophistes, il y a un an, pour dire « les jeunes sont complotistes, croient que la terre est plate, etc. », études qui posent plein de problèmes méthodologiques, je n’entrerai pas dans ce genre de débat. En revanche, nous, quand on interroge plus spécifiquement les 18-24 ans, on voit, par exemple, qu’ils sont beaucoup plus intéressés et beaucoup plus actifs par rapport à la pratique scientifique et à la formation scientifique que leurs aînés, en revanche, et c’est un point d’attention, je n’apprendrai rien, la hiérarchie des sources d’information et la confiance qu’ils portent aux sources d’information est radicalement différente. C’est-à-dire que sur l’ensemble du panel, quand on demande : « Comment vous renseignez-vous ? », ce qui ressort c’est Internet en numéro un, la télévision à peu près au même niveau, 60/70 %, et les réseaux sociaux ne comptent que pour 30 %, alors que quand vous regardez sur les 18-24 ans, on est sur l’entourage qui compte pour 70 % ------on y pense rarement, mais l’entourage est la première source d’information—– avec, derrière, Internet à 67 %, les réseaux sociaux à 54 % et la télévision s’effondre à un peu plus de 30 %. Et quand vous demandez « à qui faites-vous confiance ? », sur l’ensemble du panel, on a radio, Internet, télévision qui tiennent le haut du panier. En revanche, chez les jeunes, c’est Internet, l’entourage, les réseaux sociaux et la télévision s’effondre.
Les jeunes d’aujourd’hui étant les vieux de demain, par construction, on voit qu’il faut évidemment revoir beaucoup de choses sur la manière dont on conçoit les stratégies d’information et je reviens à ce que je disais, mettre le paquet sur les réseaux sociaux et sur Internet, à la fois pour les réguler, mais aussi pour y être présent quand on est la puissance publique.
Delphine Sabattier : Je voulais juste faire réagir Camille. Vous parlez aussi de la problématique des algorithmes de recommandation, ce n’est pas l’entourage, mais c’est une forme de nouvel entourage, finalement ?
Camille Grenier : D’entourage technique.
Juste pour réagir à ce que disait Romain, il y a cette question de où est-ce qu’on met la responsabilité ? Est-ce qu’on met la responsabilité sur les individus qui reçoivent de l’information ?, il y a, notamment, tous les programmes de l’éducation aux médias, ou est-ce qu’on met la responsabilité sur les plateformes, les réseaux sociaux, qui distribuent l’information en se nourrissant de nos données personnelles, puisqu’ils vont voir que, selon nos intérêts, un certain type de contenu va être poussé ou non ?
Au début, Romain parlait aussi du l’évolution du narratif. On est passé d’un narratif, il y a cinq ans, qui était très sur le contenu lui-même – comment on enlève-t-on les fake news, comment laboure-t-on la mer – à une approche beaucoup plus structurelle aujourd’hui. Nous avons posé cela il y a cinq ans : quels doivent être les principes qui régissent ce bien commun qu’est l’espace de l’information et de la communication, c’est-à-dire des principes de transparence, de promotion de la fiabilité de l’information, de responsabilité ou de redevabilité des acteurs, etc. ? Quand on regarde cet aspect structurel ou systémique, on se rend compte, en effet, que la propagande, la désinformation, la rumeur, les contenus haineux dans la rue, ça a toujours existé, mais, aujourd’hui, tout cela est un peu au centre du village et la question c’est plutôt comment on remet les producteurs d’informations qui respectent les normes éthiques et professionnelles du journalisme au centre.
À Reporters sans frontières, on a développé la Journalism Trust Initiative [12], désolé pour les anglicismes, une idée empruntée à de nombreux secteurs économiques et industriels, l’idée d’un standard qui n’est pas sur le contenu, l’idée ce n’est pas de faire la distinction entre le vrai le faux, mais c’est plutôt sur les processus de production de l’information. Ici nous sommes dans un magnifique studio, produire une information, ça coûte quand même de l’argent, ça coûte de l’investissement, Thomas le sait bien. Par contre, quand vous êtes tout seul dans votre garage avec un ordinateur, IA ou non, pour propager n’importe quel type de contenu sans enquête, sans vérification des faits, ça coûte quand même beaucoup moins d’argent.
La question c’est donc comment redonner un avantage comparatif à ces sources, à ces producteurs d’informations fiables ; là, il y a donc l’idée du standard.
Delphine Sabattier : Qu’il faudrait pouvoir partager avec les plateformes numériques ?
Camille Grenier : Exactement. Et surtout, ce qu’on demande et, malheureusement, j’ai l’impression qu’elles sont un peu réticentes – quand on touche à leur business modèle c’est toujours un peu plus compliqué –, c’est que, dans leurs algorithmes de curation, elles intègrent les données qui sont issues de ce standard pour donner un avantage comparatif à ces sources réputées fiables, à travers un standard qui est audité.
Delphine Sabattier : Est-ce que le politique a à se mêler de ça ou pas ?
Camille Grenier : Il y a une distinction, aujourd’hui, entre l’intérêt public et l’intérêt du public. L’intérêt public c’est l’intérêt général et, là, il est tout à fait légitime de poser des cadres de régulation. Ce qui intéresse les plateformes c’est l’intérêt du public, c’est notre intérêt avec nos instincts.
Dephine Sabattier : Et, pour elles, c’est leur intérêt économique.
Camille Grenier : Je pense que poser des obligations aux plateformes de promotion de la fiabilité de l’information, c’est, en ce moment, pas mal repris notamment, désolé encore pour les anglicismes, European Media Freedom Act [13], où, justement ce JTI [Journalism Trust Initiative] devrait, à priori, être inclus, donc poser un cadre, encore une fois, pas sur le contenu mais sur la structure de l’espace informationnel, de la façon dont on produit, partage, dont on a accès à l’information, c’est l’histoire des démocraties. Il y a toujours eu des cadres – la loi de 86 [14], par exemple, en France – qui régissent ça, les démocraties sont bâties sur ces cadres démocratiques. On pouvait être d’accord ou pas d’accord, mais l’avantage est qu’elles étaient transparentes et, si on n’était pas d’accord, on pouvait voter, les lois sont transparentes.
Aujourd’hui, les lois qui régissent notre espace informationnel sont les lois qui sont définies à la Silicon Valley par quelques entreprises privées qui n’ont, en effet, comme disait Thomas, d’intérêt que leur valorisation capitalistique.
Delphine Sabattier : Laurent.
Laurent Cordonier : En effet, je pense qu’il ne faut pas chercher à opposer l’intervention sur l’environnement informationnel, la régulation de ce milieu-là, et puis les interventions qui visent à renforcer la résilience de la population. Je pense que ce sont deux pistes qu’il faut suivre en même temps.
Pour ce qui est de la question de la résilience des populations, donc la formation à l’esprit critique, un terme très délicat, en effet, parce qu’il a été beaucoup dévoyé, on peut imaginer que c’est la tabula rasa cartésienne, en réalité il faudrait douter de tout, etc., mais, si l’on veut, c’est une autre définition du complotisme. Une définition correcte de l’esprit critique, c’est vraiment considérer et réaliser qu’on est tous dans un état de dépendance épistémique : « je dépends du témoignage d’autrui pour savoir quoi que ce soit sur le monde » ; s’il n’y a pas un journaliste en Ukraine pour me dire qu’il y a une guerre, je n’en sais rien, etc. Une fois qu’on a réalisé que ce que l’on sait, on ne le sait quasiment jamais par nos propres sens et par nos propres expériences, on réalise qu’on a besoin de faire confiance pour savoir quoi que ce soit sur le monde, donc on réalise aussi, par rebond, l’importance d’attribuer sa confiance sur des bases rationnelles.
Des indices comme le JTI, une note non pas de fiabilité de l’information mais de respect de certains critères de création de l’information, de certaines normes, etc., ça peut être un indice tout à fait fiable pour l’individu mais aussi comme levier, par exemple pour les réseaux sociaux s’ils veulent jouer le jeu et ils le voudront quand on décidera de l’exiger de leur part et, pour cela, le Digital Services Act [10] ouvre des fenêtres d’opportunité. Ce règlement, au niveau européen, permet d’avoir des exigences de résultat à l’égard des plateformes pour peu, et le pour peu est vraiment central, que le régulateur national, français en ce qui nous concerne, décide de jouer le jeu et de mettre en avant ce levier. En France, c’est l’Arcom [Autorité de régulation de la communication audiovisuelle et numérique]. L’Arcom a été timide sur un certain nombre d’applications, jusqu’à présent, en ce qui concerne l’audiovisuel – je ne dis pas que c’est bien ou mal, je le constate –, je peux espérer, par contre, que l’Arcom sera plus assidue à faire respecter le Digital Services Act au sein des frontières françaises. C’est une volonté qui relève, pour le coup, clairement, vraiment du politique : veut-on utiliser ce levier, qui nous est offert par l’Union européenne, pour réguler l’information sur les réseaux sociaux ? Je pense que c’est l’occasion à ne pas rater, en quelque sorte. C’est vraiment une occasion qui peut avoir des effets importants, parce qu’on peut tout à fait imaginer que l’Arcom puisse, par le biais du Digital Services Act [10], presser les plateformes pour mettre davantage en avant des contenus informationnels de qualité, quel que soit le sujet, plutôt que de chercher à censurer, à modérer ou à faire disparaître certains posts. Je crois qu’il est plus efficace de mettre en avant des contenus de qualité. C’est un peu ce que Google a fait, comme il a été rappelé, sous la pression.
Delphine Sabattier : Parce que, en fait, il y a deux pièges. Il y a le piège de la censure, apparaître comme un censeur, et puis il y a aussi le piège d’apparaître comme celui qui veut remettre la main sur l’information.
Laurent Cordonier : Oui. Ce n’est pas seulement apparaître. En fait, ce qui nous concerne ici c’est la défense de la démocratie : une information de qualité, une information libre, faite selon certains standards, etc., c’est consubstantiel à la démocratie ; une démocratie n’existe pas sans cette information-là.
Il y a un piège dans lequel il ne faut pas tomber, c’est abîmer cette démocratie en voulant la défendre avec des mesures qui seraient, pour le coup, liberticides. C’est pour cela que je crois plus à la piste de renforcer la résilience des populations, mais à réguler aussi les réseaux sociaux pour qu’ils redeviennent, en quelque sorte, des environnements dans lesquels toutes les voix comptent de la même manière, aujourd’hui ce n’est pas le cas. Aujourd’hui, des campagnes de désinformation sont organisées et jouent sur les mécanismes de personnalisation des contenus des réseaux sociaux, etc., donc, la concurrence est biaisée en faveur de la désinformation. C’est rétablir une situation dans laquelle l’information de qualité, produite selon certains standards, puisse réapparaître avant les autres types d’information.
Delphine Sabattier : On arrive déjà, pratiquement, à la fin de notre débat, mais, Thomas, je voulais qu’on revienne sur l’expérimentation que vous avez menée, avant les élections européennes de 2019, avec des étudiants de Sciences Po, pour voir comment, justement, comment se fabriquait l’opinion.
Thomas Huchon : L’idée de ce film [15] : on était juste après la crise des Gilets jaunes et effectivement, pendant la crise des Gilets jaunes je crois nous sommes nombreux, en nous informant sur les réseaux sociaux, à avoir vécu dans des mondes parallèles. Moi, par exemple, je ne voyais, sur mes réseaux sociaux, que des Gilets jaunes complotistes, d’extrême droite, qui faisaient des choses horribles, qui disaient des trucs horribles, et j’ai plein de gens, dans mon cercle proche, qui avaient plutôt une autre vision des Gilets jaunes : de nouvelles formes de mobilisation, de l’investissement politique de gens qui étaient abstentionnistes traditionnellement, qui ne s’intéressaient pas à la chose publique. Ces deux réalités existaient, il y avait des complotistes chez les Gilets jaunes et il y avait aussi des gens qui ont tenté de nouvelles formes de mobilisation militante.
Après avoir interrogé, pendant des années, le problème du contenu, c’est-à-dire de la circulation de la désinformation, j’ai essayé d’interroger, je me suis posé la question : est-ce que le problème, finalement, ce n’est pas Facebook ? Je dis « Facebook » comme on pourrait dire « frigidaire » à la place de « réfrigérateur ». Facebook c’est le plus gros, ce sont trois milliards d’utilisateurs sur la planète, ce sont plusieurs réseaux sociaux différents, donc, quand je dis Facebook dans cette explication, je veux dire « les réseaux sociaux en général ». Nous avons travaillé sur le réseau Facebook parce que c’était le plus utilisé à l’époque.
Qu’a-t-on fait ? On a créé six profils, sur les réseaux, qui étaient occupés par des étudiants qui essayaient de documenter non pas ce que les communautés militantes fabriquaient comme contenu en ligne, mais de regarder ce que la plateforme Facebook leur montrait comme information. On avait un profil Insoumis, un profil Macron, un profil Rassemblement national, un profil Républicain, un profil Gilets jaunes et un profil gauche avec, à l’époque, ce conflit entre Benoît Hamon et Raphaël Glucksmann. Sur les trois mois durant lesquels ces profils ont observé ce que Facebook leur montrait de la réalité, on a constaté qu’on n’a pas un seul contenu commun aux six univers que nous avons créés. C’est-à-dire qu’on a des jeunes, étudiants, qui vivent dans la même ville, qui s’intéressent à la chose publique, qui ont, grosso modo, 70 % de leur profil qui est commun et 30 % qui est différent parce qu’il a une orientation politique – ce ne sont pas des militants, ils ne publiaient rien, ils regardaient ce qui se passait –, on n’a pas un seul contenu qui est commun. Pire ! À un moment de crispation de l’actualité, à un moment où il se passe quelque chose que non seulement les réseaux sociaux nous montrent, mais que tous les médias français et de la planète observent, l’incendie de Notre-Dame de Paris. On a l’incendie de Notre-Dame de Paris et là, immédiatement, j’écris aux étudiants et je leur dis « regardez ce qui va se passer sur vos réseaux, ça va être quelque chose de très intéressant ». Eh bien, là, on n’a pas seulement six univers différents, on a six univers contradictoires : chez les Insoumis, cette histoire de Notre-Dame était horrible parce que les riches, qui ne veulent pas payer d’impôts, voulaient tous rembourser les travaux de Notre-Dame ; chez le Rassemblement national, c’était un coup de terroristes musulmans ; chez Macron, c’était un coup des Gilets jaunes ; chez les Gilets jaunes, c’était un coup de Macron ; chez les Républicains, on pleurait le drame des Chrétiens qui avaient perdu ce symbole et, dans cet univers, Glucksmann et Hamon ne se sont même pas rendu compte que Notre-Dame avait brûlé, ils ont continué à s’engueuler !
On était vraiment dans un truc très problématique pour nos démocraties, non pas sur la qualité de l’information, non pas sur la qualité des contenus, mais sur le fait qu’une démocratie c’est aussi partager un certain nombre de choses. Si nous pouvons vivre avec des vérités différentes, avec des idéologies différentes, avec des choses qu’on pense totalement différentes, des croyances différentes, c’est parce que nous partageons un point de départ. Ce point de départ ce sont les faits, comme si sur cette table, qui est entre nous, nous posions ce sur quoi nous pouvons nous mettre d’accord. Quelque part, ce nouvel univers de l’information dans lequel nous sommes tous mis – même ceux qui ne sont pas inscrits sur les réseaux sociaux sont victimes de cette segmentation de l’opinion à laquelle on assiste –, eh bien quand on ne partage plus rien, on ne peut plus faire société.
Et en réalité, le vrai problème auquel nous sommes confrontés aujourd’hui mais aussi pour les années à venir, c’est cela : comment on refait du commun ? Comment on refait quelque chose qui nous permet peut-être de nous engueuler, mais, au moins, de partager un point de départ et, potentiellement, d’arriver à continuer à discuter. Quand on ne partage plus rien, on ne peut pas discuter, on ne peut pas débattre et, à la fin, on peut pas vivre ensemble. La nature humaine a tendance à remplacer ses positions de débat, de discussions, de dialogues, par une logique de l’affrontement et quand on rentre dans une logique de l’affrontement, ça devient absolument destructeur pour la société. Je crois que la campagne américaine de cette année 2024 va nous montrer un exemple de cela : on a deux camps qui sont ultra polarisés, qui ne partagent presque plus rien de leur point de départ qui permet de construire leurs opinions et leurs orientations, comment cela va-t-il se passer ? Comment cela va-t-il se passer non pas dans la plus grande démocratie du monde, mais, peut-être, la plus importante – ce sont les Indiens la plus grande démocratie du monde, même plus grande que l’Indonésie dont tu parlais tout à l’heure Camille.
Je crois que le vrai problème auquel nous sommes confrontés c’est ça. Ces réseaux devaient, quelque part, nous permettre de nous rassembler et de créer de la discussion. En réalité, ils ont fractionné la société et ils sont en train de détruire la démocratie. C’est cela le vrai problème qu’ils nous posent. Ce n’est pas qu’ils laissent circuler des mensonges, il y en a toujours eu, ce n’est pas qu’ils laissent les gens dire n’importe quoi, tout le monde a toujours dit un peu n’importe quoi, ça se passait plutôt au café du commerce et, comme on avait tous un coup dans le nez, à la fin, le lendemain matin, on ne s’en souvenait pas toujours. Là ça reste, le truc reste en place et il est poussé par des algorithmes qui cherchent, en plus, à capter notre attention. Il y a donc un autre jeu trouble derrière tout ça : pour arriver à nous maintenir connectés à ces plateformes, on nous montre plutôt des choses choquantes, plutôt des choses clivantes, plutôt des choses qui font appel à nos émotions, à la colère, à l’indignation. C’est toute cette espèce de mécanique-là qui nous ramène, quelque part, à un stade de sous-citoyen.
Delphine Sabattier : Justement, en prenant conscience de cette mécanique, en la découvrant comme vos étudiants qui ont mis le doigt sur quelque chose de vraiment très concret, on progresse, on apprend à s’en servir, on peut sortir de ces mécaniques.
Thomas Huchon : Ils n’étaient que six, malheureusement, nous sommes 70 millions !
Delphine Sabattier : On est un petit peu plus nombreux, peut-être, à nous écouter !
Romain, vous vouliez réagir et puis je voulais vous demander, parce que ça va être un peu un dernier tour de table, comment on se prépare, justement là, sur le registre de l’information dans le cadre de cette échéance électorale européenne. J’ai un peu posé la question, personne n’a répondu : est-ce qu’on doit nous aussi, Europe, jouer ce jeu de la désinformation face à ces ingérences étrangères ?
Romain Pigenel : En complément de tout ce qui a été dit, on a à peu près tout dit à nous quatre, je crois qu’il y a quand même une question qui reste fondamentale, c’est : comment occupe-t-on le terrain et comment va-t-on parler à tout le monde ? Quand je dis « on », ce sont les producteurs de contenu fiable, pour qu’il n’y ait, pas, comme on parle parfois des territoires perdus de la République, des territoires perdus du numérique.
Un des enseignements structurels, sur les premières éditions de notre baromètre de l’esprit critique à Universcience, on voit des polarisations, pas forcément en termes d’âge, mais quand on combine âge, sociodémographie, etc. Par exemple, si on regarde le rapport à la science et à l’esprit critique, qui sont ceux qui pratiquent, qui semblent faire le plus preuve d’esprit critique, être prudents dans leur usage des médias et s’intéresser à l’actualité scientifique, c’est un profil qui est plutôt masculin et qui est plutôt dans les centres urbains. En revanche, plus on va dans les périphéries, plus on va sur des personnes qui sont plutôt de sexe féminin, de faible niveau d’éducation, de faible niveau social et plus âgées, et plus on a un éloignement sur tous ces critères-là. On voit donc qu’il y a des vraies problématiques de rupture sociodémographique des territoires, qui rejoignent, d’ailleurs, des choses qu’on voit plus globalement en politique. La question, aussi, c’est comment on arrive à occuper tous les territoires et aller parler à tout le monde. Et, là-dessus, j’ai dit ce qui ne marche pas, mais il y a aussi des initiatives formidables. Avez-vous déjà entendu parler, sur TikTok, d’un média qui s’appelle Curieux ?
Delphine Sabattier : Moi oui !
Romain Pigenel : Parce que tu connais tout, comme Thomas ! C’est aujourd’hui, peut-être, la plus grosse chaîne de média sur TikTok, c’est devant les médias français et, en fait, c’est un compte qui a été créé par un collectif d’animateurs de centres de science du Sud-ouest de la France, donc des structures du type d’Universcience, et qui ont tiré parti de tout ce qu’on a vu, qui on dit « il faut être présent sur TikTok ». Ils y sont allés tôt et c’est aujourd’hui une chaîne qui a, je ne vais pas vous dire de bêtise, des millions d’abonnés, qui cartonne. Pourquoi ? Parce qu’ils produisent des vidéos amusantes, mais sur des sujets de science sérieux, donc ça marche et ils jouent le jeu. Ce qui est intéressant c’est qu’avec des moyens, je pense, bien moindres que ceux des gros médias français, ils ont beaucoup plus d’abonnés. On voit donc que ça peut fonctionner, mais il faut jouer le jeu et, encore une fois, si on n’occupe pas le terrain, d’autres l’occuperont. Il faut aussi être prêt à parler avec les codes qui sont efficaces sur ces plateformes.
Delphine Sabattier : Je fais tourner la parole, c’est la fin de cette émission. Sur ce sujet, Laurent.
Laurent Cordonier : Peut-être juste pour répondre directement à votre question : non, je ne pense pas que les démocraties libérales doivent riposter avec l’arme de la désinformation face aux attaques qu’elles subissent. Je ne pense pas que ce soit une piste à suivre parce que c’est un jeu dangereux. Les démocraties vivent sur la notion de confiance entre les institutions et les citoyens, confiance qui doit être réciproque, confiance qui est aujourd’hui abîmée, ce qui fait que nos démocraties sont abîmées. Mais, si nos démocraties se mettent à produire de la désinformation à l’égard de populations étrangères, comme ça peut être le cas à notre égard, je pense qu’on peut aussi abîmer ce lien de confiance. On n’utilise pas ces armes-là dans la guerre informationnelle, je ne pense pas que ce soit à nous de le faire.
Après, je parle dans la situation d’aujourd’hui. Évidemment que dans un contexte encore plus dégradé, dans un contexte de guerre, etc., on rentre dans un autre régime de fonctionnement et, là, l’information devient une arme j’ai envie de dire comme les autres, mais on n’en est pas là pour l’instant, espérons qu’on n’y soit pas avant longtemps. Dans ce contexte, je pense que ce serait une erreur de le faire, d’ailleurs ça serait aussi casser la possibilité d’exiger, de la part des plateformes, qu’elles respectent les exigences qu’on leur impose. Si, nous-mêmes, démocraties, nous mettons à diffuser de la désinformation et de l’ingérence à l’égard d’autres pays, elles vont simplement nous rétorquer « arrêtez déjà de le faire et ça améliora un peu le problème. »
Delphine Sabattier : Camille.
Camille Grenier : Très rapidement, la Commission va publier sous peu des recommandations justement pour cette période électorale. J’étais au lancement d’un rapport de l’OCDE sur la désinformation [16].
Delphine Sabattier : On n’a pas eu le temps d’en parler, il y a eu un super thread de David Colon [17] là-dessus.
Camille Grenier : Avec, notamment, David Colon et Jean-Noël Barrot, ministre de l’Europe, qui était présent et qui disait justement, pour revenir sur la prise de conscience des ingérences étrangères, que leur stratégie c’est de les dénaturer en les rendant publiques. C’est une stratégie qui a son mérite, à voir si ce sera suffisant. La Commission européenne va donc publier certaines lignes directrices, on vient de contribuer.
Juste pour revenir, si on se recule un peu, je pense qu’il y a une chose qu’il va falloir adresser à un moment, c’est l’ouverture des espaces démocratiques face à des espaces fermés dans des régimes autoritaires qui bénéficient, en quelque sorte, de l’ouverture des démocraties. De la même façon que certains États peuvent jouer avec le débat public, en France, en Europe et ailleurs, pour nous c’est beaucoup plus difficile, tout simplement parce qu’en Chine il y a pas Twitter, il n’y a pas Facebook. Donc, à un moment, il faudra peut-être trouver des accords internationaux, de la même façon qu’il y a des accords sur le libre-échange, peut-être des accords sur l’échange de l’information entre États. Merci beaucoup.
Delphine Sabattier : Thomas, juste un mot.
Thomas Huchon : Je vais essayer de faire très court. Quand on parle d’occuper le terrain, je crois, effectivement, que l’un des vrais problèmes auxquels nous sommes confrontés aujourd’hui, c’est la conséquence du fait que les pouvoirs publics, les grands partis politiques, les grands médias, les journalistes professionnels, n’ont pas voulu aller sur Internet et n’ont pas voulu utiliser cette techno. On n’a pas voulu l’utiliser, ça a été récupéré et, en fait, ce qu’ont gagné « nos adversaires », entre guillemets, c’est la bataille technologique, donc, derrière, la bataille éditoriale.
J’ai décidé de faire un truc un peu différent là, en ce moment, c’est de créer un moi en deepfake, donc j’utilise l’intelligence artificielle pour fabriquer beaucoup plus rapidement des vidéos de contre-discours qui vont venir répondre, dans le temps de la diffusion du mensonge, aux théories du complot et aux fake news qui circulent. On essaye de faire de nouvelles choses, on essaye d’utiliser ces technologies. Ma réflexion vient vraiment du fait que j’ai l’impression qu’on a perdu cette bataille parce qu’on n’a pas voulu aller sur le terrain, donc, j’ai décidé d’aller occuper ce terrain, j’espère que nous serons nombreux à le faire. Je précise juste un truc : si c’est bien un faux Thomas Huchon qui vous parle dans ce compte Twitter anti-fake news/IA, les mots de cet avatar sont tous humains et sont le fruit d’enquêtes réalisées par des humains. Je crois que c’est aussi cela qui fait la vraie différence, c’est de conserver l’esprit critique, mais d’être capable d’utiliser ces nouvelles technologies et d’essayer de retourner l’arme contre celui qui l’utilise contre nous.
Delphine Sabattier : Merci Thomas Huchon, Romain Pigenel, Laurent Cordonier, Camille Grenier.
Merci aussi à la réalisation, c’était aujourd’hui Stéphane Seroussi.
POL/N sera de retour dans une semaine pour de nouveaux débats politiques et numériques et, pour ne rien rater, surtout mettez POL/N dans vos favoris.
À très vite.