Diverses voix off : Allô, allô.
Yes, Thibaut.
Je suis désolé, je ne pourrai pas être parmi vous pour l’enregistrement de cette émission.
Encore !
Ce sont les grèves à la SNCF, je n’avais pas de train.
La grève. Thibaut, attends, tu ne peux pas prendre cette excuse. Ça, ça participe à la désinformation. Tu prends cette excuse, elle va nous paraître évidente.
Le train est en retard.
Encore pire. Tu n’arrêtes pas de dire qu’il y a la grève, que les trains sont en retard, du coup, tout le monde va y croire. Tu participes à la désinformation. Assume !
Franchement, tu ne peux pas te planquer avec ça. Un vrai spécialiste de la désinformation, lui, va t’en parler, c’est David Colon
Diverses voix off, Thank You for Smoking : Et si ça se passait dans le futur ?
Le futur !
Oui, quand on ne parlera plus constamment de santé.
Un monde où fumeurs et non-fumeurs vivent en parfaite harmonie.
Ça tombe bien, Sony a un film de science-fiction en projet, message du secteur six, une station spatiale comme lieu d’action et ils cherchent justement à cofinancer.
Des cigarettes dans l’espace, c’est la dernière frontière.
Voix off : Trench Tech. Esprits Critiques pour Tech Éthique.
Cyrille Chaudoit : Bienvenue à toutes et à tous. Vous êtes bien dans Trench Tech, le podcast qui titille votre esprit critique pour une tech plus éthique.
Cyrille Chaudoit au micro avec Thibaut le Masne.
Thibaut le Masne : Hello tout le monde.
Cyrille Chaudoit : Et Mick Levy.
Mick Levy : Bonjour à tous.
Cyrille Chaudoit : Dans Thank You for Smoking, sorti en 2006, la dernière frontière semblait donc être celle de l’espace et de la crédibilité pour faire la propagande de l’industrie cigarettière grâce au cinéma.
Mick Levy : J’avoue, fumer en orbite, il fallait oser quand même !
Cyrille Chaudoit : Ce n’est pas pratique, Mick, mais, depuis, les écrans de fumée ont changé de camp et si l’art de la propagande, elle, n’a pas pris une ride, c’est désormais au cyberespace que nous sommes tous devenus accros. Pas vrai Thibaut ?
Thibaut le Masne : Ouais, d’ailleurs, je me demande si je ne préférais pas l’odeur du tabac froid, finalement !
Cyrille Chaudoit : Il faut voir ! En tout cas, ce qui ne vous laissera pas de glace, c’est l’Histoire que nous allons vous conter, l’Histoire avec un grand « H » mes amis, de cet art de la manipulation que certains ont été jusqu’à qualifier de « fabrique du consentement » et qui, de nos jours, avec les technologies modernes, a pris une envergure telle que notre invité la déclare, quant à lui, « guerre de l’information ». Et face à une telle guerre, où tous les coups semblent permis, nous allons nous demander s’il est possible de résister sans sacrifier une certaine éthique démocratique.
Notre invité, c’est David Colon, historien, professeur à Sciences Po, spécialiste de la propagande et des techniques de communication persuasive, il est aussi l’auteur de plusieurs ouvrages, dont le dernier en date est paru en 2023 : La Guerre de l’information – Les États à la conquête de nos esprits aux éditions Tallandier. Et, dans cette guerre, nous sommes tous concernés, car l’objet de cette guerre, ce n’est pas un territoire ou plutôt, si, le plus intime des territoires, notre cerveau. Oui, nous sommes en guerre, et nous ne le savons pas. Alors, restez avec nous jusqu’à la fin de cet épisode, car voici le programme.
D’abord, nous reviendrons avec David aux racines du mal, la guerre mondiale, sans fumée, initiée par les États-Unis, pour paraphraser un ancien président chinois, puis, nous interrogerons le double jeu des acteurs privés dans cette conquête de nos cerveaux, avant de tenter de nous rassurer, en demandant à David sur quelle ligne Maginot compter pour nous défendre.
Mais ce n’est pas tout ! Comme d’habitude, vous retrouverez également deux chroniques dont vous êtes fans, « Débats en Technocratie » de Virginie Martins de Nobrega, qui nous parlera de l’AI Act et la « Philo Tech » d’Emmanuel Goffi, bien sûr, où nous parlerons d’anthropomorphisme.
Et n’oubliez pas, dans moins d’une heure à présent, nous débrieferons juste entre vous et nous, cher public, des idées clés partagées par David dans cet épisode. Restez donc jusqu’au bout. Vous êtes prêts ? OK. Alors accueillons ensemble David sans plus tarder.
Bonjour David.
David Colon : Bonjour.
Cyrille Chaudoit : David, est-ce qu’on sacrifie à la tradition de Trench Tech ? Est-ce qu’on peut se tutoyer ?
David Colon : Affirmatif.
Cyrille Chaudoit : C’est parfait. Alors c’est parti pour notre grand entretien. Vous êtes bien dans Trench Tech et ça commence maintenant.
Voix off : Trench Tech. Esprits Critiques pour Tech Éthique.
Une guerre mondiale sans fumée
Mick Levy : « La masse est incapable de juger correctement des affaires publiques », même si, je dois le confesser, je ne suis pas complètement en désaccord avec cette citation, elle n’est pas de moi, mais d’Edward Bernays. Qui ? Edward Bernays [1]. Publicitaire, américain, pionnier du marketing, considéré comme le père de la propagande politique, c’est donc certainement par lui que, dans les années 1940, tout a commencé. Finalement, si la propagande et la désinformation ne sont pas l’apanage du numérique, pourquoi, David, cela devient-il une telle préoccupation aujourd’hui ?
David Colon : Ça devient une préoccupation, parce que nous sommes entrés dans une ère de propagande totale où nos esprits sont exposés plusieurs heures par jour à la propagande, où cette propagande est désormais une propagande interactive dès lors que nous produisons des données exploitées par les propagandistes et enfin, une propagande qui est désormais automatisée, cybernétisée et ce, de plus en plus, avec l’essor des outils d’intelligence artificielle. Autrement dit, il est devenu aujourd’hui quasiment impossible d’échapper à la propagande.
Mick Levy : J’ai le sentiment qu’il y a cette peur-là depuis toujours. Je lisais un papier qui disait qu’à l’époque de Gutenberg, quand l’imprimerie est arrivée, il y avait déjà eu cette crainte de dire « on va pouvoir faire de la propagande et puis il va y avoir des mauvaises informations, parce qu’on va pouvoir les diffuser beaucoup plus largement » ; l’arrivée de la radio, même peur ; l’arrivée de la télé, même peur. Là, n’est-on pas face à des comportements qui se reproduisent, finalement ? Et bon !, c’est l’air du temps !
David Colon : La racine du mot propagande, c’est « propagation », le verbe propager. Il s’agit de propager des idées, de propager des comportements, autrement dit, de propager des conduites. La différence fondamentale entre notre époque et les époques antérieures, c’est précisément la capacité de propager des contenus à une échelle absolument inédite dans l’Histoire, quand vous songez, par exemple, à ces hashtags sur TikTok qui peuvent atteindre des milliards d’individus. Nous sommes en présence de quelque chose de tout à fait nouveau, de tout à fait distinct de tout ce que nous avons connu par le passé.
Mick Levy : D’accord. C’est aussi qu’à chaque époque cette capacité d’atteinte est encore, à chaque fois, plus forte, entre l’imprimerie, la radio, la télé et maintenant le numérique. Il y a aussi cette question d’échelle, finalement.
David Colon : Elle l’est parce que, fondamentalement, la propagande est un art appliqué, une science appliquée. Elle vise un objectif pratique qui peut être de voter, de ne pas voter, d’acheter, de ne pas acheter, de cliquer sur un lien ou ne pas cliquer sur un lien. Pour atteindre cet objectif pratique, ceux qui recourent à la propagande s’appuient sur les progrès des technologies et les progrès des sciences pour, sans cesse, perfectionner leur art. Tu mentionnais tout à l’heure Edward Bernays, il s’est inspiré, à la fin de la Première Guerre mondiale, de la pensée de son oncle Freud parce que, le premier, il s’est demandé ce qui, dans la pensée freudienne, pouvait être appliqué à l’art de la persuasion de masse, aussi bien dans des campagnes publicitaires que, déjà, dans des campagnes politiques.
Mick Levy : Je ne savais pas qu’il y avait un lien de parenté entre les deux, tu m’épates.
Cyrille Chaudoit : C’est peut-être bien de rappeler, quand même, un petit peu l’histoire d’Edward Bernays, de rappeler simplement à quel moment ça arrive dans l’histoire, aux États-Unis, post Première Guerre mondiale. Peux-tu nous en dire deux mots ?
David Colon : Bernays est né à la fin du 19e siècle. Il a émigré tout de suite aux États-Unis, il a ensuite entamé sa carrière de publiciste, comme on disait, avant de se spécialiser dans les relations publiques à la fin de la Première Guerre mondiale. Il est celui qui a eu la plus grande longévité, il a publié, en 1928, un livre qui s’appelle Propaganda, qui est un best-seller jusqu’à nos jours. Mais, au risque de vous choquer, de vous heurter, il n’est pas le génie de la propagande qu’il prétendait être, il en est d’autres qui ont eu beaucoup plus d’importance, soit avant lui, soit après lui. Fondamentalement, les États-Unis ont été le creuset de la publicité scientifique, ils ont été le creuset des relations publiques, du lobbying, ils ont été le creuset, également, des études de marché, des sondages, ils ont été le creuset d’écoles vouées à l’étude des courants de la communication et des laboratoires voués à l’influence sur les comportements humains. Dès lors, c’est cette fabrique de la persuasion à grande échelle qui, de proche en proche, a gagné le monde industrialisé dans son ensemble et pas simplement le monde démocratique, puisque ces maîtres de la manipulation, comme je les ai appelés dans un précédent ouvrage [Les Maîtres de la manipulation. Un siècle de persuasion de masse], ont souvent été recrutés par des régimes autoritaires, pour mener leurs propres campagnes.
Cyrille Chaudoit : Et justement, un autre auteur, Noam Chomsky [2], disait que la propagande est à la société démocratique ce que la matraque est à l’État autoritaire, on est donc un petit peu confus. C’est vrai que les propos d’Edward Bernays, cités par Mick en introduction, ne sonnent pas très démocratiques, finalement, dans l’esprit. Quelle différence fais-tu entre la propagande issue du monde publicitaire, donc d’une volonté d’influencer les opinions, on pourrait penser gentiment, d’abord pour de la consommation, et la désinformation telle qu’on la vit à l’heure actuelle, certes sous un angle plutôt politique, mais ça a l’air d’être le même combat quand même ?
David Colon : La désinformation est un outil au service de la propagande. On la définit comme toute stratégie de communication de masse qui vise à agir sur les conduites des individus, à grande échelle. En l’occurrence, dans un régime autoritaire, la propagande est le prolongement de la terreur. Il s’agit d’imposer une idéologie, d’imposer l’image d’un dictateur, il s’agit d’empêcher, comme aujourd’hui en Russie, l’expression d’une opinion dissidente. Tandis qu’en démocratie, la propagande repose nécessairement sur une autre démarche qui est celle de l’art de la persuasion. Il s’agit de conduire les individus à adopter le comportement, notamment électoral ou en termes de versement des impôts, que l’on attend d’eux. Dès lors, ce que traduit cette référence à Chomsky et, avant Chomsky, à la pensée des théoriciens de la fabrique du consentement, dont Walter Lippmann [3], c’est l’idée qu’au fond, si on ne peut pas suivre le peuple, parce que le peuple ne nous semble pas digne d’être suivi dans ses volontés, il faut alors fabriquer le consentement du peuple à ses décisions, à ses politiques que l’on juge nécessaires, bonnes et justes.
Cyrille Chaudoit : « Que l’on juge nécessaires, bonnes et justes » et c’est peut-être là que se situe la véritable question.
David Colon : Qu’est-ce qui est juste et qu’est ce qui est nécessaire ?
Cyrille Chaudoit : Oui. Ou qui sommes-nous pour décréter ce qui est bon et juste, parce que, de l’autre côté, dans les camps adverses, ils ne sont pas loin d’avoir la même idée, finalement, que leur combat est juste et bon, qu’il est meilleur que le nôtre.
David Colon : Oui, bien évidemment. La propagande n’est pas un mal en soi. Ce qui doit être jugé à travers la propagande, c’est, d’une part, le but poursuivi : si vous faites de la propagande pour exterminer un peuple, ce n’est pas exactement la même chose que de faire de la propagande pour vendre des yaourts.
Cyrille Chaudoit : On est d’accord.
David Colon : Ensuite, il faut juger le mode de propagande auquel vous avez recours. Si vous faites de la propagande blanche, c’est-à-dire officielle, sans masquer l’origine de votre discours et sans recourir à la désinformation, comme le font généralement les diplomaties publiques des régimes démocratiques, vous êtes dans quelque chose que l’on considérera comme normal. Quand, en revanche, vous recourez à des officiers de renseignement pour mener des actions de subversion à l’extérieur de vos frontières, pour agir sous de faux drapeaux et manipuler l’opinion ou exacerber les tensions, vous recourez là à un mode de propagande, propagande noire, qui est hautement contestable.
Il ne faut pas s’en tenir, en matière de propagande, à la question de la désinformation. En réalité, vous pouvez tout simplement mettre en évidence des choses tout à fait vraies, mais qui sont dommageables à la société adverse. Le KGB n’a pas inventé la ségrégation raciale pendant la guerre froide, simplement, le KGB a fait de la ségrégation raciale l’un des thèmes privilégiés de sa propagande et de ses campagnes de déstabilisation pour fragiliser l’image des États-Unis.
Cyrille Chaudoit : Tu nous parles de propagande blanche. J’ai un peu de mal à matérialiser. Quels seraient des exemples de propagande blanche, transparente d’une certaine manière, en tout cas dont la démarche fait l’objet d’une certaine forme de transparence ?
David Colon : Le 4 février, l’agence TASS, qui est l’agence officielle de la Russie, a publié une déclaration de Dmitri Medvedev, le vice-président du Conseil de sécurité de la fédération de Russie et président du parti politique de Vladimir Poutine, dans laquelle il explique que oui, bien évidemment, la Russie va chercher à soutenir les partis anti-système en Europe, parce qu’il est dans son intérêt que ces partis obtiennent de bons résultats. Il s’agit d’une campagne de propagande tout ce qu’il y a de plus officiel : on connait la source, elle ne se cache pas, le contenu n’est, pour le coup, manifestement pas mensonger, puisqu’il est étayé dans les faits par tout ce que l’on sait aujourd’hui des opérations russes, c’est ce que l’on appelle de la propagande blanche, puisqu’il en attend un effet, en l’occurrence auprès des opinions publiques européennes.
Thibaut le Masne : Pour prolonger un peu la pensée. Dans les démocraties, normalement, l’information circule relativement librement, on va même dire plutôt très librement, on parle souvent de cette fameuse expression « la liberté d’expression », c’est vraiment notre leitmotiv. Du coup, très régulièrement, les outils web ou les réseaux sociaux sont l’expression, justement, de cette liberté d’expression. Pourquoi n’assiste-t-on pas à une espèce de forme d’autorégulation dans ce cadre-là ? Pourquoi tout cela exacerbe-t-il un peu ce sujet ?
David Colon : Thibaut, tu présentes là une vision extraordinairement libérale, classique, avec cette idée que les marchés s’autorégulent, se stabilisent, l’offre, la demande, etc. Tu supposes aussi qu’il y a une demande d’informations de qualité et d’informations authentiques ! Je ne suis pas sûr que c’est la première information que nous recherchons nécessairement quand tu vois le succès, par exemple, de photos de chats sur les réseaux sociaux.
Plus sérieusement, Ivan Agayants, qui était le grand chef du service de désinformation du KGB pendant la guerre froide, qui a été deux fois ambassadeur à Paris, avait une formule que je trouve très révélatrice, il disait : « Si la liberté d’expression n’existait pas en Occident, il faudrait l’inventer pour les Occidentaux. » D’autres manipulateurs de masse russes se sont maintes fois félicités de la simplicité et de la facilité avec laquelle ils parvenaient à instrumentaliser les libertés pour les retourner contre les régimes démocratiques, parce que nous sommes des sociétés ouvertes, nous sommes des sociétés de liberté, nous valorisons la contradiction, nous respectons les différents points de vue, à la différence des régimes autoritaires où le point de vue qui n’est pas celui de l’État est réprimé, parfois extrêmement durement, comme on le voit aujourd’hui en Russie. De la sorte, les régimes autoritaires n’ont aucun mal à, comment dire, faire basculer le marché de l’information à leur avantage. Ils le font ouvertement, de façon transparente, en recourant à la propagande blanche dont on a parlé. Ils recourent aussi à des formes de propagande plus discrètes, comme celles qui ont été révélées dans Le Point, très récemment, avec le cas de journalistes français qui étaient traités par des services de renseignement étrangers ; ils le font en recourant aux services de sociétés occidentales spécialisées dans le lobbying, l’influence, c’est-à-dire qu’ils arrivent à peser sur le débat public, à façonner le débat public.
Thibaut le Masne : Je ne suis pas pour la liberté complète, mais j’ai plutôt envie de croire en l’esprit collectif plus qu’autre chose et je me dis que, finalement, dans l’image que tu as l’air de dépeindre, ça sous-entendrait que nous sommes beaucoup plus malléables et beaucoup plus influençables qu’une autre civilisation qui serait peut-être sur un régime un peu plus dictatorial. Je pensais qu’on avait au moins la richesse intellectuelle d’aller contrôler, enrichir et chercher un petit peu la quête de vérit, être moins sensibles à ce genre d’influence.
Mick Levy : Si je comprends bien, c’est que nous sommes véritablement en guerre.
David Colon : Non. Avant de dire que nous sommes en guerre, Mick, il faut considérer le fait que l’information, en Occident, repose sur un marché, et ce marché de l’information est un marché économique. Sur les réseaux sociaux c’est très simple, ce marché économique est tributaire des revenus publicitaires. Donc, l’intérêt des plateformes est de valoriser le type d’information qui va maximiser le revenu publicitaire, ce qui ne valorise pas, Thibaut, l’information de qualité, on le sait.
Ensuite, en ce qui concerne les médias traditionnels, c’est la même logique qui est à l’œuvre, dès lors que ces médias, depuis une trentaine d’années, dans les pays démocratiques occidentaux, traversent une crise sans précédent de leur modèle économique. Lorsque Google Trends et Google News ont modifié leurs algorithmes, il y a quelques mois, à la rentrée dernière, cela a placé les journaux, les médias occidentaux, dans une situation de dépendance considérable à l’égard de tendances qui sont influençables par le recours à des dispositifs de search engine optimization. Ça les rend à la portée de ces agences spécialisées dans le trucage du marché de l’information. C’est à cela que nous devons faire face aujourd’hui. C’est un marché qui ne garantit plus l’intégrité de l’information.
Mick Levy : Très bien. Merci David. C’est d’ailleurs aussi comme ça que l’Europe cherche à réguler et c’est ce dont on va parler dans cette chronique « Débats en Technocratie ».
Voix off : Débats en Technocratie.
« Débats en Technocratie » de Virginie Martins de Nobrega « Une guerre mondiale sans fumée »
Mick Levy : Virginie, aujourd’hui tu nous emmènes explorer le volet réglementaire de l’IA. Les États membres de l’Europe ont approuvé à l’unanimité, le 2 février 2024, la loi sur l’IA le fameux IA Act. Que doit-on retenir des quelque 250 pages de texte [4] ?
Virginie Martins de Nobrega : Huit points.
Le premier, c’est que c’est le premier texte réglementaire en matière d’IA.
Deuxième point, il s’applique à tout le cycle IA pour tous les secteurs, à l’exclusion du militaire et de la Défense, ce qui est assez classique.
Troisièmement, il s’applique également aux entreprises ou aux individus étrangers qui placent sur le marché ou utilisent pour la première fois le système IA en Europe, c’est ce qu’on appelle l’effet extraterritorial.
Quatrième point à retenir : il y a une classification des risques à trois niveaux – faible, modéré, inacceptable – et des obligations afférentes différentes, qui vont de l’obligation de transparence, la traçabilité, système d’évaluation et de gestion des risques, à la gouvernance des données, etc.
En sus de cette obligation générale de transparence, tu auras des règles spécifiques pour les modèles d’IA à usage général qui présentent des risques systémiques.
Sixième point, tu as une évaluation des droits et libertés fondamentales pour les systèmes à haut risque et les applications liées au secteur public et obligatoires.
Septième point, tu auras des amendes forfaitaires qui pourront aller de 1 à 7 % du chiffre d’affaires.
Et, dernier point, huitième point, les différentes autorités seront au niveau national et européen et superviseront la mise en œuvre de ce texte.
Mick Levy : Avec ces huit points et 250 pages, l’Europe confirme donc sa stature mondiale en matière de réglementation de la technologie. Peut-on aller jusqu’à parler d’exception européenne ?
Virginie Martins de Nobrega : Si tu mets en perspective ce texte avec les déclarations politiques d’Hiroshima, du G20, de certains pays du Sud, de la Chine et des États-Unis qui sont quand même très prévalents sur le domaine, nous sommes en phase, je dirais, avec les déclarations d’intention pour une IA de confiance, centrée sur l’humain, respectant les droits de l’homme et les libertés fondamentales et devant être encadrée pour en limiter les impacts néfastes sur les utilisateurs et les populations les plus vulnérables.
Il confirme aussi la volonté de l’Europe d’avoir une IA de confiance, axée sur le facteur humain.
Ça s’inscrit également dans le momentum lancé par le texte de l’Unesco, par l’ITU [Union internationale des télécommunications], l’OCDE, le Conseil de l’Europe. On est donc vraiment dans la mouvance actuelle, en tout cas au niveau des déclarations politiques.
Maintenant, en pratique en effet, l’Union européenne est le premier bloc à mettre en place un régime complet et particulier, couvrant l’entièreté des applications IA, les services numériques, le marché du numérique. Donc, dans un contexte international instable, avec une course effrénée à l’IA qui est vue comme un facteur de croissance, de productivité, d’avantages stratégiques, on pourrait dire que c’est un choix politique, unique, assumé, de trouver un équilibre entre la loi du marché, l’innovation et les valeurs humaines, donc oui, peut-être, une exception européenne.
Mick Levy : Cool ! Alors en pratique, pour moi, utilisateur et citoyen, quel est l’impact de ce fameux IA Act ?
Virginie Martins de Nobrega : Je pense que pour nous, utilisateurs et citoyens, l’exemple le plus parlant ce sont les interdictions qui sont faites au titre d’un risque jugé inacceptable pour nous, citoyens, et la société telle que nous la voyons, telle que nous la concevons et telle que, peut-être, nous voulons la développer ou la nourrir par l’IA. Là, je donnerai peut-être plusieurs exemples qui vont montrer à quel point ça peut être impactant :
- interdiction des techniques subliminales pour manipuler et influencer les comportements humains ;
- interdiction du profilage biométrique pour catégoriser les personnes en fonction de critères ethniques, de pensée ou de croyance ;
- interdiction du profilage criminel pour la prédiction des crimes, c’est-à-dire prédire en fonction de critères ethniques, religieux, de croyances, qui va commettre un crime ou qui est plus susceptible de commettre un crime, ce qui, en fait, s’opposait vraiment à la notion d’État de droit ;
- interdiction, présente dès le début, du scoring social ; le scoring social, c’est, comme on le sait, permettre l’évaluation et la classification des personnes en fonction de leurs comportements jugés conformes, ou non, à une norme sociale, pouvant anticiper des traitements différenciés et moins favorables, notamment le retrait des aides sociales ou le retrait d’un droit ;
- en matière de police, interdiction de l’utilisation en temps réel des techniques biométriques, typiquement la reconnaissance faciale, de façon généralisée, sauf exceptions. Encore une fois, là, c’est peut-être le modèle européen, l’exception européenne, mais ce n’est pas le cas dans tous les pays, puisque tu as une généralisation de la reconnaissance faciale dans l’espace public, notamment en Europe centrale, en Asie ou dans le Caucase du Sud ;
- et enfin, interdiction de la reconnaissance des émotions sur le lieu de travail ou au niveau éducatif, sauf pour exception de sécurité et de santé. Concrètement, si tu es en télétravail, tu ne peux pas avoir un logiciel dans ton ordinateur pour voir si tu travailles ou si tu ne travailles pas ; si tu es à l’école, on ne peut pas juger, savoir si tu es attentif, si tu es en colère, donc induire une forme de régulation sociale du comportement, des émotions.
Donc oui, c’est un peu important et c’est intéressant pour nous puisqu’on défend aussi une vision de l’Europe, une vision de nos sociétés. Encore une fois, la question c’est : pour qui, pourquoi et comment nous le faisons ?
Voix off : Trench Tech. Esprits Critiques pour Tech Éthique.
Le double jeu des acteurs privés
Cyrille Chaudoit : Walter Lippmann. Ce nom a déjà été prononcé tout à l’heure par David, contemporain de Bernays. Il disait que quiconque maîtrise le processus de formation de l’opinion publique est capable de la manipuler. Nous venons de voir que cette guerre de l’information est surtout une guerre cognitive, les territoires à conquérir sont, désormais, nos cerveaux. Or, qui possède aujourd’hui notre attention, disposant ainsi d’une porte béante sur notre cognitif, sinon les acteurs de la tech, ces faiseurs d’algos, qui, pour reprendre Lippmann, « maîtrisent le processus de formation de l’opinion publique » ?
David, quelle est leur véritable place dans cette guerre ? Ces acteurs privés sont-ils le bras armé des États comme le pense, par exemple, Asma Mhalla [5], ou des francs-tireurs ?
David Colon : Il faut savoir de quels acteurs on parle. Si on parle des plateformes, oui, Asma a tout à fait raison de souligner le fait qu’elles sont des acteurs géopolitiques à part entière et, bien évidemment, elles sont tributaires de l’environnement politique qui est le leur. Il est difficile, pour une plateforme américaine, de ne pas autoriser des backdoors pour les services de renseignement américains, tout comme il est difficile, pour une plateforme chinoise, de ne pas autoriser les mêmes backdoors, portes dérobées, pour les services de renseignement en Chine.
Cyrille Chaudoit : Elles répondent à une demande spécifique, dans ce cas-là.
David Colon : Elles répondent à une obligation qui est la subordination d’une entreprise de technologie aux intérêts stratégiques de l’État qui l’abrite. En l’occurrence, il ne faut pas oublier deux points d’histoire : dans les années 1990, la guerre froide était finie, il y avait beaucoup moins d’investissements dans les services de renseignement et, lorsque Internet s’est développé, la difficulté pour la NSA et pour la CIA c’était de ne pas disposer des outils nécessaires pour monitorer l’Internet commercial naissant. Raison pour laquelle ils ont investi dans un certain nombre de startups pour ne pas passer à côté de cette révolution. On a vu, par exemple, Google rendre des services importants à la NSA pour se doter d’outils de catalogage du Web à l’époque. De façon générale, il est très difficile pour une entreprise de la tech, d’échapper totalement à un environnement militaro-industriel, dès lors que les contrats des plus petites d’entre elles en dépendent très nécessairement.
Cyrille Chaudoit : Justement by design, par rapport à leur business modèle, avec cette idée d’aller conquérir la planète comme ce fut le cas, par le passé, avec la pop culture, avec les marques de grande consommation type Coca, etc., est-ce que c’est une façon aussi d’être le bras armé de ces États, pas uniquement dans une logique de subordination à ces États lorsqu’on leur demande d’ouvrir des backdoors ?
David Colon : Il est certain que ces plateformes ont une ambition qui leur est propre. J’ai consacré un chapitre d’un livre récent [Les maîtres de la manipulation : un siècle de persuasion de masse] à Mark Zuckerberg. Mark Zuckerberg n’a pas pour projet de subordonner son entreprise aux intérêts géostratégiques des États-Unis. Il se pense en empereur mondial de la tech et, au contraire, il essaye, depuis longtemps, de séduire le régime chinois. Pour accéder à l’esprit des Chinois, il était prêt à adapter Facebook aux attentes du Parti communiste. Il a même demandé à Xi Jinping d’être le parrain de sa fille à naître. Xi Jinping lui a répondu que c’était trop d’honneur, c’était trop de travail, trop de responsabilités.
[Rires]
Mick Levy : Emmener sa filleule au cinéma et tout, non !
David Colon : Cet honneur impliquerait trop de responsabilités.
Plus sérieusement, la difficulté à laquelle on est confronté, c’est précisément le fait que, à partir du moment où vous êtes intéressé par des marchés au-delà des frontières de régimes démocratiques, et toute entreprise globale est nécessairement intéressée par les marchés de régimes autocratiques, vous ne pouvez pas ignorer les attentes de ces régimes autocratiques. Et vous ne pouvez pas, par exemple, fermer l’accès de votre API [Interface de programmation d’application], quand vous avez une API, à des plateformes ou des développeurs de régimes autoritaires, pas plus que vous ne pouvez refuser, ou ne vous sentez le besoin ou l’envie de refuser, l’argent qui vient d’agents qui opèrent pour le compte de la Russie ou de la Chine.
C’est ce que je raconte longuement dans le dernier livre à propos des technologies de Cambridge Analytica [6].
Mick Levy : Précisons juste au passage : une API est un service ouvert, typiquement par une plateforme comme Facebook ou autre, pour permettre à des développeurs de développer eux-mêmes d’autres services en se basant sur Facebook, en se basant sur des services ouverts sur Facebook.
Cyrille Chaudoit : Oui, on n’a pas que des geeks dans l’audience.
David Colon : Vous n’avez pas que des geeks ! Je pars !
Mick Levy : Non. D’ailleurs, si on avait un super geek qui puisse venir recâbler le studio, tout est en train de lâcher peu à peu ! Revenons à nos moutons.
Cyrille Chaudoit : Revenons à Cambridge Analytica, justement.
Mick Levy : Tu nous parles des API. Ces API, ces mécanismes en particulier qui sont des mécanismes techniques, rappelons-le, ont servi, effectivement, à Cambridge Analytica et à cette fuite de données massive par des applis qui ont été développées on top de Facebook. Que s’est-il passé avec ça et qu’est-ce que cela révèle sur ce sujet ?
David Colon : Le sujet, ce n’est pas la fuite de données. Les médias français sont focalisés sur la fuite de données Cambridge Analytica, mais le vrai sujet c’est ce qu’on faisait des données.
Mick Levy : C’est la manipulation qu’il y a eu avec, c’est clair.
David Colon : Le fait que ces données ont permis à des systèmes qu’on appellerait aujourd’hui d’intelligence artificielle, des systèmes d’apprentissage profond, de prédire les caractéristiques des individus — politiques, psychologiques —, sur la base de ce qu’ils aimaient sur Facebook.
Mick Levy : Pour ensuite leur afficher des campagnes personnalisées, donc influencer leurs votes.
David Colon : Pas simplement des campagnes personnalisées. Steve Bannon, le vrai patron de Cambridge Analytica, s’intéressait à la constitution de son armée de trolls, harceleurs en ligne, il était très intéressé par les travaux d’Aleksandr Kogan [7] , qui est l’ingénieur vraiment central dans l’affaire Cambridge Analytica, parce que celui-ci se focalisait sur des personnalités extrêmes, qu’on appelle de la Triade sombre [8], qui sont les plus susceptibles d’adhérer à des théories du complot et de s’engager dans des actions violentes. Ce sont précisément les travaux de Kogan qui ont intéressé aussi, à cette époque, c’est-à-dire l’hiver 2013/2014, le renseignement russe, qui a dupliqué les expériences de Cambridge Analytica avec le concours d’Aleksandr Kogan, qui a été recruté pour travailler avec une équipe de psychologues de l’Université de Saint-Pétersbourg. Tout cela participe d’une caractéristique fondamentale de la propagande numérique russe depuis plus de dix ans, qui est leur maîtrise absolument éblouissante de ce qu’on appellerait le marketing digital. Ils ont recruté de nombreux spécialistes de cette question du marketing, ils se sont préoccupés du search engine optimization [Optimisation pour les moteurs de recherche] et aujourd’hui, quand vous regardez les opérations russes, elles sont, le plus souvent, confiées par le Kremlin ou les services de renseignement russes à des petites sociétés russes, spécialisées.
Cyrille Chaudoit : Mick, juste un instant.
Mick Levy : On a trop de questions à te poser, David. Il y a une négo par le regard entre nous, depuis le début de l’épisode !
Cyrille Chaudoit : D’ailleurs, ça vire même à la baston. Il faut absolument que David nous parle deux secondes d’Aleksandr Kogan. Il a passé brièvement sur la Triade sombre, c’est quand même, il vient de nous le dire, à la source même de ce qui a inspiré ensuite les Russes avec ces techniques de marketing digital. Rappelle-nous s’il te plaît, en quelques mots, Aleksandr Kogan et cette Triade sombre, c’est quoi exactement ?
David Colon : Kogan est né en Moldavie, c’est-à-dire en Union soviétique, en 1987, il a brièvement vécu à Moscou avant d’émigrer aux États-Unis, puis d’obtenir un doctorat en physique à Hongkong, puis, enfin, il s’est spécialisé dans la psychographie [9], dans une équipe de psychologues de l’Université de Cambridge qui, précisément, élaboraient des tests de personnalité en ligne pour prédire des caractéristiques, à partir de données Facebook, qui étaient croisées avec les données des tests psychométriques.
À l’origine, ses travaux portaient sur la pro-sociabilité, c’est-à-dire les émotions positives, mais, en creux, il étudiait les émotions négatives et, un jour, il a focalisé ses recherches sur les émotions négatives pour le compte de Cambridge Analytica. L’un des premiers contrats de Cambridge Analytica, c’était pour un État des Caraïbes qui voulait identifier les personnalités les plus extrêmes pour recruter des futurs hommes de main.
Mick Levy : Si ça se trouve, c’est pour cela qu’ils ont ciblé Cyrille, c’est à ce moment-là.
Thibaut le Masne : Fais gaffe au contrat sur la tête.
David Colon : La dark triad, ce sont des personnalités extrêmes, asociales, des gens qui ont des traits à la fois psychopathiques, machiavéliens et narcissiques. Statistiquement, il y a très peu de chances qu’il y en ait un dans le studio.
Mick Levy : C’est rassurant !
Cyrille Chaudoit : Thibaut n’est pas dans le studio !
David Colon : À l’échelle des réseaux sociaux tels que Facebook, Instagram ou TikTok, il y a de quoi remplir plusieurs stades de France. Et, à partir du moment où vous êtes capable de cibler ces individus, en les identifiant sur la base de ce qu’ils aiment – par exemple, en 2013, quelqu’un qui aimait les soucoupes volantes, le paranormal et les couteaux avait une forte probabilité de relever de ce type de personnalité –, vous les touchez par des publicités ciblées sur la base de ce qu’ils aiment, sans avoir aucune donnée personnelle sur eux, puis vous les engagez dans une propagande, dans une chambre d’écho, et enfin, vous les engagez dans l’action en les faisant passer à l’acte.
Cyrille Chaudoit : Là, tu les retrouves au Capitole.
David Colon : On n’est pas, ici, dans de la science-fiction. On est dans quelque chose qui, aujourd’hui, est bien étayé, c’est-à-dire que les gens qui relèvent de cette catégorie-là étaient aux premières loges, le 6 janvier 2020, pour l’insurrection du Capitole.
Thibaut le Masne : Si on regarde un petit peu l’autre bloc qui essaye de se lever face aux USA, c’est la Chine, on pense, notamment, avec TikTok, on a beaucoup entendu parler des craintes d’espionnage que l’on peut avoir, notamment dans l’administration US ou française, mais finalement, en fait, ce que tu es en train d’ouvrir comme porte, qui est déjà bien grande ouverte, ce n’est pas uniquement l’espionnage la vraie crainte que l’on a derrière, ça va un peu plus loin que ça ?
David Colon : Ça va bien plus loin ! Par exemple, pour prédire la personnalité des individus, les Russes, il y a dix ans, travaillaient sur des traces numériques, les likes. Là, le renseignement chinois, dès lors qu’il a un accès à TikTok,ce qui semble aujourd’hui bien étayé, peut non seulement élaborer des prédictions sur les caractéristiques des individus, sur la base d’une approche inductive, une inférence statistique sur la base des données disponibles, mais il peut aussi le faire par voie déductive, c’est-à-dire que le système peut, une fois qu’il a prédit qu’un utilisateur de TikTok était anxieux, l’exposer à des vidéos anxiogènes pour valider ou invalider cette prédiction, et enfin, recourir à l’apprentissage profond, le deep learning, pour identifier des émotions.
Tout à l’heure, il a été question de ces techniques qui sont interdites par l’AI Act, c’est une très bonne nouvelle qu’elles le soient. Ces techniques sont interdites en Europe, il est très difficile d’interdire leur usage en Chine. Il va être extraordinairement compliqué à la Commission européenne, le moment venu, si elle lance une enquête contre TikTok en application de l’AI Act, d’établir ce qu’il en est réellement, parce que c’est une boîte noire.
Je termine sur les menaces. Ça, c’est la capacité de l’outil à inférer des caractéristiques personnelles, mais, ensuite, il y a la capacité de l’outil à les exploiter pour fragiliser la psychologie des individus. Les études disponibles montrent, par exemple, que quelqu’un d’un peu déprimé sur TikTok est exposé, en quelques dizaines de minutes sur TikTok, à des contenus encore plus déprimants avant d’être progressivement poussé au suicide. Il y a quelques jours, une enquête [10] a été ouverte sur la base du DSA [Digital Services Act], par la Commission européenne, qui porte précisément sur le soupçon d’un défaut de respect des obligations à l’égard des plus jeunes, à l’égard des mineurs. Je pense que la question cruciale que l’on doit se poser à propos de TikTok, au-delà de la propagande, au-delà du caractère additif, au-delà, également, de la collecte massive de données qui est réalisée, c’est celle de l’enjeu sanitaire pour la psychologie de ses utilisateurs, à commencer par les jeunes utilisateurs.
Cyrille Chaudoit : Bien. Sur ces joyeusetés, nous allons voir que, parfois, on n’a pas besoin d’être poussé trop fortement pour avoir, nous-mêmes, une tendance à faire des choses assez étranges. On va parler à nouveau d’IA dans la Philo Tech d’Emmanuel Goffi, puisqu’on va parler de notre tendance à considérer ces IA comme nos alter ego.
Voix off : De la philo, de la tech, c’est Philo Tech.
La Philo Tech, d’Emmanuel Goffi : « Anthropomorphisme quand tu nous tiens… »
Cyrille Chaudoit : On le sait tous, les IA et IA génératives en particulier, font le buzz et, avec leur explosion qui est liée à cette capacité que nous avons de traiter avec elles en langage naturel, va de pair l’anthropomorphisation, merci pour ce terme Emmanuel. Est-ce que tu peux nous en dire un peu plus sur ce phénomène d’anthropomorphisation qui se développe à mesure que l’usage des IA génératives se développe également ?
Emmanuel Goffi : La question de l’anthropomorphisation est ancienne et la volonté de dupliquer les capacités cognitives humaines est consubstantielle à la fois de celle de la duplication du corps humain et, au moins en Europe, d’un héritage philosophique qui envisage l’humain comme une machine composée d’une partie matérielle, le corps, et d’une partie immatérielle, l’esprit, auxquelles on ajoute, parfois, une troisième dimension que serait l’âme.
Ce dualisme, que l’on retrouve chez Platon ou chez Descartes, s’est doublé d’un rationalisme scientifique qui est venu renforcer cette comparaison entre l’humain et la machine. Par conséquent, l’idée que la machine duplique les capacités humaines ou vient combler ses incapacités, induit systématiquement une comparaison homme-machine, que ce soit sur le plan physique ou sur le plan psychologique.
Avec l’arrivée des systèmes d’intelligence artificielle, on a plongé dans l’anthropomorphisme psychologique, anthropomorphisme exacerbé par les systèmes d’IA générative et, surtout, cette possibilité d’interagir avec ces systèmes en langage naturel. Dans son avis numéro 7 sur les enjeux éthiques des IA génératives, le Comité national pilote d’éthique du numérique recommandait, je cite, de « réduire la projection des qualités humaines sur les systèmes d’IA générative », notamment, d’ailleurs, en informant l’utilisateur des biais éventuels de l’anthropomorphisation. Le problème avec cette injonction, tout à fait légitime, mais vaine, c’est qu’elle va à l’encontre de cet héritage, mais aussi de notre propension à projeter notre humanité sur des artefacts.
Cyrille Chaudoit : Donc, même si on s’efforce de faire en sorte que les machines ne ressemblent pas aux hommes, quelque part, on se projette quand même et on projette surtout notre humanité sur elles. En gros, l’anthropomorphisme se joue à deux dimensions, c’est ça ?
Emmanuel Goffi : Tu soulèves un point très important. On approche trop souvent l’anthropomorphisme au travers du fait que les systèmes d’IA imitent les capacités cognitives humaines, mais on oublie qu’indépendamment, d’ailleurs, du degré de ressemblance psychologique avec l’humain, eh bien nous avons tendance à attribuer des caractéristiques humaines aux objets. On voit ça par exemple chez l’enfant, dans sa relation à son doudou, mais aussi chez les adultes, par exemple dans la relation quasi charnelle qu’entretiennent certains avec des objets tels qu’une voiture ou une arme. Certains soldats américains ont même développé des relations de fraternité d’arme avec des robots de combat pas du tout anthropomorphes, au point même de risquer leur vie pour aller les récupérer dans des situations dangereuses.
De fait, ça n’est pas toujours le système qui induit l’humain en erreur en raison d’une ressemblance physique ou intellectuelle, c’est aussi l’humain qui est victime de ses propres travers en termes de projection symbolique d’humanité sur des artefacts. Cette capacité de projection peut d’ailleurs être accentuée, dans certains contextes culturels tels que ceux marqués par l’animisme qui considère que les objets ont une âme.
Cyrille Chaudoit : Je vois. En fait, il faut faire preuve d’esprit critique pour bien comprendre la complexité du sujet. C’est ça ?
Emmanuel Goffi : Exactement et c’est ce qu’on dit à chaque fois, c’est d’ailleurs la raison d’être de Trench Tech. Il faut s’extraire du narratif pour essayer de comprendre les phénomènes et, pour les comprendre, il faut nécessairement faire preuve d’esprit critique.
Sur le sujet, on peut par exemple lire les travaux d’Amani Alabed, Ana Javornik et Diana Gregory-Smith [11], qui apportent un éclairage plus large sur l’anthropomorphisme, en traitant, notamment, des notions d’auto-congruence, c’est-à-dire les relations entre l’intelligence artificielle anthropomorphisée et les processus liés à l’identité et d’auto-intégration de l’IA, qui renvoient au lien psychologique qui fait que les systèmes d’IA sont perçus comme faisant partie du concept de soi.
Dans un autre registre, en 2022, dans sa thèse qui portait sur les robots sociaux, Dayle David [12] étudiait l’anthropomorphisme comme stratégie de compensation d’un manque de contrôle.
Bref ! Derrière l’apparente simplicité du concept et les injonctions superficielles qu’il suscite se cache une complexité qu’il est nécessaire de connaître et qui exige un passage au crible de l’esprit critique pour être appréhendé utilement.
Voix off : Trench Tech. Esprits Critiques pour Tech Éthique.
Sur quelles lignes Maginot compter ?
Thibaut le Masne : David, j’ai vu que cette chronique a suscité des réactions chez toi. Est-ce que tu veux nous en dire un peu plus ?
David Colon : Oui, absolument. Je voudrais ajouter un nom à la liste de références bibliographiques qui vient d’être donnée, le nom de Brian Jeffrey Fogg [13], le créateur du Behavior Design Lab de Stanford, qui a fait sa thèse sur les ordinateurs charismatiques. Il a réalisé que nous interagissons avec les ordinateurs comme avec des êtres humains, ce qui conduit à la possibilité, à l’époque théorique, mais qu’il a vérifiée empiriquement, d’appliquer à ces interactions les règles de la psychologie, les lois de la psychologie sociale, les lois du comportementalisme, notamment du comportementalisme radical. Dans son laboratoire, à Stanford, il a formé des générations d’ingénieurs qui, dans les années 2000, ont rejoint les équipes de croissance des géants du numérique, chargés littéralement de pirater le cerveau des utilisateurs en exploitant ses caractéristiques psychologiques et ses interactions. Nous sommes des êtres sociaux et nous avons une tendance naturelle à projeter des caractères humains sur les machines, ce qui nous rend, en retour, potentiellement manipulables par ceux qui conçoivent les designs de ces machines.
Thibaut le Masne : Et voilà, la boucle est bouclée ! On va conseiller le livre à Emmanuel s’il ne l’a toujours pas lu.
David, on ne va pas tourner autour du pot. Si on regarde un petit peu notre activité, on a, d’un côté, l’Ukraine, Israël, les législatives européennes, les JO de Paris, les présidentielles américaines, bref, on a un sacré programme 2024 avec plus de la moitié de la population qui est appelée aux urnes. De l’autre côté, on a l’intensification des cyberattaques, l’explosion de l’IA générative, les deepfakes, l’influence des plateformes sociales qui ne tarit pas. Notons qu’il y a eu plus de 100 millions d’utilisateurs du nouveau réseau social Meta en moins de trois mois, c’est hallucinant ! David, devons-nous craindre qu’en 2024, il y ait un point de rupture en matière de déstabilisation internationale, justement facilitée par la tech ?
David Colon : Ce n’est plus une crainte, à ce stade, c’est une réalité. Nous le savons, les États le savent. Ensuite, le niveau d’alerte varie d’un État à l’autre. Nous avons la chance, en France, d’être dans un État qui a pris conscience de la menace, en l’occurrence de la guerre de l’information qui nous est menée par la Russie – je reprends, non pas le titre de mon livre, mais les mots même du Quai d’Orsay, il y a quelques jours, pour dénoncer les opérations de manipulation russes. Il y a une intensification de ces activités.
Thibaut le Masne : Tu parles de Portal Kombat ? À quoi fais-tu référence ?
David Colon : Oui, dans la foulée de Portal Kombat. Vous savez, au-delà des noms des opérations, Doppelgänger [14], Portal Kombat [15], il y a la volonté manifeste du Kremlin d’interférer avec notre débat public, d’interférer avec notre processus démocratique et, au-delà, de le fragiliser. Il faut bien comprendre une chose, que je peux dire ici, parce que vous me comprendrez mieux que dans d’autres univers, puisqu’on parle de numérique. Le numérique est perçu comme une menace considérable par ces régimes autoritaires, précisément parce qu’il dépasse les frontières, parce qu’il peut acheminer des idées d’un pays à l’autre et d’un bout à l’autre de la planète. Et, parce que cette menace a été accentuée par les réseaux sociaux et accentuée par les téléphones portables, le degré d’implication de ces régimes, je pense en priorité à la Russie de Poutine et au régime communiste chinois, l’intensité des investissements de ces régimes n’a fait que croître. Il s’agit, pour eux, d’une guerre à mort contre les démocraties : soit ils la remportent et font s’effondrer les démocraties, soit ils craignent de s’effondrer.
Mick Levy : On est, en effet, face à un véritable choc entre les démocraties, globalement, entre la démocratie, on pourrait même dire, en tant que concept, qui est menacée, qui est attaquée régulièrement par des régimes beaucoup plus autocratiques, qui ne respectent pas complètement cette liberté.
Si on revient un petit peu à la Chine, on a parlé de TikTok, mais on a aussi beaucoup entendu des choses autour de l’espionnage, on a suspecté la Chine de mettre des backdoors, des outils, pour récupérer des données derrière tous les routeurs de Huawei en particulier, Huawei, fournisseur de matériel réseau qui est très répandu dans tout un tas de réseaux ; il y en avait aussi dans les téléphones chinois. Quelle est la réalité ? Est-ce qu’on a réussi à avoir une réalité de cette crainte autour de ces backdoors, de cet espionnage par ces matériels et par les logiciels chinois ?
David Colon : Si le régime chinois disait les choses franchement...
Mick Levy : Ce n’est pas à lui que j’irais demander !
David Colon : Il vous expliquerait qu’il ne fait que suivre l’exemple qui a été donné par les États-Unis et certains fabricants de matériel américains. Si vous utilisez Cisco, vous savez, éventuellement, ce dont il peut retourner.
Mick Levy : Cisco qui est présent dans à peu près tous les datacenters du monde, rappelons-le déjà, et c’est par « des failles » de Cisco – je le mets entre guillemets parce qu’on ne sait pas si elles étaient faites exprès ou pas – que la NSA a pu effectivement récupérer des données au moment des affaires d’espionnage.
David Colon : Ce qui a changé aujourd’hui et la raison pour laquelle on est en train d’entrer dans une ère totalement nouvelle, c’est qu’on quitte le hacking à la papa, avec des équipes de hackers dans des open spaces, avec des bouteilles de Coca, pour passer à des systèmes automatisés, délégués à des systèmes d’IA, qui vont détecter automatiquement les failles de sécurité. La révolution de l’IA est là. On se focalise trop sur l’IA générative, parce que c’est ce que nous voyons, c’est ce qui nous amuse avec le pape en doudoune. On ne regarde pas assez ce basculement fondamental qu’est l’automatisation de la détection des failles zero-day [16], c’est-à-dire des failles qui ne sont pas connues des fabricants, des producteurs de logiciels et qui sont, aujourd’hui, exploitées en masse par les services de renseignement qui disposent des capacités techniques pour le faire. Il y a eu des alertes très claires, étayées depuis de la part notamment de la NSA et du FBI, quant à la possibilité offerte désormais au régime chinois de pénétrer des systèmes d’information américains, y compris des systèmes vitaux, d’y déposer des implants. Il y a quelques jours, il y a eu ce missile Trident qui a eu un problème au décollage. Je ne peux pas m’empêcher de me demander si on n’est pas en présence, ici, d’un exemple extrême de compromission des systèmes de vol, tel qu’on les a connus dans le passé, c’était le programme Left of lounge dont je parle dans mon livre, un programme de la NSA qui visait les lanceurs nucléaires de Corée du Nord. Le risque, aujourd’hui, représenté par ces failles de sécurité détectées automatiquement, est un risque qui est inédit, nouveau, d’une ampleur nouvelle.
Mick Levy : On en a parlé dans un tout récent épisode avec Françoise Soulié-Fogelman [17], une experte, une pionnière en IA, qui nous parlait de ces risques-là.
Si on revient sur le choc idéologique, qu’on a évoqué juste avant, entre les démocraties attaquées en leur cœur, attaquées dans leur principe même par des régimes plus autoritaires, est-ce que, finalement, nous ne sommes pas un peu naïfs en démocratie ? Est-ce qu’on se défend et on prend finalement, nous aussi, les mêmes armes de désinformation pour attaquer aussi, quelque part, dans cette guerre informationnelle, les autres pays, ou pour se servir aussi de ça pour redresser et remettre notre réalité, on va dire, dans le débat public ?
Cyrille Chaudoit : Oui, parce que, avant d’attaquer, il faut d’abord songer à se défendre. Est-ce qu’on peut déjà commencer à se défendre en suivant une ligne éthique, propre à nos valeurs démocratiques ou républicaines ?
Mick Levy : Exactement.
David Colon : Mick, Thibaut, vous avez raison, nous avons été naïfs, mais je crois que nous ne le sommes plus aujourd’hui. Qu’est-ce qui me permet de le dire ? C’est le fait, par exemple, que les États-Unis, le Canada et le Royaume-uni ont publié, le 16 février, une déclaration conjointe pour faire face aux manipulations de l’information [18] et ont lancé, par la même occasion, un appel aux autres régimes démocratiques pour s’allier dans une perspective multilatérale et faire front face aux manipulations de l’information. Le 4 mars va être rendu public, par l’OCDE, un rapport très important qui s’appelle Facts not Fakes [19], qui porte sur la lutte contre les manipulations de l’information et le renforcement de l’intégrité de l’information ; ce rapport est signé par les 38 États membres de l’OCDE. C’est un tournant important dans la mesure où, précisément, ce rapport repose fondamentalement – sans en trahir le contenu, il est encore sous embargo – sur les principes de liberté qui fondent nos régimes démocratiques. Trop souvent on a pris prétexte, y compris en France, de la lutte contre les manipulations de l’information pour restreindre nos libertés : liberté d’expression, liberté d’opinion, liberté de manifester, liberté d’informer et cela n’a fait, en retour, que servir les intérêts des régimes autocratiques, qui attendaient cela de nous.
Mick Levy : Est-ce que nous les attaquons aussi ? Est-ce que nous menons aussi des guerres de désinformation en Russie, en Chine ou ailleurs, là où on veut peser ?
David Colon : La France est dotée d’un commandement de la cyberdéfense, COMCYBER [20], depuis 2017.
Thibaut le Masne : C’est de la défense, COMCYBER, ce n’est pas de l’attaque.
David Colon : Si, bien sûr que c’est de l’attaque ! Il y a une doctrine de lutte informatique offensive, de même qu’une doctrine de lutte informatique défensive et de lutte informatique d’influence, qui sont des doctrines publiques et puis il y a des activités qui sont menées par nos armées. Ce qui est clair, en revanche, c’est que les actions de la France s’inscrivent dans un cadre qui est un cadre de droit international, humanitaire, que la France s’interdit de manipuler l’information, elle l’a encore confirmé récemment en signant la Déclaration mondiale sur l’intégrité de l’information en ligne [21], le 20 septembre dernier, en marge de l’assemblée générale de l’ONU. La France recourt, ce n’est pas un secret, à l’amplification de contenus. Il est fait recours à des sock puppets, à des faux comptes, à des réseaux de faux comptes, mais pas pour diffuser de fausses informations. Je n’ai pas encore vu de fausses informations diffusées par nos armées dans ce cadre.
En revanche, il faut bien dire une chose : même avec les moyens dont nous disposons aujourd’hui, nous sommes à chaque instant au risque de voir des espaces informationnels submergés par les contenus de régimes autocratiques. On l’a vu notamment au Sahel cet été. Dès lors que la propagande du Kremlin est relayée, par exemple par d’autres écosystèmes de désinformation comme l’écosystème iranien et l’écosystème chinois, ce sont des masses considérables de contenus qui viennent inonder, submerger, tout ce que peut faire la diplomatie française et l’armée.
Cyrille Chaudoit : C’est complètement asymétrique.
David Colon : C’est asymétrique ! C’est fondamentalement asymétrique !
Thibaut le Masne : Si on regarde un petit peu l’histoire de tout ce qui s’est déroulé : en 2007, il y a eu des événements en Estonie, en 2016, les USA, en 2017, la présidence en France. À chaque fois, la déstabilisation russe se compose de cyberattaques, mais est aussi combinée à d’autres événements, voire d’autres strates d’ingérence comme dans un millefeuille : c’est économique, c’est médiatique, c’est narratif, c’est politique. On l’a vu encore, il n’y a pas si longtemps que ça, ça débouche encore.
Quand l’ennemi frappe, c’est dans un momentum bien choisi, sur plusieurs formats à la fois. Comment peut-on se préparer concrètement sur ces scènes-là ?
Cyrille Chaudoit : Y a-t-il des signes avant-coureurs ?
David Colon : Je crois qu’on peut s’y préparer en se dotant des boucliers nécessaires, comme l’a fait la France, même si ces boucliers gagneraient à être davantage dotés en moyens, notamment en moyens personnels.
Nous pouvons nous y préparer en nous dotant d’une stratégie nationale de lutte contre les manipulations de l’information et les ingérences étrangères qui, à mon sens, fait aujourd’hui défaut à notre pays.
Nous pouvons nous y préparer également en nous dotant de lois de transparence pour rendre davantage visibles certaines ingérences étrangères, notamment l’influence à travers le financement de think tanks, des opérations d’investissements publicitaires dans des médias, de rachats partiels de médias ou des joint-ventures avec des médias.
Nous pouvons aussi, et surtout, en sensibilisant la population française aux manipulations de l’information dont elle risque de faire massivement l’objet.
Mick Levy : Mais, avec le terreau complotiste qu’on connaît, ce n’est pas facile cette affaire-là !
Cyrille Chaudoit : Surtout après ce que tu nous as dit sur le travail des algos.
David Colon : Non, ce n’est pas facile, mais, aujourd’hui, on a des outils nouveaux qui ont été développés, je trouve ça personnellement amusant, dans la même université d’où est parti le mal en matière de conspirationnisme, c’est-à-dire la technique que j’évoquais tout à l’heure d’Aleksandr Kogan. Une autre équipe de psychologues de Cambridge, autour d’un Néerlandais qui s’appelle Sander van der Linden [22] a développé des outils dits de pre-bunking, consistant à immuniser par avance les populations à des campagnes de désinformation en les familiarisant avec les grandes techniques de manipulation de l’information auxquelles il est fait recours, en particulier sur Internet, les familiariser avec le trolling, par exemple, ou les familiariser avec le fait d’essayer de jouer sur leurs émotions.
Mick Levy : Tu penses, David, qu’il faudrait apprendre ça à l’école ?
David Colon : Ils ont commencé par l’école, mais, en réalité, il y a un problème d’échelle. À un moment donné, il faut se mettre à l’échelle.
Cyrille Chaudoit : Problème d’échelle et aussi problème de timing.
David Colon : De timing. Ils ont trouvé la solution. La solution ce sont des jeux sérieux en ligne. Ils ont fait Bad News, Go viral !, ils ont fait aussi Harmony Square. Allez voir Harmony Square, allez jouer, ça prend quatre minutes, c’est sur le site du Département d’État des États-Unis, en fait c’est une ville parfaite où les gens ont un festival de l’ananas, ils adorent la démocratie, ils s’entendent bien. Vous, vous êtes Chief Desinformation Officer, vous êtes désinformateur en chef, votre job c’est de mettre le dawa dans ce petit coin.
Cyrille Chaudoit : C’est ça qui est formidable. On en revient effectivement à des leviers de pédagogie, on est bien d’accord, tout cela se pratique quand même sur un relatif temps long.
Pour en finir. Ce matin même, il y avait Jean-Noël Barrot sur le plateau de France Info, Jean-Noël Barrot qu’on a reçu dans Trench Tech quand il était ministre du Numérique, qui est désormais ministre de l’Europe, la question lui a été posée, à l’approche des législatives européennes, sur les tentatives de déstabilisation, notamment russes, pour ne pas les citer. Lui il invoque, il convoque l’idée d’un bouclier, un peu comme à l’époque de la guerre froide et le bouclier anti-missiles, un bouclier sur les réseaux sociaux pour pouvoir s’appuyer sur ces plateformes de sorte à ce qu’elles coupent court dès qu’une information est supposée être de la déstabilisation. Est-ce que c’est totalement crédible ?
David Colon : J’ai vu cette déclaration. Il y a, à mes yeux, quelque chose d’intéressant dans ce qu’il a dit, c’est l’idée de se pencher sur la viralité des contenus. S’il s’agit de supprimer en masse des contenus, je crois que c’est contre-productif. S’il s’agit, en revanche, de s’interroger sur les modes de propagation des contenus, sur les conceptions même des réseaux sociaux et d’envisager de limiter la propagation de contenus, donc, d’empêcher, par exemple, qu’un seul compte puisse en toucher trois millions, là ça me paraît intéressant parce que compatible avec le respect de la liberté d’expression et de la liberté d’opinion.
Cyrille Chaudoit : Oui, mais ça touche à l’algorithme by design, en tant que tel, de la plateforme en question. Parce que, autant dire « si vous voyez un départ de feu, vous mettez le couvercle sur la marmite », mais c’est de la censure et ça ne va pas avec nos règles ; leur demander d’éviter qu’un compte puisse en toucher trois millions d’un coup, c’est leur demander de changer leurs algos et on sait bien que ce n’est pas crédible.
David Colon : C’est la raison pour laquelle, pour ma part, je plaide et je continuerai de plaider, pour la création, rapide, d’un espace intègre numérique, c’est-à-dire un réseau social européen, de service public, qui ne reposerait pas sur une architecture publicitaire, qui ne permettrait pas le recours à des bots et des botnets. J’ai eu cet échange en tête-à-tête avec Jean-Noël Barrot lorsqu’il était ministre de la Transition numérique et il m’expliquait qu’il ne soutiendrait jamais cette proposition. Pourtant, il me semble que cette proposition apparaît, aujourd’hui, plus que jamais nécessaire.
Mick Levy : Nécessaire, mais ça marche si tu arrives à amener plein de monde sur ce réseau social. Un réseau social conduit par l’État va être beaucoup moins sexy, malheureusement, que Facebook, Instagram et TikTok.
David Colon : Pourquoi les gens qui parlent tous les jours de politique de l’offre, cessent-ils de nous parler de politique de l’offre quand il s’agit de l’information ? Si on offre un espace intègre, je suis sûr qu’on y inscrira des gens. Moi j’y inscrirai mes filles quand elles seront en âge d’accéder aux réseaux sociaux. Qui, aujourd’hui, se sent tout à fait en sécurité quand son enfant a TikTok entre les mains ? Regardez tous les gens qui quittent X/Twitter ? J’ai eu un débat avec un journaliste du Guardian qui m’expliquait qu’il avait quitté Twitter et je lui expliquais qu’il avait tort de quitter Twitter. De la même façon que, dans les années 30, on avait tort de laisser l’espace public des villes allemandes aux nazis, c’est ce qu’avait montré Tchakhotine. Lui, qui avait un mode de propagande qui consistait à ne pas laisser le terrain, l’espace public, l’agora des petites villes allemandes, aux nazis, enrayait la diffusion du nazisme, il enrayait la diffusion de l’antisémitisme. Ce n’est pas en quittant massivement Twitter, sans aucune alternative…
Mick Levy : C’est une question d’occupation de l’espace que tu poses.
Cyrille Chaudoit : Surtout sans aucune alternative.
David Colon : C’est céder l’espace public à ceux qui veulent le détruire et qui veulent détruire la démocratie. Ce matin, j’ai vu une déclaration de Jack Posobiec. Jack Posobiec c’est l’homme des Macronleaks, c’est l’homme du Pizzagate, c’est un acteur majeur de QAnon, c’est un proche de Roger Stone, un proche aussi de Steve Bannon aux côtés duquel il s’exprimait à CPAC [Conservative Political Action Conference].
Mick Levy : Que du beau monde là David ! Tu nous fais rêver ! Belle réunion !
Cyrille Chaudoit : Super réunion à CPAC.
David Colon : Qu’est-ce qu’il dit à CPAC devant tous ces conservateurs, ce grand moment, cette grande réunion de CPAC ? Il dit : « En janvier 2021, on n’a pas réussi à détruire la démocratie, mais on va le faire cette fois-ci. » Est-ce que nous allons laisser Twitter aux amis d’Elon Musk dont il fait partie ?
Cyrille Chaudoit : J’aime bien l’exemple que David cite souvent, qui date du 20e siècle, on va dire, à une autre époque, dans les autres médias : il y a eu CNN et puis on a créé Euronews et heureusement qu’on a aussi des alternatives à proposer sur nos marchés locaux. C’est un petit peu l’idée aussi.
Merci David pour tous ces échanges que l’on aimerait sinon plus nourris en tout cas plus longs, ça c’est sûr.
Merci d’avoir participé à Trench Tech. Nous citons et nous rappelons surtout ton dernier ouvrage La guerre de l’information – Les États à la conquête de nos esprits aux éditions Tallandier, qui est sorti en 2023 dans toutes les bonnes librairies, cela va de soi. On peut te suivre sur Linkedin et également sur X, puisque tu nous as dit que tu ne l’avais pas quitté, @Colon_David.
Mais vous qui nous écoutez, rester encore cinq minutes, c’est l’heure du debrief.
Mick Levy : Merci David. Au revoir.
Thibaut le Masne : Merci David. Au revoir.
David Colon : Au revoir.
Voix off : Trench Tech. Esprits Critiques pour Tech Éthique.
Le debrief
Mick Levy : Vous vous souvenez que j’ai une petite marotte. Je vous en ai parlé dans plusieurs épisodes, je vous disais que la campagne sur les punaises de lit – on avait vachement entendu parler des problèmes de punaises de lit, qu’il y en avait plein à Paris, etc. – eh bien on a pu demander à David, en off, il vient de nous le dire, j’ai eu la réponse : il y a vraiment eu une amplification de ce phénomène, dans les médias, par les Russes. Comme quoi, ils vont partout où ils peuvent, pour déstabiliser, jusque dans mon lit ! Déstabiliser le débat public, partout où ils peuvent aller pour déstabiliser, finalement, la démocratie, notamment à l’approche des JO, parce que c’est alimenter cette peur à l’approche des JO.
Cyrille Chaudoit : À l’approche des JO, à l’approche de n’importe quel événement. David le dit dans son livre : partout, sur les plateaux, etc.
Par exemple, l’élection de Trump qui a été poussée, favorisée par les Russes, et dans la foulée les manifestations anti-Trump poussées également par les Russes, parce que, finalement, Trump ou pas Trump, ils s’en fichent, ce qu’ils veulent, c’est semer le chaos, c’est créer le doute et saper la confiance dans nos institutions démocratiques, c’est créer le chaos et ça rappelle – et c’est un hommage – nos amis Emmanuel Goffi, Louis de Diesbach, deux de nos chers chroniqueurs. Je cite simplement Hannah Arendt qui disait : « Quand tout le monde vous ment en permanence, le résultat n’est pas que vous croyez ces mensonges, mais que plus personne ne croit plus rien. Et, un peuple qui ne peut plus croire en rien, ne peut pas se faire une opinion. » C’est donc ça la stratégie des Russes.
Thibaut le Masne : C’est cela qui est absolument incroyable. C’est un peu ce que nous disait David Colon : faut-il voir le mal partout ? Avec les réseaux sociaux, la réponse, globalement, c’est oui. En fait, le mal est un peu partout là-dedans, la désinformation est un peu partout, et l’objectif, c’est de semer un peu le chaos.
Cyrille Chaudoit : Surtout qu’ils sont devenus des superstars du marketing digital, qui savent extrêmement bien exploiter la façon dont les algos ont été construits, dont il nous a rappelé tout à l’heure l’origine par rapport, notamment, à Cambridge Analytica. C’est pour cela que j’ai insisté pour qu’il nous parle d’Aleksandr Kogan parce que, quand on voit d’où ça vient, on comprend un peu mieux les enjeux et les intentions qui sont derrière et qui ont été récupérées par les Russes pour leurs outils de propagande et pour détourner nos outils d’expression publique et d’opinion publique et à leur avantage.
Thibaut le Masne : C’est tout à fait ça. En fait, ils utilisent, ils exploitent NOS outils pour LEUR propagande. C’est cela qui est absolument incroyable dans le truc !
Cyrille Chaudoit : C’est l’arroseur arrosé, d’une certaine manière.
Mick Levy : David nous l’a dit aussi : c’est une guerre de terrain ; il nous l’a dit, finalement, à la fin : il ne faut pas céder du terrain, il faut occuper l’espace public, il ne faut pas laisser ce terrain, donc, ne pas y aller, c’est le laisser à la propagande et à ces campagnes de manipulation.
Cyrille Chaudoit : Ce qui est troublant par rapport à ce que rappelle Thibaut, c’est ce côté arroseur arrosé. Il nous a très bien dit que « les régimes autoritaires réagissent à ce qu’ils ont considéré, à un moment donné, comme étant une menace pour leur propre régime. » C’est-à-dire que face à la démocratie avec ses valeurs, notamment ses outils d’expression, la fameuse liberté d’expression, et les outils des réseaux sociaux qui en sont le symbole, ils ont eu très peur d’une déstabilisation de leur propre régime et qui dit que ce n’était pas une façon de faire ?, à priori, on peut quand même le penser. Donc, ils ont réagi et, par là même, en réagissant ils ont utilisé nos propres outils, nos propres techniques, pour les retourner contre nous.
Mick Levy : J’ai adoré cette phrase qu’il nous a lâchée à la fin, pour rester sur ce thème-là : « Ne pas céder l’espace public à ceux qui veulent tuer la démocratie : il faut qu’on continue d’occuper l’espace public, mais en y agitant nos valeurs, en y agitant des vérités, en y agitant une petite touche de résistance. »
Cyrille Chaudoit : C’est une résistance.
Thibaut le Masne : Une petite touche positive quand même : il nous a dit qu’il y a des solutions et, surtout, que ce sujet, aujourd’hui, est bien pris en considération. On tente d’y trouver des réponses, on tente aussi de contrer un peu cet ensemble-là. Donc, c’est problématique, mais ce n’est pas désespéré.
Mick Levy : Justement, il parlait de s’éduquer à ça. Je pensais qu’il n’y avait pas de solution, il m’a vraiment surpris sur ce coup-là. On entend toujours dire que quand on est face à un papier complotiste, on n’arrivera jamais à le raisonner, etc., mais si, il y a des solutions, il nous parle de serious games, de jeux – rappelons qu’il a cité Harmony Square [23], je ne connaissais pas, j’ai hâte d’aller l’essayer après l’épisode – pour apprendre à s’immuniser, finalement à repérer et à être plus immune aux campagnes de désinformation.
Thibaut le Masne : Ça servira à s’immuniser plutôt que d’aller convaincre un complotiste et perdre son temps.
Mick Levy : Quand tu es face à un complotiste, si tu arrives à lui faire utiliser Harmony Square, peut-être que ça va le changer un petit peu ! À force.
Thibaut le Masne : Bon courage ! Tu nous feras ton rex !
Mick Levy : Il faut qu’ils jouent plus à Harmony Square qu’à Candy Crush.
Cyrille Chaudoit : Candy Crush sur TikTok. En revanche, oui, il y a des solutions, mais ce qui m’effraie quand même un petit peu, désolé, c’est la révolution de l’IA, je cite ce que David nous a dit : « La révolution de l’intelligence artificielle, c’est le basculement fondamental dans l’automatisation de la détection des failles zero-day pour les régimes autoritaires ». On ne parle que d’IA générative. Françoise Soulié-Fogelman nous parlait des risques liés à l’IA dans l’univers du cyber. Là, il nous le dit, c’est très clair, c’est le basculement dans l’automatisation de la détection des failles zero-day, attention ça va craquer.
Voix off : Trench Tech.
Cyrille Chaudoit : Et voilà, vous venez de passer plus ou moins 60 minutes en notre compagnie, à exercer votre esprit critique sur les enjeux de conquête de nos esprits à l’heure de la guerre de l’information.
Merci à David Colon d’avoir éclairé le chemin de nos réflexions pour nous sentir, toutes et tous, autorisés à penser ce sujet par nous-mêmes. Parents, étudiants, décideurs en entreprise ou politiques, les enjeux éthiques que soulève notre façon de concevoir ou d’utiliser les technologies numériques méritent toute notre attention. C’est notre droit et notre responsabilité, pour aujourd’hui et pour demain, de nous assurer de la place qu’elles prennent dans nos vies et dans l’organisation de nos sociétés.
Vous voulez nous aider à propager l’esprit critique pour une tech éthique ? Oui, c’est une bonne décision, c’est simple et c’est gratuit en plus ! Écoutez Trench Tech, partagez nos épisodes et laissez-nous cinq étoiles et un commentaire sur votre plateforme de podcast préférée comme Apple Podcasts. Vous pouvez aussi nous faire part de vos réflexions et suggestions sur nos médias sociaux, Linkedin, X et Instagram.
Et souvenez-vous de ce que disait Hannah Arendt : « Un peuple qui ne peut plus rien croire, ne peut se faire une opinion et, avec un tel peuple, vous pouvez faire ce que vous voulez. »
Voix off : Trench Tech. Esprits Critiques pour Tech Éthique.