- Titre :
- Monétisation des données : la data aux œufs d’or
- Intervenant·e·s :
- Valérie Peugeot - Olivier Ertzscheid - Natacha Triou - Jounalises et cofondateurs TaData, voix off - Nicolas Martin
- Lieu :
- Émission La Méthode scientifique - France Culture
- Date :
- novembre 2020
- Durée :
- 59 min
- Écouter ou enregistrer le podcast
- Licence de la transcription :
- Verbatim
- Illustration :
- espèces, PxHere - Licence Creative Commons [https://creativecommons.org/publicdomain/zero/1.0/CC0]
- NB :
- transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l’April, qui ne sera en aucun cas tenue responsable de leurs propos.
Transcription
Nicolas Martin : On n’a presque plus à vous le répéter, ce qui est devenu aujourd’hui un axiome d’Internet : « quand c’est gratuit, c’est que c’est vous le produit ! ». Et de fait, de nombreuses entreprises numériques – les réseaux sociaux au premier chef – vivent du commerce des informations que vous leur délivrez, plus ou moins à votre insu. Le RGPD [1], le Règlement Général pour la protection des données, a tenté de mettre de l’ordre dans tout ça en faisant de la délivrance des données personnelles un « acte conscient », mais cela a-t-il vraiment changé quoi que ce soit ? Et si, après tout, nous étions tous rémunérés pour le fait de transmettre ces informations aux entreprises ? Et jusqu’à quel niveau ? La monétisation des données pourrait-elle, in fine, retomber dans notre poche ?
« Monétisation des données : la data aux œufs d’or », c’est le programme financier qui est le nôtre pour l’heure qui vient. Bienvenue dans La Méthode scientifique.
Et pour évoquer cette exploitation et cette transformation de nos données individuelles en monnaie presque sonnante et trébuchante, j’ai le plaisir de recevoir aujourd’hui Valérie Peugeot. Bonjour.
Valérie Peugeot : Bonjour.
Nicolas Martin : Vous êtes membre du collège des commissaires de la CNIL – la Commission nationale informatique et libertés – en charge des données de santé, et chercheuse en sciences sociales au département de recherche SENSE pour Sociology and Economics of Networks and Services à Orange Labs et Olivier Ertzscheid. Bonjour.
Olivier Ertzscheid : Bonjour.
Nicolas Martin : Vous êtes enseignant-chercheur en sciences de l’information à Nantes.
On commence par celle qui a vendu, il y a déjà très longtemps, son âme à Instagram, c’est Natacha Triou pour Le journal des sciences. Bonjour Natacha.
Natacha Triou : C’est faux. Bonjour Nicolas.
Nicolas Martin : On commence ce journal par un fait d’actualité qui vous aura difficilement échappé, ce sont les élections présidentielles, problématiques d’ailleurs, aux États-Unis qui continuent encore aujourd’hui. Or, la dernière ordonnance de Donald Trump inquiète la communauté scientifique américaine. Natacha.
Natacha Triou : On n’a pas le temps de rappeler tout ce que Trump a fait à la science en quatre ans de mandat, entre les réductions drastiques des budgets, le blocage de publications ou encore la dévalorisation du discours scientifique.
Le 21 octobre, le président américain a émis un dernier décret qui vise les institutions scientifiques gouvernementales qui emploient environ deux millions de personnes. Cette ordonnance crée une catégorie d’emplois pour les fonctionnaires, tels que les chercheurs, pour ceux qui exercent des rôles, je cite, « confidentiels, déterminant les politiques et défenseurs des politiques ». Ce décret faciliterait le licenciement des chercheurs en place et simplifierait l’embauche sur des critères politiques. On peut donc s’inquiéter pour la NOAA [National Oceanic and Atmospheric Administration] qui surveille le climat, les tempêtes et la pêche ou encore le PA qui réglemente la pollution de l’air et de l’eau des usines et de centrales électriques. Cette ordonnance pourrait être un coup fatal pour l’indépendance de la science dans l’ensemble du gouvernement fédéral.
Nicolas Martin : On suit évidemment les élections américaines dans les journaux de la rédaction de France Culture et puis on suit Le journal des sciences sur les ondes, également sur notre fil Twitter @lamethodefc, sur le site de France Culture, franceculture.fr.
On passe aux brèves.
On passe aux brèves.
Selon une étude parue hier dans la revue Cell Reports, la cornée de l’œil serait résistante aux SARS-CoV-2.
Natacha Triou : On sait que la transmission du virus passe par la bouche et le nez. Concernant la transmission oculaire, cela serait biologiquement possible, mais, à vrai dire, on n’en sait trop rien. Des chercheurs américains se sont intéressés à cette question. Ils ont utilisé des tissus cornéens de souris mais aussi de 25 donneurs humains. Ils les ont exposés à trois virus, le Zika, l’herpès et le nouveau coronavirus. Contrairement au Zika et à l’herpès, il n’y a aucun signe de réplication du SARS-CoV-2 dans la cornée. Mais, comme le reconnaissent eux-mêmes les auteurs, ce ne sont que des résultats préliminaires, cela ne veut pas nécessairement dire que toutes les cornées sont résistantes à ce virus.
Nicolas Martin : Et après huit mois de silence la NASA a réussi à communiquer de nouveau avec la sonde Voyager 2.
Natacha Crance : Lancée en 1977, la sonde voyage à présent à l’extérieur de notre système solaire, à 19 milliards de kilomètres de notre planète. Depuis le mois de mars la sonde naviguait en solo, car la seule antenne radio sur terre capable d’envoyer des commandes devait être rénovée. Le 29 octobre, la NASA a testé l’antenne remise à neuf et tout s’est bien passé. Voyager 2 a bien reçu et exécuté les commandes sans aucun problème.
Nicolas Martin : Et enfin, selon une étude parue dans le British Medical Journal, un implant cérébral a permis à deux personnes paralysées de contrôler des ordinateurs avec leur cerveau.
Natacha Crance : Il s’agit d’un implant sans fil, de la taille d’un trombone, qui vient se loger juste au-dessus des sinus, à côté du cortex moteur primaire. Les chercheurs de l’université de Melbourne l’ont essayé sur deux patients atteints de sclérose latérale amyotrophique, la maladie de Stephen Hawking. Cette interface directe avec l’ordinateur a été combinée avec un eyes tracker, un suivi oculaire, pour déplacer un curseur. Les patients ont pu accomplir différentes tâches : envoyer des SMS, naviguer sur le Web ou faire des opérations bancaires. Comme cette intervention ne nécessite pas de chirurgie à cerveau ouvert, des essais cliniques de plus grande taille sont prévus en Australie.
Nicolas Martin : Merci Natacha. On vous retrouve demain pour le prochain Journal des sciences.
Et si nous reprenions la main sur nos données personnelles pour les protéger, bien sûr, mais aussi pour en faire, finalement, ce que bon nous semble ? Et si je décidais, en pleine conscience, de vendre mes données individuelles ou de santé à des acteurs qui me proposent, contre leur échange, une rémunération directe ? Si, au lieu d’être ciblé avec un consentement, somme toute très limité, par des publicités individualisées en fonction de mon profil, je décidais de vendre mes goûts et mes couleurs à des annonceurs qui me payeraient en échange ? Et si, en fait, l’État m’autorisait à considérer mes données comme des marchandises ? C’est un peu le pari qu’a fait une société, nous en avions d’ailleurs parlé dans Le journal des sciences, la société TaData [2] qui a été considérée en conformité juridique et informatique par la CNIL vis-à-vis du RGPD et c’est notre archive du jour.
Voix off : Une application a retenu notre attention ce matin. C’est une application qui concerne les jeunes et qui propose de les rémunérer en échange de leurs données personnelles. Excusez-moi, dans l’actualité, tout ça. Est-ce que c’est bien sérieux cette application ? Vous avez enquêté.
Voix off : Ça vient de sortir, ça s’appelle TaData et c’est réservé aux 15-25 ans, pas plus pas moins et on vous promet une rémunération partant de trois à cinq euros pouvant monter, nous dit-on, à 10 voire 15 euros par mois en échange de données personnelles qui seront ensuite revendues à des marques intéressées, c’est complètement assumé. On a rencontré les deux fondateurs de cette application, ce sont des experts en communication et aussi des experts sur le monde étudiant. On leur a demandé : est-ce que ce n’est pas un peu risqué de laisser nos jeunes, comme ça, vendre leurs données personnelles et surtout de quelles données personnelles on parle ? Écoutez leur réponse.
Cofondateurs de TaData, voix off : On refuse d’aller sur de la donnée qui est sensible du type santé, orientation sexuelle, politique, religion. Si on trouve des annonceurs qui s’intéressent à leur profil on leur propose, très simplement, de les mettre en relation en échange d’une rémunération. Aujourd’hui les données sont commercialisées, captées, et l’utilisateur n’en voit jamais la couleur.
Nicolas Martin : Voilà le concept de cette société TaData. Peut-être simplement une réaction, l’un et l’autre, à ce petit bout, ce petit extrait de chaîne info que vous venez d’entendre et au concept qui, pour le moment, peut se développer sur le territoire français. Valérie Peugeot.
Valérie Peugeot : Merci. Déjà, je voudrais réagir à votre propos introductif parce que la CNIL n’a pas autorisé TaData, donc je voudrais corriger ça.
Nicolas Martin : Ce n’est pas ce que j’ai dit, j’ai dit que c’était considéré en conformité juridique informatique.
Valérie Peugeot : Non plus.
Nicolas Martin : Je vais vous laisser me corriger.
Valérie Peugeot : En fait, c’est la communication qu’en a fait TaData mais ce qui s’est passé c’est qu’en réalité, quand on les a contrôlés, ils n’avaient pas encore commencé à partager les données avec leurs clients. Donc, de fait, on ne risquait pas de les trouver en situation illégale puisqu’ils n’avaient pas commencé véritablement leur activité. Maintenant on continue d’échanger avec eux et d’essayer de cadrer leur activité pour que ça soit le plus conforme possible au RGPD.
Maintenant il y a un débat ouvert et qui est en discussion en ce moment à l’échelle européenne dans le cadre de ce qu’on appelle CEPD, le Comité européen de la protection des données à caractère personnel, qui est l’instance qui réunit les différentes CNIL des différents pays, pour regarder comment cette approche par la monétisation des données peut ou ne peut pas être compatible avec le RGPD. Ce sont des travaux en cours.
Maintenant sur le fond, si vous me demandez ce que je pense de cette initiative, je pense que c’est une très mauvaise initiative, pour être tout à fait claire, et pour différentes raisons. D’abord parce qu’en fait les gens qui font cela revendiquent, prétendent que cela va mieux protéger nos données de toute réglementation ou régulation, c’est le discours habituel d’un libéralisme économique qui considère que le marché marche mieux que la réglementation, c‘est toujours une manière d’éviter toute forme de contrainte. Mais surtout c’est une fausse bonne idée parce que, d’une part, il y a une asymétrie sur ce marché, c’est-à-dire que la personne qui va, entre guillemets, « vendre ses données », est en position de faiblesse. Comme par hasard vous voyez que TaData s’adresse à des jeunes, ce n’est pas complètement un hasard, et quand on regarde d’un peu plus près ce que TaData leur rapporte, j’ai vu certains reportages qui montrent que c’est 15 euros par mois, voire moins, évidemment, vous pensez bien que ça n’intéresse que des personnes qui sont en grande précarité économique.
De fait, cette idée-là n’est pas nouvelle, ce n’est pas la première personne qui s’y essaye, et la plupart des startups précédentes se sont cassé les dents, ont arrêté leur activité parce que, de toute façon, ça ne marche pas, ça n’intéresse pas les gens.
Au-delà du côté pragmatique, de toute façon il y a des problèmes de fond beaucoup plus graves.
Un premier problème c’est que ces données n’appartiennent pas à l’une ou l’autre personne. La plupart des données que nous produisons sont le fruit de nos interactions, de nos conversations, de notre sociabilité, donc allez déterminer à qui elles appartiennent ? Quand vous mettez un « like » sur un post d’une personne sur Facebook, est-ce que ce « like » vous appartient ? Est-ce qu’il appartient à la personne dont vous avez approuvé le post ?
Parlons maintenant des données génétiques. Les données génétiques parlent de vous mais elles racontent aussi votre fratrie, toute votre parentèle, c’est ce qu’on appelle des données pluripersonnelles.
Donc il y a une illusion et ce discours est, à mon avis, très néfaste parce qu’il contribue à naturaliser l’idée que la trace serait un bien matériel, commercialisable, et ça va vraiment, et je m’arrêterai là, à l’encontre, je dirais, de toute la philosophie qui est derrière la protection des données à caractère personnel aujourd’hui, qui est une philosophie d’un droit qui est relié à l’essence même de la personne, qui est au foncement de sa dignité, au fondement du développement de sa personnalité. Donc de fait il y a un antagonisme philosophique entre cette approche de patrimonialisation de la donnée et la philosophie de la protection de la vie privée et de nos libertés d’une manière plus générale.
Nicolas Martin : C’est intéressant les termes que vous employez Valérie Peugeot, on y reviendra, cette notion d’antagonisme philosophique quand on a le sentiment que, de plus en plus aujourd’hui, la structure du réseau, notamment des réseaux sociaux, est absolument fondée sur ce type d’organisation économique et de marchandisation des données personnelles et de voir comment on peut passer de cet antagonisme philosophique à ces structures ontologiques, si on peut les appeler comme ça. On y reviendra. J’aimerais entendre Olivier Ertzscheid là-dessus puisque vous aviez des mots un peu durs sur ce type de démarche ou, en tout cas, de volonté de commercialisation de données individuelles comme le propose TaData. Vous parlez carrément, et ce sont vos termes, Olivier Ertzscheid, je vais vous laisser les commenter, de « prostitution pour mineurs ».
Olivier Ertzscheid : Oui, j’avais effectivement utilisé à propos du lancement de cette application, le terme de « data-prostitution » qui était volontairement outrancier, mais pas tant que ça puisque je considère que tout est sincèrement mauvais et toxique dans l’approche qui est proposée — Valérie Peugeot en a rappelé les raisons essentielles —, qui est véhiculée par TaData, le premier problème c’est celui de la cible. On s’adresse à des gens à partir de 15 ans, c’est-à-dire précisément à l’âge où on commence à la fois à percevoir l’enjeu de ses données personnelles mais où on ne maîtrise pas nécessairement tous ces enjeux. C’est par essence, si j’ose dire, le public le plus fragile. Si la majorité numérique avait été déclarée à huit ans, je n’ai aucun doute sur le fait que ces gens-là auraient proposé leur application à des enfants dès l’âge de huit ans. Donc la cible est mauvaise.
La nature même, la philosophie du projet qui est derrière cette application est éminemment toxique puisque, en gros, l’idée dans l’argumentaire des deux fondateurs c’est de dire « après tout, puisqu’il y a un modèle toxique qui est celui des grandes plateformes, puisque des gens se gavent sur la vente – qui en fait n’est pas une vente littéralement de ces données personnelles, mais en tout cas sur le ciblage publicitaire – autant que tout le monde en profite et autant qu’on utilise le même modèle toxique ». Donc ça, comme pitch ou comme projet de société ça me parait plus que limite, plus que douteux et même, dans les annonceurs qui sont derrière, il y a des choses qui ne sont pas du tout claires. Dans la liste des annonceurs et des partenaires, on voit que ce sont essentiellement 98 % des écoles d’enseignement supérieur privées, alors que les deux fondateurs ont eux-mêmes gravité dans le monde de l’enseignement supérieur privé pendant plus de dix ans. Il y a peut-être quelque chose qui transpire ou respire en tout cas de possibles conflits d’intérêt.
Rien ne va dans cette application à commencer, effectivement, par cette idée que tout est marchandise et que, après tout, nos données personnelles quelles qu’elles soient – là effectivement ils sont relativement prudents en expliquant qu’ils se limitent à certaines catégories de données – mais on voit bien que, puisque la loi du marché est la seule règle, si demain il devient possible de vendre des données génétiques, de santé, politiques, sexuelles, etc., ces gens-là seront les premiers à ouvrir des soldes sur le sujet. Donc ça me paraît une application dangereuse et toxique et oui, je réaffirme le fait qu’on n’est pas loin d’une forme de prostitution à l’échelle des données personnelles.
Nicolas Martin : On va essayer de réfléchir ensemble tout au long de cette heure sur la nature de ce que nous délivrons à ces acteurs du numérique et, finalement, à cette question que vous souleviez l’un et l’autre à demi-mot et qu’on va essayer d’explorer : de se dire, finalement puisque tant de plateformes – d’ailleurs que le modèle soit jugé toxique ou non, et on pourra en débattre – utilisent ces données un peu à l’insu de notre plein gré, pour utiliser l’expression consacrée ou, en tout cas, quasiment à notre insu malgré les quelques digues légales qui sont posées entre nous et ces acteurs, eh bien, finalement, pourquoi ne pas bien prendre le plein contrôle de ses données et chercher à les monétiser, nous, directement pour en récupérer du profit direct. On va voir si c’est possible, quelles sont les questions que ça pose, c’est le sujet de notre émission du jour.
Voix off : France Culture, La Méthode scientifique, Nicolas Martin.
Nicolas Martin : À 16 heures 15 nous parlons de monétisation des données personnelles tout au long de cette heure en compagnie de Valérie Peugeot et de Olivier Ertzscheid.
Peut-être qu’on peut commencer par poser un peu les termes du débat : de quoi parle-t-on quand on parle de monétisation des données personnelles ? Quelles réalités est-ce que ça recoupe ? Valérie Peugeot.
Valérie Peugeot : Il y a beaucoup de confusions autour de ce terme. En fait, ça fait maintenant plus de dix ans qu’on nous parle de data, de new oil, le pétrole du XXIe siècle, le déluge des données, etc. On a eu l’impression qu’il y avait une espèce de mine d’or par analogie avec le pétrole, enfin une mine de données qui allait générer des revenus considérables.
En réalité, quand on parle de données, il faut faire plusieurs distinctions.
La première c’est qu’il y a des données à caractère personnel, on en a déjà parlé dans cette émission, et il y a aussi beaucoup d’autres données qui n’ont pas de caractère personnel. Et dans cette économie de la donnée, par exemple la fréquentation des magasins, le nombre de produits vendus, etc., ce sont des données qui sont récoltées par les entreprises mais qui n’ont pas de caractère personnel et elles participent aussi de cette économie de la donnée, elles sont en dehors d’une monétisation directe.
On confond aussi valeur monétaire et valeur d’usage. Les données peuvent servir à une organisation, à améliorer son fonctionnement, améliorer sa relation client, ajuster ses horaires, mieux gérer ses stocks, diminuer ce qu’on appelle le churn, c’est-à-dire le départ de ses clients, etc., tout ça c’est une valeur d’usage mais ce n’est pas forcément une valeur monétaire.
En fait, en général dans les discours, on mélange un petit peu tout ça et on a l’impression que c’est énorme.
Si maintenant on en reste vraiment à ce qui est la valeur monétaire des données, il y a une troisième confusion qui est faite entre ce qu’on pourrait appeler de la monétisation directe et de la monétisation indirecte.
La monétisation directe consiste à vendre une base de données, un fichier, avec des données qui peuvent être à caractère personnel ou pas d’ailleurs, et en fait, sur les marchés, cette part est toute petite. En fait, les organismes qui disposent de fichiers de données n’ont aucun intérêt à les céder puisque cette information, une fois qu’ils l’ont cédée, va circuler et va perdre de sa valeur. Donc ce qui est monétisé ce ne sont que très rarement les données elles-mêmes, mais ce sont plutôt des espaces publicitaires ou des campagnes publicitaires qui vont se construire autour de profils d’individus, profils qui ont été construits par les acteurs du marché publicitaire. Il faut bien comprendre que ce ne sont pas les données elles-mêmes qui circulent, mais ce sont des campagnes publicitaires qui s’ouvrent sur la base des profils qui ont été construits par des intermédiaires.
Ces intermédiaires ça peut être Facebook ou Google, qui ont aujourd’hui plus de la moitié du marché, ou ça peut être ce qu’on appelle des data brokers, des courtiers de données, dont le métier consiste à mettre ces petits cookies, dont vous entendez parler régulièrement, sur les sites web pour récolter des informations sur vos centres d’intérêt, vos comportements en ligne et pouvoir construire, comme ça, votre profil. Ensuite, au moment où il y a une demande d’un annonceur pour une campagne de publicité qui dit « je voudrais toucher des femmes de 25 à 40 ans qui s’intéressent aux voitures et qui aiment voyager », eh bien ils vont aller sur une place d’enchères vendre en masse les profils qui répondent aux critères de l’annonceur.
Ce qu’il faut comprendre c’est que ce n’est jamais de la donnée directement identifiée, c’est-à-dire qu’on n’a pas besoin de faire savoir si vous vous appelez Sophie ou Michel parce que ça n’intéresse pas les annonceurs, ce qui les intéresse c’est ce qu’ils peuvent savoir sur vous.
Donc il faut vraiment comprendre parce que, par analogie ou par réduction on dit « vente de données ». Non, ce n’est pas de la vente de données, c’est de la vente de publicité qui est au cœur du modèle.
Nicolas Martin : Pardon Valérie Peugeot, je vous interromps un instant, la vente de publicité in fine se transforme tout de même en revenu pour les personnes qui vendent de l’espace publicitaire. Quand on pense, par exemple, aux réseaux sociaux, c’est justement en exploitant les données personnelles d’un réseau comme Facebook que les publicités ciblées vont atterrir sur mon écran et ces publicités vont être transformées en monnaie directe, en argent qui va rémunérer Facebook.
Valérie Peugeot : Tout à fait. C’est ce qu’on appelle l’économie de l’attention qui est techniquement un marché biface, c’est-à-dire qu’il y a deux faces sur un marché : un marché vers les individus, vers les internautes, qui a l’apparence de la gratuité, il n’y a pas de monétisation directe, on ne vous fait pas payer directement pour aller sur Facebook ou pour taper une recherche dans votre moteur de recherche préféré et puis un marché payant vers les annonceurs. Ces marchés bifaces se construisent autour de ce qu’on appelle l’économie de l’attention puisque l’objectif c’est de capter votre attention et de vous faire passer le plus de temps possible sur des sites web de manière à pouvoir vous proposer le plus possible de publicité. C’est ça le cœur de l’économie de l’attention. Il y a d’autres versions de l’économie de l’attention. L’économie de l’attention existait avant le Web, dans la presse papier par exemple.
Nicolas Martin : À la télévision et dans tous les médias.
Valérie Peugeot : À la télévision, dans tous les médias, mais elle a explosé et elle s’est diversifiée dans ses vecteurs et dans ses formes avec notamment le Web.
Cette économie de l’attention soulève toute une série de problèmes, je peux peut-être vous en citer quelques-uns. Déjà, le premier problème, c’est que les données qui sont collectées sur vous racontent des choses sur vous et des choses que vous n’avez pas forcément l’intention de laisser circuler, parce que, quand on croise toute une série d’informations, eh bien on peut apprendre que vous avez eu un deuil, qu’il y a une grossesse attendue ou que sais-je encore.
Nicolas Martin : Notre orientation sexuelle par exemple qui est quand même…
Valérie Peugeot : Notre orientation sexuelle. Voilà. Donc des tas d’informations très personnelles et plus ces données circulent plus elles peuvent soulever de problèmes, des problèmes de différents ordres. D’abord elles participent de qu’on pourrait appeler une industrie de l’influence, c’est-à-dire que ces acteurs qui poussent en permanence des publicités ou vous influencent pour aller vers tel ou tel site et vous emmènent globalement, on va dire, vers des logiques de surconsommation, donc c’est vraiment un moteur à une économie de la surconsommation. Dans la période actuelle où on doit penser notre transition écologique, ça parait complètement anachronique. On est vraiment au cœur du toujours plus dans la consommation.
Ça pose des problèmes de sécurité parce que plus on fait circuler de la donnée plus il y a de risques d’attaque. De nombreuses bases de données, c’est ce qu’on voit de plus en plus dans les contrôles à la CNIL, sont peu ou mal sécurisées. On l’a vu récemment, y compris avec des données très sensibles. On a vu passer dans la presse des dossiers de psychothérapeutes en Finlande qui ont été massivement piratés et les données mises sur le Web. Dans le passé on a vu aussi un site de rencontres adultères dont les données ont été mises sur le Web avec derrière, quand même, des suicides, ne l’oublions pas, des gens dont les données ont été dévoilées qui se sont suicidés. Donc des problèmes de sécurité.
Des problèmes aussi de surveillance par les États, parce qu’il y a de plus en plus une tendance, chez un certain nombre d’États, à mettre en place de la surveillance de masse et ces États vont piocher dans les bases de données des acteurs marchands. C’est ce que nous a expliqué Snowden [3] en 2013. Il a bien montré comment les pouvoirs publics américains étaient allés chercher dans les données des opérateurs télécoms, dans les données des grandes plateformes du Web, pour surveiller des citoyens à la fois étasuniens mais aussi d’autres pays.
Vous voyez que c’est toute une série de problématiques comme ça, imbriquées, qui touchent presque un peu, j’ai envie de dire, à notre modèle de société.
Nicolas Martin : C’est vrai. Vous faites bien de rappeler tout cela. C’est vrai que quand on vous entend on se dit je vais immédiatement supprimer tous mes comptes Facebook, Twitter, Instagram et tout le reste parce qu’on se rend compte à quel point cette économie est fondée sur un modèle que vous avez vous-même qualifié, d’ailleurs l’un et l’autre, de toxique. Néanmoins aujourd’hui ce modèle existe.
Olivier Ertzscheid, ma question c’est : est-ce que, aujourd’hui, il est encore vrai que cet axiome dont je parlais au tout début de l’émission, dans l’introduction, que quand c’est gratuit c’est nous le produit ? Et à partir du moment où c’est nous le produit, finalement pourquoi ne pas récupérer la main sur la façon dont on veut valoriser, commercialiser nos propres données, c’est-à-dire décider de ce que l’on veut transmettre, à qui on veut le transmettre et en tirer une rémunération directe ? Quel est le problème là-dedans ?
Olivier Ertzscheid : Le problème, là aussi Valérie l’a déjà expliqué, je vais peut-être le prendre sous un autre angle.
Oui c’est vrai, effectivement, que si c’est gratuit nous sommes le produit, mais, encore une fois, nous sommes le produit dans ce que Valérie a appelé un marché biface, c’est-à-dire que le produit que nous sommes y trouve un intérêt et que cet intérêt est lié à l’intérêt réciproque que les annonceurs y trouvent également. Donc le pacte, en quelque sorte, je ne dis pas que c’est un pacte souhaitable, c’est que j’accepte, en proportionnalité, de livrer un certain nombre de mes données en échange de recommandations qui vont être des recommandations publicitaires ou affinitaires contextuelles, c’est-à-dire qui m’apportent un service contextualisé. Là on est sur un modèle de rupture avec les projets, TaData en est un exemple, mais plus globalement derrière tout le discours un petit peu libertarien de l’entrepreneuriat de soi, de la possibilité, effectivement, que les produits que nous sommes revendiquent leur droit de vendre leurs propres données. Le problème c’est qu’on va produire une dissymétrie fondamentale.
Je vais juste prendre un exemple et faire un tout petit pas de côté. En France, on est un pays où les essais thérapeutiques – là on parle beaucoup de recherche de gens pour tester des vaccins contre le coronavirus – ne peuvent pas donner lieu à rémunération. Pourquoi la rémunération sur les essais thérapeutiques est-elle interdite ? Précisément pour éviter que des gens qui seraient en situation de grande précarité ou de grande misère ne se trouvent, en quelque sorte, doublement exploités et ne soient obligés, comme ça, de vendre leur corps à la science.
À l’échelle du modèle proposé pour les données personnelles c’est exactement la même chose. C’est-à-dire que quand on dit qu’il est possible de vendre ses données et, après tout, si tout est marché, pourquoi pas, il ne faut jamais oublier qu’il y a des données qui valent beaucoup plus d’argent que d’autres et que, comme par hasard, les gens les plus riches sont aussi ceux qui disposent des données les plus qualifiées, donc ils seront ceux en situation de les vendre le plus cher possible et avec le moins d’urgence sociale ou économique à le faire. Du coup, non seulement on va aller sur un modèle qui, encore une fois est fondamentalement toxique, Valérie l’a bien rappelé, puisque qu’il y a des enjeux. Une donnée ça n’existe pas. Pour reprendre l’expression de Latour qui disait « il n’y a pas de données il y a que des obtenus », une donnée, en soi, ça ne veut rien dire. Une donnée ça traduit, ça trahit des choses et puis, quand on recoupe une donnée avec une autre donnée, on produit une connaissance qui n’est pas celle de la donnée elle-même, c’est-à-dire qu’on arrive à inférer des relations sociales, des comportements politiques, sexuels ou religieux même s’ils ne sont pas dans la donnée elle-même. Au final, on va effectivement avoir un modèle qui est l’inverse d’un modèle vertueux et qui va accélérer les effets de dissymétrie sans jamais permettre à l’échelle de l’individu, et notamment des individus les plus pauvres ou les plus exposés, de récupérer un petit peu de symétrie. Et puis on va transformer toute une génération, puisqu’il s’agissait avec TaData de cibler à partir de 15 ans, en ce que Antonio Casilli, le sociologue, appelle les travailleurs du clic.
Nicolas Martin : Que l’on avait d’ailleurs reçu ici.
Olivier Ertzscheid : Oui, je le sais bien. C’est-à-dire des gens, des nouveaux travailleurs pauvres qui vont finalement se retrouver à étendre leur portefeuille de micro-tâches. Parmi ces micro-tâches, très mal rémunérées, on trouvera effectivement la possibilité de vendre telle ou telle « donnée personnelle », entre guillemets. Ça, ça paraît très problématique à l’échelle d’une société qui, par ailleurs, s’appauvrit et qui a besoin de trouver des modèles économiques vertueux pour les plus précaires et non pas des modèles économiques qui, encore fois, vont être centrés sur ceux qui ont les moyens de nourrir cette économie-là.
Nicolas Martin : Est-ce qu’on a une idée aujourd’hui de la valeur numéraire des données personnelles, soit à titre individuel soit à titre collectif, national, transnational ou européen, de l’argent que génère cette économie de la donnée et de l’attention ? Olivier Ertzscheid.
Olivier Ertzscheid : Oui. Il y a des chiffres qui sont, comment dire, toujours un petit peu non pas suspects mais univoques parce que ce sont toujours plutôt les chiffres de la police que ceux des manifestants. Il y a, par exemple, une mesure qu’on appelle l’ARPU, le revenu moyen par utilisateur pour les plateformes où, en gros, on estime, par exemple pour Facebook, qu’un utilisateur rapporte à peu près à Facebook aux USA autour de 7 euros par mois, en Europe c’est beaucoup moins, c’est entre 2 et demi et 3 euros et tout cela est extrêmement variable. D’abord, quand on dit qu’un utilisateur rapporte 7 euros par mois à Facebook aux État-Unis, il ne faut pas oublier que derrière Facebook il y a aussi WhatsApp, il a aussi Instagram, donc il y a des ressources de monétisation qui sont colossales et puis ces données, encore une fois, elles varient. Ce que rapporte un profil d’utilisateur à Facebook dans son exploitation commerciale c’est extrêmement variable selon l’âge de l’utilisateur, selon le pays de l’utilisateur et surtout selon le niveau de vie de l’utilisateur. C’est-à-dire que les utilisateurs riches rapportent à Facebook beaucoup plus que ne lui rapportent les utilisateurs pauvres, pour le dire de manière un petit peu simplifiée.
Nicolas Martin : Parce qu’ils consomment plus, parce qu’ils cliquent plus sur les liens, donc ils génèrent plus de revenus, c’est ça ?
Olivier Ertzscheid : D’abord parce qu’ils ont une activité de consommation supérieure et surtout parce que leurs données personnelles sont beaucoup plus qualifiées, donc beaucoup plus exploitables sur le plan marchand que des données personnelles de gens qui ont des revenus moindres.
Nicolas Martin : On va continuer à discuter de cette monétisation des données personnelles puisqu’on dépeint un tableau que l’on peut considérer, que d’aucuns considéreraient comme un peu sombre. Néanmoins on va voir comment remédier à ces questions, que faire de ces données, comment les encadrer, si aujourd’hui les États, les structures super étatiques comme l’Europe ont des moyens pour essayer de nous protéger. Est-ce que la protection est à un niveau individuel ou collectif ? On en discute dans un instant.
Pause musicale : Ch Ch Chewa par The Twin Souls.
Nicolas Martin : Ch Ch Chewa, The Twin Souls qui est, comme son nom ne l’indique pas, un groupe de musique français puisque vous le savez maintenant depuis lundi et durant ce deuxième confinement avec Olivier Bétard, notre réalisateur, nous avons décidé de laisser de l’espace à la jeune scène musicale française, en forme de soutien, puisque ces confinements sont durs pour toute l’industrie culturelle en général et pour la musique en particulier. Donc soutien à la jeune scène française dans La Méthode scientifique tout au long de ce confinement et certainement aussi un peu après.
Nous parlons de la monétisation des données personnelles dans cette émission, tout au long de cette heure, en compagnie de Valérie Peugeot qui est membre du collège des commissaires de la CNIL, en charge des données de santé, et chercheuse en sciences sociales au département de recherche SENSE à Orange Labs et Olivier Ertzscheid qui est enseignant-chercheur en sciences de l’information à Nantes.
On va revenir un peu sur ce tableau que vous avez dépeint dans la première partie et j’aimerais vous poser une question sur les possibilités de régulation. On voit bien, dans ce que vous décrivez, qu’on est face à un tableau, face à une structure finalement ontologique de ce marché de l’attention, c’est-à-dire que depuis l’arrivée massive des réseaux sociaux aujourd’hui ces données personnelles sont vraiment l’essence, le carburant qui leur permet de fonctionner et on a en face des entités étatiques ou supra-étatiques qui tentent de mettre des digues. Comment est-ce qu’on peut mettre des digues de protection lorsqu’on est face à la structure même d’un marché ? Quand cette structure, encore une fois, est ontologique, est vraiment la racine du modèle économique qui soutient ce marché, est-ce que ça sert à quelque chose de mettre des digues ? Ou est-ce que ces digues ne sont pas, quoi qu’il arrive, même philosophiquement, trop petites par rapport au tsunami que représente, finalement, cette déferlante économique qu’est le marché de l’attention ? Valérie Peugeot.
Valérie Peugeot : D’abord qu’on a déjà fait un bond en avant, si je puis dire, en termes de réglementation avec le RGPD, le Réglement général sur la protection des données.
Nicolas Martin : On y reviendra tout à l’heure.
Valérie Peugeot : On pourra y revenir tout à l’heure. Je pense effectivement que ça ne suffit pas. Pourquoi ça ne suffit pas ? Je reviendrai sur un point qu’a soulevé Olivier Ertzscheid, c’est qu’on est dans une espèce de marché de dupes où les acteurs nous disent, les plateformes nous disent « c’est un troc, les données contre un service gratuit ».
En réalité, on est dans un marché complètement asymétrique, en droit de la concurrence on connaît bien ce problème-là, parce que pour qu’il n’y ait pas d’asymétrie il faut que le consommateur, l’internaute, l’utilisateur du service, puisse changer et dire « non, je ne suis pas d’accord pour que vous préleviez autant mes données, ou la qualité du service n’est pas à la hauteur, etc. » . Or, ce qui se passe dans l’économie numérique et c’est vraiment la spécificité de l’économie numérique, c’est qu’on est sur des marchés qui tendanciellement deviennent tous monopolistiques ou oligopolistiques. Ils se concentrent de plus en plus au point qu’à un moment on n’a juste plus le choix. Aujourd’hui Facebook est devenu une sorte de service universel marchand et où il est très difficile de ne pas aller parce que de nombreuses sociabilités du quotidien se passent dans cet espace en ligne qu’est Facebook. À partir de là, à partir du moment où vous ne pouvez pas quitter un service, eh bien il y a asymétrie de pouvoir.
C’est là où, à côté du droit de la protection des données à caractère personnel, on a aussi besoin d’utiliser le droit de la concurrence — et même les États-Unis commencent à se poser des questions de ce point de vue-là — pour sortir de situations oligopolistiques. Et on a besoin aussi de pousser ces acteurs à inventer d’autres modèles économiques qui nous sortent de cette espèce d’intoxication à la gratuité sur laquelle s’est construite l’économie du Web.
Tout à l’heure Olivier Ertzscheid citait les chiffres du rapport d’un internaute sur Facebook, effectivement ils varient d’un pays à l’autre et, comme toujours, les moyennes ne disent pas grand-chose de la réalité, mais ce qui est intéressant c’est qu’on reste, dans tous les cas de figure, sur des chiffres extrêmement bas. Donc aujourd’hui est-ce qu’on ne peut pas imaginer qu’il y ait un consentement à payer de la part de la large majorité des internautes pour avoir un service type Facebook ou équivalent plutôt que d’avoir des données collectées ? Quand on voit le prix qui est dépensé aujourd’hui en vidéos, en abonnement à Netflix ou concurrents, etc., on pourrait imaginer des modèles économiques équivalents pour un certain nombre de grandes plateformes monopolistiques du Web.
Nicolas Martin : C’est-à-dire que Facebook devienne payant en clair ?
Valérie Peugeot : Oui, c’est une piste. Ou on pourrait imaginer des systèmes de micropaiement. Aujourd’hui, quand vous voulez vous abonner à de la presse payante, je ne parle pas de la presse gratuite, la presse payante en ligne, une fois que vous vous êtes abonné à un quotidien, un newsmagazine, etc., la plupart des bourses ne peut pas se payer 50 sources d’information, alors qu’on pourrait imaginer des porte-monnaies électroniques avec des systèmes de micropaiement qui vous permettent d’être débité de quelques petits centimes d’euro au fur et à mesure de vos butinages sur le Web, ce qui vous permettrait de retrouver de la diversité dans vos lectures tout en fournissant des revenus aux différents médias.
Nicolas Martin : Ça je veux bien, Valérie Peugeot, je veux bien que ce soit un modèle vertueux, mais enfin, il semble tout de même difficile aujourd’hui, avec des moyens publics, étatiques ou super-étatiques, compte-tenu du poids qu’ont ces géants du numérique, d’imposer un modèle de fonctionnement différent. On a un peu l’impression que ce n’est même plus l’épée de bois contre d’épée de fer, c’est l’épée de bois contre le lance-flammes industriel.
Valérie Peugeot : Je pense, sans dicter les modèles économiques des acteurs, évidemment ce n’est pas ce que je préconise, mais on peut créer les conditions pour les amener à inventer les modèles économiques de demain. Par exemple, le fait qu’aujourd’hui vous ne puissiez pas simplement, facilement, emmener votre historique de données d’un réseau social à un autre c’est un problème. Le RGPD a mis en place un droit à la portabilité avec son article 20, donc vous avez le droit de récupérer vos données et les emmener ailleurs. Mais c’est un droit qui est très peu connu, qui est compliqué à mettre en œuvre et qui, aujourd’hui, n’est pas actionnable simplement. Vous ne pouvez pas aller sur votre plateforme et dire « OK, je suis chez Facebook, mais je veux aller chez Diaspora* [4] », qui est un équivalent libre de Facebook.
Nicolas Martin : C’est surtout que Facebook et Diaspora* c’est deux poids deux mesures. Complètement ! Aujourd’hui le problème c’est évidemment la situation monopolistique de Facebook qui fait que cette interopérabilité n’est que virtuelle pour le moment. J’aimerais entendre Olivier Ertzscheid, je crois qu’il veut réagir, mais je vous laisse terminer Valérie Peugeot.
Valérie Peugeot : Juste pour finir, les autorités publiques peuvent un, lutter contre les situations monopolistiques, dans l’histoire du droit de la concurrence ça n’a rien d’original, et deuxièmement elles peuvent contraindre à des normes d’interopérabilité. Imaginez que nous n’ayons pas des normes d’interopérabilité dans le champ de la téléphonie, que vous ne puissiez appeler que de Orange à Orange ou de Bouygues à Bouygues Telecom. Vous imaginez la situation ? Ce qui nous choquerait dans le champ de la téléphonie ou dans plein d’autres domaines, ne nous choque pas dans le domaine des réseaux sociaux ! Aujourd’hui, les gouvernements peuvent demander à ce qu’il y ait une sorte de normes interopérables qui permettent d’emmener facilement son historique d’un réseau social à un autre, d’une plateforme à une autre, d’un service de location de voiture en ligne de particulier à particulier à un autre, etc. Ça serait un premier pas qui inciterait les acteurs à imaginer d’autres modèles économiques à partir du moment où l’internaute, l’utilisateur, ne serait plus prisonnier de facto d’un service.
Nicolas Martin : Bien sûr. Encore faut-il qu’il y ait d’autres réseaux sociaux qui proposent des services équivalents avec une quantité d’utilisateurs équivalente pour que ce soit intéressant. C’est certainement là où le bât blesse.
Valérie Peugeot : Non. Le bât blesse pour la raison que je donne. Pardon, je vais laisser la parole à Olivier. S’il n’y a personne sur les alternatives de Mastodon et de Diaspora* c’est parce que ces acteurs – c’est la règle de l’économie du numérique, winner takes all, le premier arrivé rafle la mise – sont tellement puissants qu’effectivement on ne peut pas quitter Facebook pour aller ailleurs puisque tout le monde est sur Facebook. À partir du moment où vous pourrez aller ailleurs, à ce moment-là on peut emmener son réseau social, aller sur un réseau alternatif et emmener ses données. C’est le serpent qui se mord la queue.
Nicolas Martin : Un peu. Olivier Ertzscheid allez-y.
Olivier Ertzscheid : Je vais essayer d’être rapide. Sur la première question que vous souleviez, c’est-à-dire sur la capacité de régulation, moi je crois qu’il y a deux leviers essentiels de régulation qui sont d’abord celui de l’opinion et ensuite celui de l’éducation. C’est-à-dire qu’en plus du travail nécessaire des États, il est vital et nécessaire, et c’est fait, que les acteurs du monde de l’éducation, chacun à son niveau, les acteurs du monde associatif, éduquent les citoyens de demain à ces problématiques : c’est quoi le coût d’une donnée ? C’est quoi les alternatives possibles ? Et on s’aperçoit que ça marche, que non seulement il y a de plus en plus d’alternatives qui existent. Pour enseigner depuis plus de 15 ans auprès de publics qui sont des jeunes étudiants, on observe qu’ils sont de plus nombreux à adopter ces alternatives quand on leur explique et quand on les leur montre.
C’est vrai qu’il y a des réseaux sociaux qui ne décollent pas, bien sûr, mais il y a aussi des réseaux sociaux – Mastodon [5] en est un exemple, qui est une alternative à Twitter pour faire simple – qui rencontrent un succès. Il ne s’agit pas de comparer les chiffres, mais Mastodon est un réseau qui s’installe sur la durée et qui fonctionne.
Donc l’éducation, l’opinion, parce que, encore une fois dans l’histoire, les seuls moments où les plateformes reculent réellement sur des questions de données personnelles, sur des questions notamment de vie privée, c’est à chaque fois que, dans l’opinion, elles mesurent qu’il y a un effet de bascule qui est en train de se jouer et, à ce moment-là effectivement, là aussi pour citer à nouveau Antonio Casilli, « la vie privée devient une affaire de négociation collective ». Le rôle des États ne suffit pas, ne suffit pas même coordonné, le rôle des CNIL européennes même s’il est éminent et primordial ne suffit pas, par contre, dès lors que ce rôle au service d’une réaction permet, en tout cas à l’opinion, de se saisir, on s’aperçoit que ces plateformes reculent.
Ensuite il ne faut pas oublier que les discours qui, il y a cinq ou dix ans, paraissaient tout à fait fantaisistes par exemple sur le démantèlement de ces plateformes, sur le fait d’isoler leur corps de métier, sont aujourd’hui rentrés dans la doxa, y compris d’ailleurs dans le champ politique puisqu’on a Elizabeth Warren aux États-Unis qui soutient, défend et explique l’idée qu’il faut démanteler un certain nombre de ces grandes plateformes, en tout cas isoler leur corps de métier, au nom des lois antitrust.
Et, le dernier point, il ne faut jamais oublier que le gratuit n’est pas éternel. C’est-à-dire qu’on est sur des technologies qui sont très jeunes. Pendant quelques années, au début du Web, il y avait un modèle publicitaire classique qui était celui des bannières clignotantes un petit peu partout, qui ne fonctionnait pas. On a ensuite trouvé ce modèle qui est installé, qui est « si c’est gratuit c’est toi le produit », mais les plateformes elles-mêmes sont en train de modifier leur modèle. On a vu arriver, ce qui était tout à fait, là aussi, hors champ il y a quatre ou cinq ans, des solutions payantes proposées par les plateformes pour s’éviter, justement, d’être exposé en permanence en ces publicités. Vous avez YouTube qui a lancé le service YouTube Red qui vous permet d’avoir du YouTube payant sans publicité. Vous avez Facebook lui-même – alors il y a toujours marqué, quand on se connecte sur Facebook, « c’est gratuit et ça le restera toujours » –, mais ça fait deux fois.
Nicolas Martin : Je crois qu’ils l’ont enlevé.
Olivier Ertzscheid : Peut-être, il faut toujours se méfier de ce qui est enlevé au frontispice de ces édifices. Mais Zuckerberg lui-même et Sheryl Sandberg ont commencé à expliquer, en tout cas, que l’idée de réfléchir à un service où les gens paieraient pour avoir une expérience de Facebook qui soit plus respectueuse de la vie privée et moins intrusive en termes de publicité, cette idée-là n’était plus pour eux hors champ de leur réflexion. Donc peut-être que les plateformes elles-mêmes seront effectivement les premières à nous proposer des modèles où on sera peut-être toujours des produits, en tout cas ce ne sera plus gratuit, on aura une expérience payante, supposée plus vertueuse et moins intrusive en termes de vie privée et de publicité.
Nicolas Martin : Une question peut-être rapide sur le RGPD puisqu’on l’a évoqué. Le RGPD, c’est un peu étrange quand on se saisit de ce Réglement général de protection des données, parce qu’on entend, d’une part, que c’est une action coordonnée européenne pour mettre une sorte de frein à l’exploitation tout feu tout flamme dans la pampa, un peu en mode western de ces données personnelles et d’une forme d’unification, justement, de régulation en tout cas qui serait contrainte sur la totalité des sites internet. Quand on voit aujourd’hui un certain nombre d’études, notamment une qui date du 8 janvier, où seuls 11,8 % des Consent management platform répondent aux exigences du RGPD, on a le sentiment qu’au lieu d’arriver sur les sites et d’accepter tacitement, que, de toute façon, on allait se faire poser des cookies partout si on ne protège via certains navigateurs, via certains modes navigation, bref !, que tout le monde avait plus ou moins cette conscience-là et maintenant c’est exactement la même chose sauf que, en plus, il faut cliquer sur « accepter », qu’en fait grosso modo ça n’a pas changé grand-chose et, une fois de plus, c’est une petite digue face à une grande vague. Valérie Peugeot, qu’en pensez-vous ?
Valérie Peugeot : D’abord, le RGPD est un gros morceau à avaler, si je puis dire, pour les responsables de traitement, donc c’est normal qu’il y ait une petite latence. En fait, on essaye progressivement de rendre ce RGPD de plus en plus applicable et réel. Vous savez qu’il y a un changement d’esprit assez fondamental dans le passage au RGPD : on passe d’une logique de demande d’autorisation ou d’autorité de protection des données à une logique d’autorégulation. C’est aux acteurs de se mettre en conformité, de sécuriser leurs serveurs, de vérifier qu’ils respectent la loi, etc. C’est vraiment très lourd pour un certain nombre d’organisations, donc la CNIL fait tout un travail d’accompagnement pour aider les organisations, notamment les plus petites entreprises, à franchir cette marche. En contrepoint, je dirais, de cette autorité d’action qui participe d‘une forme de simplification puisque, du coup, il n’y a plus besoin d’attendre un accord, une autorisation, ce sont des sanctions bien plus élevées que ce qu’elles étaient auparavant puisque, aujourd’hui, ça peut aller jusqu’à 4 % d’un chiffre d’affaires mondial d’une entreprise et on a les premières sanctions qui sont tombées, qui sont très élevées. Pas plus tard qu’hier notre homologue anglais a prononcé deux sanctions, l’une vers British Airways de 22 millions d’euros et l’autre vers le groupe hotelier Marriott de 20 millions d’euros. Donc vous voyez qu’on change vraiment de catégorie du côté des sanctions.
Sur la question vraiment de l’économie du Web, pour revenir à ce segment-là, mais quand on parle monétisation des données on pense beaucoup au Web, donc je reviens sur cette activité-là mais qui ne couvre pas, bien entendu, l’ensemble des acteurs qui sont concernés par le RGPD.
Sur la question des cookies, la CNIL a mis en place, pas plus tard qu’au 1er octobre, des outils qui doivent aider les acteurs à rendre le consentement libre et éclairé. Effectivement jusqu’ici, le design du consentement était fait, la plupart du temps, pour éviter que les gens refusent l’installation des cookies qui permettent la construction du profil à destination publicitaire. Donc il y a tout un design du consentement. Avec le référentiel et les lignes directrices que nous avons mises en place, nous aidons les acteurs à repenser le parcours de consentement de manière à ce que ce consentement soit authentiquement libre et pas poussé par ce qu’on peut appeler du targ design.
Nicolas Martin : Néanmoins, si je cite la même étude que celle à laquelle je me référais tout à l’heure, publiée le 8 janvier, c’est une étude britannique, la moitié des sites étudiés rend le rejet des cookies plus complexe que leur acceptation. Donc on n’est pas encore tout à fait au bout de nos peines !
Valérie Peugeot : Non, on n’est pas au bout de nos peines, mais on avance et c’est pour ça qu’on a construit ces outils de manière à inciter les acteurs du secteur d’abord à adopter les mêmes parcours d’usage, de manière à ce que, d’un site à l’autre, l’utilisateur retrouve ses marques et puisse assez facilement effectuer des choix en conscience, si je puis dire. Le RGPD a placé le consentement au cœur de sa conception, ce qui a des avantages et des inconvénients. Pour que ce consentement soit effectif, il faut vraiment que l’utilisateur se sente libre de son choix.
C’est vrai que jusqu’ici le design des sites ne donnait pas nécessairement les conditions de cette liberté. Donc il faut éclairer le choix de l’utilisateur et ça passe essentiellement par du design dans le parcours d’acceptation ou de refus des cookies. En fait, les systèmes actuels sont faits un, pour que vous acceptiez et deux, pour que vous restiez le plus longtemps sur un site. Il faut sortir de cette logique-là.
Nicolas Martin : Bien sûr, mais est-ce que c’est là qu’il n’y a pas aussi, un peu, un deux poids deux mesures, on peut l’appeler autrement, même si je répète ce terme un peu violent, une certaine forme d’hypocrisie parce qu’on voit bien que dans les comportements des utilisateurs sur le Web, quand les gens arrivent sur le site, il y a marqué « accepter et fermer » et on accepte et on ferme parce que sinon on se retrouve sur une page où il faut cliquer ce qu’on veut, etc., que ça n’intéresse pas les gens, que les gens n’ont pas le temps, donc de facto ça pousse tout le monde à accepter, donc à continuer à naviguer exactement comme avant. En fait, ça n’a finalement que très peu de poids coercitif sur les plateformes. Olivier Ertzscheid, vous en pensez quoi ?
Olivier Ertzscheid : J’en pense que Valérie a raison dans la mesure où il n’y avait pas de règles et on a installé une règle. Cette règle c’est le RGPD. Les seules règles qu’il y avait étaient des règles qui étaient vicieuses, c’étaient les conditions générales d’utilisation, et le RGPD permet d’installer une règle commune qui est une règle vertueuse.
Quand vous installez une règle commune vertueuse il y a toujours des gens, c’est normal, c’est dans la nature à la fois humaine et technique, qui essaient de contourner et de tricher avec la règle.
Effectivement, au moment où l’on se parle, vous avez encore plein de sites, et vous l’avez signalé, où c’est compliqué, où finalement il y a tellement de fenêtres partout qu’on finit par tout accepter comme avant pour se débarrasser de ce petit temps-là. Mais ça doit nous alerter sur une chose. D’abord il ne faut pas abandonner le RGPD au motif que certains trichent, escamotent un petit peu ou trafiquent l’interface de sa mise en place et surtout que derrière, il faut qu’on arrive, en tant qu’utilisateurs, à accepter de prendre ou de retrouver un petit peu de temps dans nos interactions.
Quand on parle des données personnelles, quand on parle de la viralité extrême de certains contenus complotistes ou haineux, on s’aperçoit qu’à chaque fois les plateformes ont un rôle éminent dans le design de leurs interfaces et que tout est fait, justement, pour faciliter la fluidité, l’instantanéité, c’est-à-dire que tout est fait pour nous installer comme utilisateur dans des postures qui sont des postures d’arc réflexe. On ne réfléchit pas et dès qu’il s’agit de différer une décision de quelques secondes, on a l’impression d’une perte de temps. Or, dès que les plateformes, on l’a vu sur un autre sujet dans le cadre des élections américaines, font cet effort de rajouter un petit peu de temporalité – par exemple Twitter qui vous demande, avant de retwitter un article, si vous avez lu l’article –, ne serait-ce que ça, en termes de design d’interface, ça permet de diminuer considérablement la désinformation.
Là, pour le RGPD, il y a des boîtes qui utilisent ce qu’on appelle des dark patterns, c’est-à-dire des manières de construire des interfaces qui détournent, en fait, de l’usage premier, et c’est ce contre quoi il faut il faut lutter, on va y arriver, c’est en cours et, encore une fois, il ne faut pas abandonner une règle vertueuse simplement parce qu’il y a des gens qui essayent de tricher avec cette règle vertueuse. Au contraire, il faut la renforcer.
Nicolas Martin : Il y a la règle vertueuse et puis il y a aussi l’habitude d’usage, Valérie Peugeot. Évidemment, je ne vais pas vous dire que mon expérience personnelle a une valeur scientifique, je serais bien mal placé puisque je passe mon temps à dire l’inverse. Néanmoins on voit bien dans les comportements et dans les usages réguliers que j’imagine – en tout cas je vous laisse évidemment libre de moduler ce senti ou ressenti personnel – que, encore une fois ce RGPD, pour le moment, n’a fait que rajouter une fenêtre en plus. Tout le monde clique sur « accepter », parce qu’on ne réfléchit ou parce que, quand on a voulu une ou deux fois cliquer sur « refuser », eh bien on se retrouve sur un site dégradé où on nous dit que le site ne peut vivre que grâce aux publicités et qu’on est une mauvaise personne. Comment faire pour pousser cette démarche un peu plus loin, en tout cas pour pousser les acteurs à accepter le jeu, c’est-à-dire de dire que si les gens veulent naviguer sans cookies ils peuvent le faire en ayant accès aux mêmes contenus sans qu’ils soient dégradés. Quels sont les leviers dont vous disposez et ce sera le mot de la fin Valérie Peugeot ?
Valérie Peugeot : D’abord on a déjà vu un certain nombre de sites évoluer sur ce sujet. Moi qui fais systématiquement l’effort de considérer les cookies sur les nouveaux sites web sur lesquels je circule, je peux vous dire qu’il y en a un certain nombre qui ont pris les devants et qui ont commencé à changer leurs interfaces. Mais, comme je l’évoquais tout à l’heure, la CNIL vient d’adopter le 1er octobre des lignes directrices, c’est ce qu’on appelle du droit souple, ça n’a pas la force d’une loi ou d’une jurisprudence, mais c’est du droit qui va permettre aux acteurs de comprendre concrètement comment ils doivent appliquer le RGPD et la directive e-privacy qui complète le RGPD sur cette affaire de cookies. En plus de ces lignes directrices, nous avons également publié des recommandations qui vont encore plus loin dans le détail, dans la finesse de ce qui est préconisé. Après, libre aux acteurs d’aller jusqu’au bout de nos recommandations ou pas, certaines sont contraignantes, d’autres sont juste des conseils. Évidemment, les acteurs qui se saisiront de ces perches tendues, si je puis dire, par la CNIL pour changer le design du consentement, seront assurés d’avoir une sorte d’avantage compétitif par rapport à d’autres acteurs qui ne seraient pas respectueux de cette philosophie-là du consentement.
Nicolas Martin : Quel avantage ?
Valérie Peugeot : Le jour où nous les contrôlons, où la CNIL organise un contrôle de ces acteurs, eh bien s’ils respectent les lignes directrices et la recommandation, d’entrée de jeu, pour eux c’est une grande sécurité juridique, en fait.
Aujourd’hui les acteurs se plaignent aussi d’une insécurité juridique parce qu’ils ne savent pas exactement comment ils doivent appliquer le RGPD. Donc il y a tout un travail qui est fait par le CEPD, l’organisme européen dont je parlais tout à l’heure, que j’évoquais tout à l’heure, pour élaborer des lignes directrices de concert entre toutes les CNIL et homologues à l’échelle européenne, parce qu’évidemment il ne faudrait pas qu’en France on dise il faut tel design du consentement, mais qu’en Belgique ou en Espagne ce soit un autre design du consentement. Donc on essaye d’harmoniser ces recommandations de manière à ce que les acteurs puissent s’y retrouver d’un pays à l’autre, notamment les acteurs qui sont présents dans plusieurs pays et surtout que ça ne permette pas de mettre en compétition les pays. C’est-à-dire qu’à ce moment-là les acteurs migreraient pour être dans le pays le moins contraignant, le mois disant. Donc il y a un énorme effort qui est fait du côté européen pour harmoniser ces préconisations. Ensuite, nous nous allons, côté CNIL, utiliser ces recommandations pour vérifier la conformité des acteurs lors de nos contrôles. Une grosse partie de l’activité de la CNIL c’est cet accompagnement des acteurs pour expliciter en quoi consiste la mise en conformité.
Nicolas Martin : Merci beaucoup à tous les deux d’être venus nous parler de la monétisation des données. On aura compris, si vous nous écoutez, auditrices et auditeurs de La Méthode scientifique, qu’il ne faut pas cliquer sur « accepter et continuer », il faut cliquer sur l’autre bouton. Faites un effort !
Merci d’être venus nous en parler. On voulait parler de la monétisation des données de santé, je pense que ça donnera lieu à une autre émission parce que, là aussi, il y a beaucoup à dire sur ce sujet.
Un mot pour vous dire que L’Espace, le livre que j’ai le plaisir de cosigner avec mon camarade Matthieu Lefrançois, édité chez E/P/A, est en librairie aujourd’hui. Je vous en ai un peu parlé ces derniers jours. Ça y est. C’est un livre dans lequel nous tâchons de répondre avec cinq astrophysiciennes et astrophysiciens de renom à cinq grandes questions ou défis qui se poseront à l’astrophysique dans les prochaines décennies, par exemple est-ce qu’on va trouver de la vie ailleurs dans l’univers avec François Forget ; quelle est la structure exacte de l’univers avec Hélène Courtois. On parle aussi des trous noirs avec Alain Riazuelo, du Big Bang avec Sandrine Codis et du voyage spatial avec Roland Lehoucq, le tout préfacé par Carlo Rovelli qui nous a fait l’honneur d’écrire un petit texte pour le livre. Vous pouvez vous précipiter sur votre site de librairie préféré pour le commander en ligne et aller le chercher en click and collect.
Aujourd’hui c’est également le jour des idées claires, nous nous posons la question du vaccin contre la grippe, s’il est efficace contre le covid.
Merci à toute l’équipe de La Méthode scientifique. C’était aujourd’hui Marie-Claire Oubavadi à la technique.
Demain nous reviendrons sur le parcours d’une femme dont les travaux ont éclairé la matière noire, Vera Rubin, ce sera demain à 16 heures jusqu’à preuve du contraire.