- Titre :
- Le prix du gratuit (3/4) - Gratuité, données, publicité
- Intervenants :
- Fabrice Rochelandet - Benjamin Bayart - Antonio Casilli (voix off) - Amaelle Guitton (voix off) - Arjuna Andrade
- Lieu :
- Émission Entendez-vous l’éco ? France Culture
- Date :
- avril 2019
- Durée :
- 58 min
- Écouter ou télécharger le podcast
- Licence de la transcription :
- Verbatim
- Illustration :
- Imagen by G. Altmann, Habitaciones de cristal por José Antonio Gabelas - Licence Creative Commons Attribution 3.0 Unported
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l’April, qui ne sera en aucun cas tenue responsable de leurs propos.
Description
« Si c’est gratuit, c’est vous le produit » : un adage vieux comme Internet pourtant sans cesse renouvelé, de scandales en tentatives de légiférer sur un « droit à l’oubli ». Que peuvent faire les individus face à la marchandisation de leurs données ? Quelles mesures de régulation envisager ?
Transcription
Voix off : Entendez-vous l’éco ?, Arjuna Andrade.
Troisième mouvement de notre semaine consacrée au véritable prix de la gratuité. Après nous être intéressés à l’histoire de la charité et aux logiques du travail sans contrepartie, nous revenons aujourd’hui sur l’illusion entretenue d’un Internet gratuit. Il faut dire que la toile fut pensée, à ses origines, comme un espace utopique du partage des savoirs et de la gratuité. Mais la multiplication de nos pratiques du numérique démultiplie les indices de notre vie en ligne.
Autant de traces numériques, phéromones de données, laissées à notre insu sur des réseaux privés. La production exponentielle des données personnelles change la donne, aiguise les appétits et les avidités, à commencer par celles des géants du numérique, Facebook, Apple et autres Google, qui voient dans ces données librement échangées une source potentiellement infinie de profits. La capture et la monétisation de nos informations deviennent alors la règle et servent à financer ce régime apparent de la gratuité.
Alors sommes-nous collectivement impuissants face à ces nouveaux géants, ou reste-t-il un espace pour retrouver le contrôle de notre vie privée ? Il est 14 heures sur France Culture et c’est l’heure d’Entendez-vous l’éco ?
C’est donc sur cet océan de données collectées que nous vous proposons aujourd’hui de naviguer en compagnie de Fabrice Rochelandet, professeur à l’université Sorbonne Paris III, auteur notamment de l’ouvrage Économie des données personnelles et de la vie privée publié à La Découverte. Avec nous également Benjamin Bayart, coprésident [cofondateur, NdT] de La Quadrature du Net [1], une association de défense des droits numériques.
Arjuna Andrade : Fabrice Rochelandet, Benjamin Bayart, bonjour.
Fabrice Rochelandet et Benjamin Bayart : Bonjour.
Arjuna Andrade : Benjamin Bayart nous aurions donc perdu ce paradis du partage et de la gratuité qu’était Internet à ses débuts ?
Benjamin Bayart : Perdu, pas vraiment parce qu’en fait il est toujours là. Vous le retrouvez de manière très commune dans quelque chose comme Wikipédia par exemple. Donc cette espèce de paradis n’est absolument pas perdue. On y a rajouté quelques dépotoirs à côté, mais on n’a pas enlevé la partie intéressante.
Arjuna Andrade : S’il reste ces espaces perdus et retrouvés, ce qui est intéressant c’est aussi de dire que les données qui sont sur ces espaces comme Wikipédia ou comme l’Internet à ses débuts ont une caractéristique un peu particulière : on peut les considérer comme des biens publics. Est-ce que vous pourriez nous dire pourquoi Fabrice Rochelandet ? Quelles caractéristiques ils ont et qui font d’eux des biens publics ?
Fabrice Rochelandet : Oui, ce sont des biens collectifs, plus particulièrement, qui sont souvent, en fait, non-rivaux en usage, c’est-à-dire que je peux utiliser un média social et quelqu’un d’autre peut également l’utiliser. Donc de ce point de vue-là, ils sont des biens collectifs.
Arjuna Andrade : Ils sont à la fois promus par tout le monde et, en même temps, tout le monde peut les récupérer et cela produit des économies d’échelle de demandes. Ce qui est intéressant c’est qu’à un moment les acteurs de ce numérique florissant vont se rendre compte qu’ils peuvent faire de l’argent sur ces données privées ; ils vont donc commencer à chercher un modèle économique viable. Comment est-ce qu’ils vont faire Benjamin Bayart pour commencer à créer de la valeur à partir de ces informations produites par nous et par les utilisateurs d’Internet ?
Benjamin Bayart : En fait ça c’est un modèle qui est plus récent, qui est celui qu’on voit apparaître à la fin des années 90, au début des années 2000. Pour faire simple, ils ont fait comme faisaient déjà d’autres avant eux, c’est-à-dire qu’ils ont regardé comment faisait la télévision pour gagner de l’argent sans faire payer d’abonnement et c’est le moment où ça a commencé à glisser, c’est le moment où on a commencé à fournir des services contre de la publicité. Ça c’est une des racines profondes du mal mais qui n’est pas spécifique à Internet, ce n’est pas quelque chose qui est venu avec le numérique. La publicité, on trouve ça à la radio et à la télévision avec les mêmes effets pervers. C’est un ancien patron de TF1 qui expliquait que son client c’est Coca-Cola et que ce qu’il vend comme produit c’est du temps de cerveau disponible. Cette inversion de rapport est ancienne et elle vient à partir du moment où il y a un marché publicitaire et où une activité ne vit que de publicité ; on inverse le rapport entre le client et la marchandise.
Arjuna Andrade : Alors dans le même mouvement ça veut dire que non seulement on va commencer à proposer des informations ou plutôt des publicités faites sur mesure pour répondre à des utilisateurs qui auront certaines données spécifiques qu’ils auront laissées sur Internet, mais, dans le même temps on va aussi offrir aux géants du numérique et surtout aux annonceurs des publics qui vont être intéressés potentiellement par leurs outils, par leurs usages.
Benjamin Bayart : Ça c’est le moment où ça dérape. C’est le moment où ça dérape vraiment. Financer un site web en mettant de la publicité sur les pages c’est relativement courant, c’est plutôt agaçant, mais ce n’est pas très dangereux. Le moment où ça dérape c’est le moment où on commence à profiler les visiteurs, c’est-à-dire qu’on cherche à déterminer qui est en train de regarder la publicité pour lui proposer non pas une publicité générique mais une publicité qui vous cible, vous. Pour le coup tout est intéressant : savoir avec qui vous couchez, savoir ce que vous mangez, savoir vos goûts politiques, savoir vos goûts philosophiques, savoir est-ce que vous êtes croyant ou pas, de quelle religion, selon quel rite et selon quelle pratique, ça changera les publicités qu’on va vous montrer. Et là on commence à mettre la population en fiches. Et là on commence à chercher à glaner un maximum de données sur les gens pour savoir ce qu’on va pouvoir leur présenter comme publicité et par monter les profils. Ça c’est le moment où ça dérape et ensuite ça empire.
Arjuna Andrade : On verra ça dans une seconde. Mieux connaître ses clients, Fabrice Rochelandet, c’est aussi une méthode pour les fidéliser avec ses offres personnalisées. Mais ce qui est intéressant c’est que même des informations à priori indolores comme le simple fait de l’espace de localisation ou les pratiques sur Internet sans qu’il n’y ait ni nom ni préférence personnelle peuvent aussi être utiles à ces sites qui vont améliorer l’ergonomie, l’usage de ces différents sites, même nos données à priori les plus élémentaires.
Fabrice Rochelandet : Les plus élémentaires, les plus anodines, servent à co-construire en réalité la valeur. On parlait de publicité ciblée, c’est vrai que c’est une des choses que l’on peut observer sur l’exploitation des données personnelles, de ce qui est fait des données qu’on collecte sur nous en fait, en tant qu’auditeur, en tant qu’internaute, en tant que mobinaute, mais il faut aussi voir que ces données personnelles c’est un peu plus pernicieux. Les données personnelles servent aussi, comme je le disais, à co-construire les services. Par exemple, on va citer quelques noms, Facebook n’a pas de valeur, pour moi en tout cas, si je ne donne pas mes données personnelles. Certes il y a un danger, certes il y a des menaces, certes il y a des préjudices potentiels, mais je suis aussi un peu à la source de tout cela puisque lorsque je divulgue mes données, je me géolocalise avec mes amis, etc., finalement je tends la perche pour être battu quelque part, puisque je participe à la construction de ce bien collectif.
Arjuna Andrade : Nous verrons dans un instant comment cette participation plus ou moins volontaire peut-être vue comme un travail plus ou moins visible et reconnu comme tel. Ce qui est intéressant, d’abord, c’est de voir que les personnes qui vont aller donner leurs informations et leurs données sur ces différents sites, on pense notamment aux réseaux sociaux, elles vont le faire car ils ont une forme de présence et de familiarité qui ne leur fait pas peur, qui leur donne envie de s’épancher dessus. Je vous propose d’écouter ce qu’en dit l’auteur Alain Damasio.
Voix off de Alain Damasio : On est arrivé à un système encore plus subtil avec l’arrivée des réseaux, d’Internet, smartphones, etc., c’est ce que moi j’appelle le régime de traces, la société de traces où, du coup, eh bien on n’est plus du tout dans le big brother c’est-à-dire que ce n’est pas le grand-frère, ce n’est pas cette espèce de figure de dictateur qui nous surplombe et qui nous surveille, mais c’est plutôt une sorte, au départ moi je disais big mother c’est-à-dire une sorte de mère couvante qui nous cajole, une espèce de techno-cocon autour de nous qui est devenu de plus en plus épais, de plus en plus tissé et qui est constitué sur la première couche je pense aux smartphones et ensuite tous les écrans qui sont autour de nous et qui fait que, effectivement, entourés d’applis, entourés de logiciels, entourés d’outils en fait à fluidifier nos vies, à les rendre commodes, on se retrouve dans cette espèce de couveuse. Et après ça dérive un peu, je dirais sur big data, « big tata » mais parce que c’est ça, c’est un peu la tante flippante qui est celle qui récupère les données qu’on donne très tranquillement à big mother, qu’on cède tranquillement à big mother parce qu’on ne voit pas en quoi notre vie privée est attaquée réellement, on ne voit pas ce qu’ils font de ces données, donc on les lègue dans la douceur et puis derrière, « big tata » les récupère et puis, évidemment, fait tous les systèmes de corrélation pour nous cerner, pour nous profiler, pour nous proposer des pubs dont on est censé avoir envie et nous pousser vers les directions qui sont les plus profitables pour eux.
Arjuna Andrade : On entendait l’auteur de science-fiction Alain Damasio dans un entretien donné au média indépendant Thinkerview le 11 avril dernier. Il évoque ici l’idée, pourtant bien réelle, selon laquelle les internautes et plus largement les individus se seraient livrés corps et âme à des entités familières. Non plus ce big brother terrifiant de George Orwell, mais bien ces big mothers enveloppantes, cajolantes, rassurantes même. Benjamin Bayart, qu’est-ce que vous pensez de cette idée ?
Benjamin Bayart : C’est une vision qui est relativement juste. C’est-à-dire que si Facebook était désagréable ou était trop désagréable les gens n’y seraient pas ! On fait très attention à ce qu’on donne comme informations quand on va sur le site du fisc, parce que le fisc ce n’est pas notre copain ! Quand on va sur Facebook pour parler avec ses amis et sa famille, on n’est pas sur la défensive, on est plutôt dans un cercle familier et de confiance. D’ailleurs c’est ce qui fait la force de ces entreprises, c’est l’effet de réseau. Juste comme ça, pour rappeler et reposer cette idée-là, l’effet de réseau c’est le fait qu’un réseau social ou autre a un intérêt qui croît en lien avec le nombre de liens que vous avez. Facebook n’est intéressant que parce que vos copains y sont. Si ni votre famille, ni vos amis, ni personne que vous connaissez n’est sur Facebook, Facebook ne vous sert à rien. Vous allez y aller, vous allez poster vos deux photos de vacances, personne ne va les regarder, personne ne va les commenter, ça ne sert rien !
Arjuna Andrade : C’est non seulement intéressant dans l’usage qu’on en a au quotidien, mais ça devient aussi une évidence sociale et presque psychologique puisque dans un groupe d’amis, il faut que j’y sois.
Benjamin Bayart : Oui. Dans un groupe donné c’est attendu. C’est-à-dire que si dans votre famille l’usage c’est de poster les vacances et de donner des nouvelles du baptême du petit dernier sur Facebook, eh bien si vous n’êtes pas sur Facebook vous ne savez pas, donc vous n’avez pas les photos du mariage, vous n’avez pas les photos de la Bar Mitzvah, vous n’avez pas les nouvelles de tata qui est malade, etc. Ça c’est ce qu’on appelle l’effet de réseau et c’est ce qui fait que très coûteux d’en sortir. Quitter un de ces réseaux, que ce soit Facebook, Twitter, etc., ça un coût, c’est-à-dire qu’il faut vous en extraire et il faut renoncer à des relations avec des gens. Il y a des amis dont vous n’aurez plus de nouvelles ou moins, il y a une partie de la famille que vous ne verrez plus ou moins, etc. Ça c’est quelque chose qui est d’extrêmement coûteux et qui fait qu’on reste même quand on sait que ce n’est pas bien. Tous les gens que je connais et qui disent : « Facebook ce n’est quand même pas terrible, ils font n’importe quoi avec nos données persos, ils les laissent utiliser par des Cambridge Analytica, ils les laissent en accès au gouvernement ; ils diffusent des cochonneries, ils propagent des fake news », tout ça, enfin les gens sont très fâchés, mais ils restent. En fait ils restent parce qu’ils ne peuvent pas faire autrement, parce qu’il y a un coût humain à quitter ces réseaux qui est extrêmement élevé.
Arjuna Andrade : On parlait notamment de Facebook, de Google et de ces réseaux sociaux, Google+ qui a vécu, mais ce qui est intéressant c’est de voir que ces personnes, plutôt ces entités qui captent nos données se sont complètement démultipliées ces dernières années. On pense toujours aux géants du numérique, mais on peut aussi citer les banques ou même la grande distribution. Quand on fait une carte de fidélité dans un grand magasin c’est aussi une manière de donner nos données.
Fabrice Rochelandet : Tout à fait, oui. Les cagnottes, c’est un très bon exemple de ce qu’on appelle le paradoxe de la vie privée, parce que c’est ancien en fait, c’est plus ancien de Facebook. C’est-à-dire que j’ai une carte de fidélité, j’achète, je reçois une petite cagnotte, je la veux ou je ne la veux pas avec la caissière, et quelque part en fait pour, je ne sais pas, une poignée d’euros chaque mois, je livre des données qui valent extrêmement cher, c’est-à-dire mes listes de courses qui disent exactement mes besoins, qui disent également plus que mes besoins. Elles disent également si je suis une femme enceinte, si je suis végétarien, si je mange tel type d’alimentation on peut même en déduire parfois ma religion. Quelque part, effectivement, ça s’inscrit dans le quotidien mais dans le quotidien au-delà des médias sociaux.
Pour réagir aussi par rapport à ce qui a été dit précédemment, ça ne concerne pas que les médias en ligne, ça ne concerne pas que les médias sociaux, ça ne concerne pas que Facebook. Par exemple un acteur comme Apple est assez friand de données personnelles. On n’attend pas des acteurs comme Apple qui sont centrés sur la vente de matériel, mais qui sont très friands de données personnelles puisque ça fait vivre leur écosystème d’applications.
Arjuna Andrade : Alors même qu’ils se répandent en ce moment avec une immense campagne de publicité en disant que, pour eux, les informations personnelles sont absolument essentielles, et pourtant ce que l’on sait désormais c’est qu’il y a un certain nombre de données, quand on donne l’autorisation aux applications, qui sont utilisées sur l’Apple Store, et inversement. Donc il y a un véritable jeu de vases communicants entre le device, le hardware du téléphone et les données qui sont utilisées dessus.
Fabrice Rochelandet : C’est un modèle assez subtil, Apple. L’idée c’est de vendre du matériel, donc des tablettes, des smartphones, mais il faut des applications. Pour qu’il y ait des applications, il faut qu’il y ait du revenu pour les développeurs. Et les développeurs sur quoi ils vivent ? Ils vivent certes sur le grand jeu de la loterie de la vente d’applications mais ça ne suffit pas pour finir le mois, il faut souvent de la publicité. La publicité qui est proposée sur ces applications c’est de la publicité ciblée qui exploite des données personnelles. En fait on voit apparaître tout un tas d’intermédiaires, notamment dans l’écosystème d’Apple il s’appelle Flurry, il a un joli nom, f, l, u, r, r, y, et c’est ce qu’on appelle un agrégateur de données qui va collecter les données chaque fois qu’on utilise la moindre application : je vais faire mon running, je livre mon poids, mes performances, mes données de santé éventuellement ; des acteurs comme DoubleClick aussi collectent ces données, les agrègent, créent des profils, revendent ces profils à des annonceurs qui eux vont poster les annonces sur les applications. À partir de là la messe est dite, en quelque sorte, puisque la répartition de la valeur a lieu sur les recettes publicitaires personnalisées entre les développeurs d’applications qui trouvent leur compte, l’agrégateur et puis Apple qui vend des smartphones, qui vend des tablettes, comme ça.
Arjuna Andrade : À partir du moment où l’on sait que toutes ces données sont non seulement envoyées mais ensuite utilisées, toute la question est celle de l’arbitrage que nous devons faire entre le fait de savoir que ces données sont utilisées et l’inconvénient que je vais avoir si elles ne sont pas utilisées. Car dans un premier temps, Benjamin Bayart, on a l’impression avec le développement de cette nouvelle économie que c’est bénéfique pour tout le monde, non seulement du côté des développeurs et des gens du numérique qui voient, avec ces données qui se démultiplient, leur force de frappe se démultiplier aussi et, en face, les consommateurs qui ont l’impression que tout cela leur est donné gratuitement.
Benjamin Bayart : Oui. C’est très faux en fait. C’est bien l’impression qu’on a mais c’est une impression qui est très fausse. Il faut comprendre plusieurs morceaux qui ne sont pas intuitifs. D’abord, là-dedans, il y a une inversion des rapports. C’est-à-dire que quand vous avez un système économique qui se base sur la publicité, vous n’êtes plus sujet de la transaction, vous en êtes l’objet. Pour expliquer : quand vous allez acheter le pain, il y a deux sujets de la transaction, le boulanger et vous ; vous, vous détenez de l’argent, le boulanger détient du pain ; vous faites une transaction ; l’objet de cette transaction c’est le morceau de pain. Quand vous avez à faire à une appli qui vit de publicité, vous avez l’impression que l’objet de la transaction c’est l’appli, que vous êtes le client et que le développeur est le vendeur. Or ce n’est pas vrai ! Ce n’est pas vrai. Le client c’est le publicitaire ; le vendeur c’est bien le développeur de l’appli et le produit qu’on vend c’est vous. Et ça, ça change tout.
Arjuna Andrade : Les données étant une émanation directe de nous-mêmes.
Benjamin Bayart : Oui. Ça j’y reviendrai juste après.
Ça change tout. Quand dans une transaction commerciale, vous n’êtes plus sujet de la transaction, sujet conscient, signant un contrat, acceptant de céder une certaine quantité d’argent contre un bien et que vous devenez un objet, quand on transforme les gens en objets ça se termine toujours mal. Ce n’est pas une bonne chose.
Après, sur le fait que les données personnelles c’est une partie de vous-même, c’est pour moi une des façons de le comprendre. On dit souvent que mes données personnelles sont ma propriété. Ma propriété pas au sens comme ma maison ou mon manteau que je peux vendre, ma propriété comme la couleur de mes yeux ou comme mon ombre. Je ne peux pas vendre mon ombre ; ça n’a pas de sens !
Arjuna Andrade : On verra que pourtant certains le proposent !
Benjamin Bayart : Les données personnelles sont vous. Vos données personnelles c’est vous. En fait, quand on dit « données personnelles », ce que les gens ont en tête ce sont les photos de vacances qu’on a publiées, le petit mot qu’on a posté pour mamie pour son anniversaire ou pour la fête des grands-mères, etc. Mais ce n’est pas ça du tout. Ce n’est pas ça du tout ! C’est à quelle heure vous vous êtes levé, c’est quel trajet vous avez fait pour aller au travail ; pour peu que vous ayez une montre connectée, ce sont les rythmes de vos pulsations cardiaques ; c’est à quel moment vous êtes tombé amoureux et de qui, parce qu’on le sait. On le sait parce que ça se voit, ça se mesure sur le nombre et la fréquence des messages. Il n’y a pas besoin de lire le contenu. Quelqu’un à qui vous ne parliez jamais et avec qui vous vous mettez à échanger de plus en plus de messages, puis 40 à 50 messages par jour ! Ou bien vous vous entendez vraiment très bien avec votre dealer ou bien vous êtes tombé amoureux. C’est vachement simple à lire et vous ne pouvez pas le masquer. Typiquement les algorithmes qui font ces mesures-là chez Facebook sont au courant avant vous parce que la courbe caractéristique qui change sur la fréquence d’échange des messages, elle commence à changer avant que vous n’ayez compris que c’était intéressant ou que c’était important ou que c’était une relation sérieuse. Vos données personnelles sont vous ; elles émanent de vous, elles sont une excroissance de vous.
Arjuna Andrade : Ce qui est intéressant tout de même c’est que si on a cette impression de gratuité, car au quotidien on a l’impression d’utiliser gratuitement Facebook et toutes ces autres applications, c’est qu’elles se financent grâce à ces données, nous l’avons compris, mais aussi grâce au travail que nous effectuons. Je vous propose d’écouter l’analyse qu’en fait le philosophe Antonio Casilli le 12 novembre 2015 dans La Tête au carré sur France Inter.
Voix off de Antonio Casilli : On peut arriver à une définition si on dit ce que le digital labor n’est pas, et c’est pourquoi on n’a pas choisi les termes français « travail numérique » ; ce n’est pas le travail des personnes qui sont employées, par exemple, dans le secteur du numérique, on ne parle de hackeurs, de codeurs, on parle d’un travail de faible intensité, à faible, voire à rémunération nulle, et surtout qui est un travail qui parfois échappe à la définition même de travail. C’est-à-dire que c’est un travail qui est implicite. C’est le travail de chacun d’entre nous dans la mesure où nous participons d’un énorme écosystème de plates-formes numériques, un écosystème qui s’appuie sur des applications mobiles, sur des sites web, sur des services en ligne. Et, de ce point de vue-là, par exemple le fait même de contribuer à un média social par, que sais-je, la publication d’un post, d’une photo, d’une vidéo ou parfois tout simplement par nos like, nos clics, on participe certainement et la question est justement de savoir d’abord si on conçoit ça comme du travail et ensuite si on le sait, on le reconnaît en tant que tel. La question de la reconnaissance est la question centrale, tout un ensemble de luttes autour du digital labor.
Arjuna Andrade : Antonio Casilli nous parle donc de digital labor, un travail de faible intensité, gratuit, qui échapperait même à la définition du travail. Dès lors le simple fait de « liker », de commenter, de partager des informations sur Facebook ou ailleurs serait une manière de travailler pour ces plates-formes en leur fournissant des données, Fabrice Rochelandet ?
Fabrice Rochelandet : Moi je n’aime pas trop cette notion de travail gratuit, en fait, parce que le travail ça renvoie aussi à une conception un peu philosophique où, quand je travaille, je possède finalement le produit de mon travail, ou j’ai un droit de propriété quelconque sur le fruit de mon travail. Là, comme le disait justement Benjamin Bayart, c’est qu’on n’est pas propriétaire, en fait, de ses données. Ça renvoie à un problème c’est que « données personnelles », on emploie la même expression pour deux choses différentes. Il y a une nature un peu double des données personnelles : d’un côté ça renvoie aux éléments de vie privée, donc aux droits de la personne, une extension de la personnalité, on retrouve un peu l’idée du droit des œuvres dans le domaine du droit d’auteur, mais également, « données personnelles » ça renvoie à des marchandises. Mais entre la donnée personnelle brute, celle que l’on peut livrer en utilisant, plus qu’en travaillant en utilisant, en bénéficiant en fait de ces réseaux sociaux, de leurs services, de pouvoir communiquer avec d’autres, etc., eh bien ces données brutes que l’on donne, en fait elles n’ont pas de valeur en tant que telles. La photo que je poste n’a pas de valeur. Ce qui a de la valeur, ce qui va devenir une donnée personnelle qui va devenir une marchandise, un bien informationnel comme on dit en économie, c’est la donnée traitée, la donnée qui va être traitée par les algorithmes, par les plates-formes, par les agrégateurs, etc.
Arjuna Andrade : C’est le recoupement des centaines de milliers de données qu’on a sur nous.
Fabrice Rochelandet : Exactement.
Arjuna Andrade : Avec ce qu’on appelle le big data, qui permet d’avoir une image quasiment holographique de nous dans le monde du numérique. Qu’est-ce que vous pensez, Benjamin Bayart, de cette idée d’un travail effectué malgré nous pour les plates-formes qui récupèrent notre force de travail ?
Benjamin Bayart : En fait quand Antonio Casilli parle du digital labor, il recouvre toujours deux parties. Il y a une partie qui est du travail inconscient, c’est effectivement ce qui correspond à de la donnée personnelle. Quand vous regardez des vidéos ou des images et quand, par exemple, vous les « likez » ou pas, vous donnez de l’information. Si Facebook reçoit 150 millions de photographies, savoir lesquelles sont très intéressantes c’est très compliqué. Demander à un ordinateur de regarder les photos et dire « celle-ci est rigolote », « celle-ci est chiante », « celle-ci est floue », « celle-ci n’est pas drôle », ce n’est pas pratique à faire. Vous présentez ça à des individus, ils vont vous le dire si c’est drôle, ils vont vous le dire si c’est intéressant à regarder. Donc ils vont classifier et hiérarchiser l’information et cette information, une fois enrichie de « c’est drôle », « ce n’est pas drôle », « c’est intéressant », « les gens qui ont aimé la photo bidule ont aussi aimé la photo truc parce qu’il y avait aussi dessus un petit chat mignon qui se casse la gueule », ça Facebook, le plus souvent, ne s’embête pas à mettre des humains derrière. En fait il calcule : les gens qui ont « liké » telle photo ont aussi « liké » telle autre, donc elles doivent présenter un caractère similaire quelconque. Ça c’est toute une partie qu’on peut, effectivement, ou pas, qualifier de travail. En fait c’est l’exploitation des données personnelles des gens.
Et puis il y a une deuxième partie qui est vraiment du travail. Ce qu’on nous vend sous le nom d’intelligence artificielle, c’est très souvent pas du tout de l’intelligence et pas du tout artificielle. Ce sont des gens qui sont rémunérés au clic à dire « ça c’est bien un animal », « ça c’est bien une chaise », « ça c’est bien un panneau indicateur », « ça c’est bien tel élément » ou qui sont rémunérés à fausser. C’est-à-dire que quand on veut promouvoir une publication sur Facebook pour faire croire qu’elle est intéressante, il va se trouver 50 000 personnes aux Philippines qui vont aller cliquer like sur la publication qu’ils ne comprennent pas parce qu’elle est en français, mais elle va quand même remonter dans les algorithmes de classement, donc l’entreprise de communication qui voulait mettre en avant l’information a réussi à la mettre en avant. Ça c’est du travail, c’est rémunéré, c’est un dixième de centime le clic, mais c’est rémunéré ; c’est du travail.
Arjuna Andrade : Il y a même des cas où ce qui est mis en valeur ou ce qui est caractérisé par une qualité, a une valeur, c’est l’être humain lui-même. On a vu récemment sortir une enquête qui montrait que des sites de rencontre comme Tinder réussissaient à donner une valeur à la personne et à la façon dont elle se projette dans le monde avec ce qu’on appelle un « Elo score » qui rendrait compte du nombre de personnes qui la trouvent jolie, pas jolie, intéressante, pas intéressante. Ils arrivent aussi à savoir, par exemple, si on parle bien français, mal français, avec des bonnes phrases, etc. Ça veut dire que nous-mêmes, à un moment, nous sommes mis dans ce marché et dans cette mise en concurrence de tous contre tous ? Fabrice Rochelandet.
Fabrice Rochelandet : Justement, je pense qu’on n’est pas mis dans le marché. C’est bien là le problème. On parle souvent du marché des données personnelles. En réalité, il faut bien voir qu’il y a plusieurs étages. Si on reste dans l’exemple de la publicité, vous avez la collecte. La collecte, effectivement, il y a un premier niveau de transaction entre les individus et des collecteurs, ça peut être Facebook, les médias sociaux, etc.
Le deuxième niveau c’est l’agrégation, on traite ces données, on leur donne de la valeur.
Puis le troisième niveau c’est l’exploitation marchande ; ça peut être, par exemple, les annonceurs et les agrégateurs qui font leurs petites transactions.
Sauf qu’il y a bien transaction marchande aux deux derniers niveaux, entre les agrégateurs et les collecteurs, etc., mais au premier niveau ? Il n’y a pas de transaction marchande. Pourquoi ? Parce qu’il n’y a pas de vendeur. Moi quand je vais utiliser un média social, je ne suis pas vendeur, juridiquement je ne signe aucun contrat de vente. En plus, mon consentement n’est pas du tout éclairé, il n’est pas du tout informé. Donc il y a quelque part une relation qui serait à la rigueur une relation de troc entre moi et le service en ligne que j’utilise, aux termes duquel je livre des données mais un peu contraint parce que si je veux que le service existe je suis obligé, pour en profiter et créer de l’utilité avec ce service, de livrer mes données, mon âge, etc. Et de l’autre côté, celui qui m’offre ce service, d’autant plus s’il est gratuit, lui aussi est contraint quelque part parce qu’il faut qu’il le finance, donc il faut qu’il aille voir un annonceur, etc. Donc le marché est incomplet et c’est peut-être là le problème des données personnelles, c’est qu’on n’a pas à faire à un marché comme le marché de la boulangerie qui était cité par Benjamin Bayart.
Arjuna Andrade : Benjamin Bayart.
Benjamin Bayart : Là je suis assez de l’avis opposé. Le marché est beaucoup trop complet. Je n’aime pas du tout l’expression, l’idée que ce soit une économie des données personnelles. C’est-à-dire qu’on les a cédées à une plateforme contre un consentement qui a été obtenu de manière fausse, puisqu’on me proposait un service, on ne me proposait pas que mes données soient maltraitées derrière, et ensuite les données sont revendues, échangées, etc.
Pour moi, là il y a quelque chose qui ne va pas parce que ce ne sont pas les données qu’on revend. Vous voyez, ce qu’on revend c’est moi et on n’a pas le droit de faire le commerce des gens. Si j’ai donné mon sang pour sauver quelqu’un ce n’est pas pour qu’on en fasse commerce. Si vous faites un don organe à un moment dans votre vie, ce n’est pas pour que derrière quelqu’un aille en faire commerce. Donc pour moi, l’erreur est qu’il puisse exister un marché de la donnée personnelle. C’est pour moi aussi insupportable que le fait qu’il y ait un marché d’organes. C’est pareil : on vend les morceaux des gens, on vend les gens.
Voix off : Entendez-vous l’éco ?, Arjuna Andrade.
Pause musicale : Victime des réseaux d’Angèle.
Arjuna Andrade : Nous écoutons Victime des réseaux d’Angèle. Vous êtes bien sur France Culture. Nous sommes en compagnie de Benjamin Bayart et Fabrice Rochelandet et nous parlons ensemble du marché des données personnelles.
Benjamin Bayart, cela fait 15 ans que Facebook existe et 15 ans qu’il s’excuse régulièrement de fuites de données, de problèmes de leur usage, etc. Pour vous cela tient à la structure même du modèle ; ce n’est pas une erreur.
Benjamin Bayart : Ah non ce n’est pas une erreur, ce n’est pas un accident. Ce n’est pas un accident, c’est fait pour. C’est un peu comme si votre voiture s’excusait de rouler, vous voyez, ce n’est pas complètement un accident. C’est fait pour, c’est fait pour rouler.
Facebook est fait pour exploiter les données personnelles des gens. Facebook est fait pour considérer que les gens sont une marchandise et pour faire en sorte que les données circulent le plus aux endroits où ça arrange le plus donc vers des publicitaires, vers des gens qui font de la manipulation de l’opinion en période électorale. C’est fait pour ça. Facebook est fait pour ça. Le produit que vend Facebook c’est ça, c’est le fait de pouvoir manipuler les gens. Quand on détient des données personnelles sur les gens, que ce soit sur un individu ou sur une population, on détient la capacité de la comprendre et donc la capacité d’agir dessus, c’est-à-dire une forme d’emprise. Le métier de Facebook c’est d’offrir aux publicitaires le maximum d’emprise possible sur vous. Donc oui, à chaque fois que ça se voit, que c’est trop gros, que c’est trop sale, que ça devient vraiment indéfendable, Mark Zuckerberg va s’excuser platement en disant « oh la, la, je ne le referai plus ! » En gros il y a un gros scandale tous les huit à douze mois en ce moment, il s’excuse tous les huit à douze mois, il est rodé quoi, ça va.
Arjuna Andrade : Au-delà de l’intrusion qui pose déjà problème en soi, certains auteurs parlent également des risques que pose ce problème de capitalisme de surveillance, ce sont les mots de l’intellectuelle Shoshana Zuboff, américaine, qui dit que les géants du numérique ne sont plus seulement en mesure de s’adapter et de répondre à nos besoins, à nos envies, et à celles publicitaires, mais aussi de prédire nos attentes et de les transformer, de plier notre désir d’une certaine manière. Fabrice Rochelandet.
Fabrice Rochelandet : Oui, une capacité d’influence. Avec la publicité on l’avait déjà un peu, le modèle publicitaire et les médias, ça a été rappelé au départ. Sauf que là, oui, effectivement, ils vont peut-être prédire, ils vont peut-être influencer nos préférences.
Arjuna Andrade : Non seulement nos préférences, mais aussi nos pratiques. Elle prend notamment cet exemple qui est stupéfiant de Pokémon Go qui est une application qui fait gambader joyeusement des personnes dans la rue pour aller trouver des Pokémons par une appli et une intelligence artificielle, et ce qu’ils expliquent c’est qu’ils avaient conclu des contrats avec Starbucks et autres McDonald’s pour qu’à la recherche de ces Pokémons rares ils tombent sur un Starbucks ou un McDonald’s.
Fabrice Rochelandet : Il y a un exemple qui avait été donné je crois par le New York Times il y a quelques années, qui était assez intéressant : par exemple on a toujours l’impression, comme dirait Dominique Cardon, qu’il y a un clair-obscur des discussions, que c’est du bavardage, etc., mais en fait, Facebook notamment, calcule des indices sur ce bavardage selon l’attention qu’on peut avoir, etc. On peut imaginer demain les petites enceintes connectées qui feront un peu la même chose : selon le ton de la discussion on pourra par exemple prédire la séparation d’un couple ou le fait qu’il y a un enfant, etc. On pourra prédire énormément de choses et ça intéresse éminemment évidemment énormément ; par exemple aux États-Unis ce sont les marchands de bière : quand on divorce on change de bière. Donc pour les marques c’est très important. L’idée c’est de prédire, effectivement, pour pouvoir mieux vendre en fait. Donc on est vraiment dans un capitalisme effectivement aussi de surveillance de ce point de vue-là.
Arjuna Andrade : De prédiction et de transformation des pratiques. On voit par exemple dans le cas de Pokémon Go, que l’application qui développe ce jeu à priori bon enfant, etc., n’est autre que Niantic qui est une filiale de Google. Donc il y a toute la puissance nécessaire pour nous faire aller à peu près où elle veut.
Benjamin Bayart : Le capitalisme de surveillance c’est exactement ce qu’on décrit depuis tout à l’heure, c’est-à-dire que c’est le fait de considérer qu’il existe un marché des données personnelles, ce qui est en soi aberrant. On vend les personnes, on vend la vie des personnes et on espère en faire plus de croissance, plus de PIB, etc., plus de saccage de la planète, du coup, parce que tout ça n’est pas très écolo. Donc c’est quelque chose d’assez toxique et d’assez constamment toxique.
Arjuna Andrade : Ce que vous nous dites, d’ailleurs, c’est que, par exemple, si Facebook et les autres géants du numérique décidaient du jour au lendemain de ne plus fonctionner sur la publicité mais sur l’achat d’un usage, ce serait beaucoup plus stable comme situation.
Benjamin Bayart : Ce serait beaucoup plus stable. Ce serait beaucoup moins bon pour eux, mais ce serait beaucoup plus stable. Typiquement, cet effet économique bien connu sur Internet qui est ce que les Anglais winner takes all, c’est-à-dire que le gagnant prendra la totalité du marché et sera tout seul, est en moyenne plutôt faux sauf quand on rentre dans ce modèle d’économie publicitaire où, en fait, il y a une dualité entre l’effet de réseau qui fait que vous devez être sur le même réseau social que vos copains et l’effet, du coup, de domination sur le marché publicitaire qui fait que, du coup, Facebook se retrouve avec une part de marché dans la publicité qui est extrêmement élevée, qui est qu’il ne peut pas y avoir de concurrence. Une entreprise ne peut pas s’installer face à Facebook.
Quand vous avez un système qui n’est pas celui-là et qu’on a une rémunération des services, quel que soit le mode de rémunération ; je pense que personne n’a jamais payé pour consulter Wikipédia et pourtant Wikipédia est rémunérée, c’est-à-dire que la plateforme n’est pas gratuite et elle ne se finance pas par la publicité. C’est payé par des dons, c’est payé par des cotisations, c’est payé par des associations ; des modèles économiques qui existent il y en a beaucoup.
Arjuna Andrade : C’est un retour à l’ancien monde vous diront ces nouveaux maîtres du monde nouveau.
Benjamin Bayart : Oui, c’est un retour à l’ancien monde, celui qui ne fonctionnait plutôt pas si mal.
Arjuna Andrade : Plus contrôlé et peut-être plus juste.
Benjamin Bayart : Plus contrôlé je ne sais pas, plus juste probablement.
Je termine. Quand on est sur d’autres modèles économiques et qu’on a des systèmes qui sont interopérables, on peut imaginer qu’il existe des réseaux sociaux dont Facebook, mais dont d’autres, et vous pouvez ouvrir votre profil sur l’un ou sur l’autre, exactement comme le fait que vous ayez une adresse mail sur Gmail ou sur Outlook ou sur Riseup ou sur… ne change rien, vous pouvez quand même envoyer des mails à tout le monde. En fait, le modèle où on paye pour le service qu’on utilise, qu’elle que soit la forme de ce paiement, et où on redevient sujet de la transaction et où on ne s’adresse pas à une entreprise en monopole mais à un réseau de fournisseurs dont on peut changer quand on en a envie, c’est quelque chose qui est économiquement beaucoup plus stable et beaucoup plus résilient. Il y a beaucoup moins de risques de faillites catastrophiques, il y a beaucoup moins de risques systémiques. C’est-à-dire que mettre les données de 500 millions de personnes dans la nature, ça n’existe pas dans ce modèle-là parce qu’il n’y a pas une telle concentration.
Arjuna Andrade : Le problème c’est que non seulement il faudrait faire changer les acteurs du numérique, mais il y a aussi la question des consommateurs qui se retrouvent face à un paradoxe, à un arbitrage entre, d’un côté, le fait de devoir payer pour un service qui était jusqu’alors gratuit et, de l’autre, le fait de continuer sur quelque chose qui à priori ne les dérange pas trop. On en tête cet exemple de Spotify ou de Deezer qui ont réussi à imposer le fait de payer à leurs utilisateurs parce qu’ils mettaient une page de publicité entre toutes les deux chansons, donc le problème était immédiat, Fabrice Rochelandet, ce qui n’est pas le cas de l’usage de nos données, le problème n’est pas visible immédiatement.
Fabrice Rochelandet : Tout à fait. Effectivement ce serait très intéressant que toutes ces plate-formes deviennent payantes, qu’on paye un abonnement comme on paye un abonnement sur Netflix ou d’autres plates-formes et que, finalement, elles n’exploitent pas nos données autre que pour la qualité du service ou pour nous appareiller les uns et les autres, communiquer, interagir, etc. Le problème c’est que la concurrence est effroyable dans cette économie numérique. Le phénomène du winner takes all c’est n’importe quel étudiant sort d’une école, d’une business scholl, sort un nouveau Snapchat, ça fait frémir les gros opérateurs, parce que du jour au lendemain ils savent que les effets de réseau qui étaient évoqués précédemment jouent dans un sens. C’est-à-dire que plus il y a d’utilisateurs plus il y a d’utilité, plus il y aura des effets de verrouillage et les gens sont verrouillés jusqu’au point où, à un moment donné, il y a un service concurrent qui apparaît et là les effets de réseau peuvent devenir négatifs. La perte d’une partie de mes clients vers le nouveau service va me faire perdre d’autres clients et ainsi de suite. Il y a des effets boule de neige qui vont dans les deux sens en quelque sorte. Le problème c’est que les nouveaux services, pour s’imposer, se doivent d’être gratuits dans une logique marchande. Comment on fait pour être gratuit ? Encore une fois on va exploiter les données personnelles, on va faire de la revente de données, de la publicité, etc. Là est, à mon avis, le souci numéro un.
Arjuna Andrade : Je voulais revenir à la question de la demande parce que, évidemment, l’offre on voit qu’ils ont tout intérêt à poursuivre sur ce modèle. Mais les consommateurs sont face à un paradoxe, vous nous dites Fabrice Rochelandet que les individus ont un désir d’être protégés mais, qu’en réalité, une minorité seulement met en œuvre les moyens de se retrouver protégés sur Internet dans leurs données, dans leurs applications, etc. À quoi est-ce que cela tient ? Est-ce que ce n’est pas justement qu’on ne sait pas quels sont les risques encourus avec ce type d’usage ?
Fabrice Rochelandet : On peut être conscient des risques encourus. Je vais juste donner une anecdote. J’avais sorti il y a quelques années dans un colloque de droit le fait que 0,5 % des internautes lisait les chartes de privacy, les politiques de confidentialité et la manière dont les données seront utilisées, j’avais donné ce chiffre en disant « ça ne peut être que des juristes pervers ou des doctorants en droit » ; ce chiffre a été repris deux ou trois fois. En fait le paradoxe de la vie privée c’est simplement le fait que d’un côté, dans n’importe quelle enquête, les gens veulent protéger leur vie, mettent la vie privée comme une valeur essentielle, sa vie privée, sa propre vie privée, et en même temps ont un comportement qui n’est pas conforme puisqu’on s’expose, on divulgue des données, on se protège plus ou moins mal, on va dire, avec un marché des technologies de protection, du cryptage, qui est quasiment inexistant du point de vue des individus en tout cas ; on ne crypte pas ses mails par exemple, on navigue très peu en mode anonyme, etc. Donc c’est un paradoxe. Du point de vue d’un économiste pur et dur on dira que ça n’entre pas dans le modèle de la rationalité parfaite parce que les comportements ne sont pas conformes aux préférences ; si j’aime les fraises je mange des fraises ; si je veux protéger ma vie privée, je protège ma vie privée.
En même temps, il y a eu beaucoup de travaux en économie comportementale qui montrent, au contraire, qu’il y a une certaine rationalité. Je vais prendre l’exemple des applications : quand je charge une application, chaque fois que je vais charger une application je suis au courant qu’il y a un petit bout de moi-même, mon âge, mon poids, ma géolocalisation, qui part quelque part, je ne sais pas où. Quelque part je sais qu’il y a un risque ; au moment où je vais cliquer « j’accepte » je sais qu’il y a un risque. Mais en même temps un, j’ai envie de jouer à un jeu débile sur un smartphone, deux, je ne suis pas forcément conscient tous les jours, je ne suis pas capable d’agréger tous les petits risques que je prends chaque fois que je télécharge et que j’utilise une application. C’est ce qu’on appelle un biais psychologique assez élémentaire c’est qu’on a tendance à sous-estimer les risques cumulatifs comme, par exemple, quand on fume.
Arjuna Andrade : Parce qu’ils sont lointains.
Fabrice Rochelandet : Parce qu’ils sont lointains, ils sont indéterminés. Je préfère un petit plaisir, un petit jeu ou une petite application où je peux interagir, échanger des photos tout de suite avec mes amis, face à un risque qui peut être énorme, par exemple des intrusions dans ma vie privée, la fraude à la carte bancaire, le fait d’être spammé, le fait d’être surveillé, tout ce qui va avec, finalement c’est un risque qui est lointain, qui n’est pas facilement calculable. Donc entre une petite gratification, une utilité immédiate et un dommage qui peut être énorme mais qui est futur et non probabilisable, l’arbitrage est vite rendu.
Arjuna Andrade : Benjamin Bayart, dans ce manque d’informations qui peut faire que les personnes ne vont pas agir en fonction de leur croyance ou de leur volonté, on peut dire aussi qu’il y a une question assez naïve et assez bête mais concrètement qu’est-ce que l’on risque ? Qu’est-ce que l’on risque à part peut-être voir divulguer nos informations privées au grand jour ? Si on n’est pas très connu, à priori on peut se dire ça ne m’inquiète pas. Il y a cette fameuse idée de la doxa…
Benjamin Bayart : Je n’ai rien à cacher.
Arjuna Andrade : Je n’ai rien à cacher.
Benjamin Bayart : Le « je n’ai rien à cacher » c’est ce qu’explique le chef d’État totalitaire à sa population : les honnêtes gens n’ont rien à cacher. Je suis sûr que monsieur Ben Ali était de cet avis en Tunisie et je suis sûr que les dirigeants d’Allemagne de l’Est étaient de cet avis-là quand la Stasi surveillait tout le monde. En fait, ce n’est pas là qu’est le problème. Le problème ce ne sont pas mes données personnelles à moi au sens où le problème ce n’est pas savoir avec qui je couche. Le problème c’est l’effet systémique, structurant sur la société. Ça crée une société dans laquelle vous êtes tout le temps sous surveillance et vous savez que vous êtes sous surveillance puisque, à chaque fois que vous regardez un écran, l’écran vous renvoie l’image de qui vous êtes.
Ce n’est pas comme ça que fonctionne le monde normalement. Quand je sors de chez moi et que je vais chez mes commerçants habituels ils me renvoient une image de qui je suis, ce qui est normal : mon boucher me connaît donc il me renvoie une image de qui je suis. Mais dès que je suis un tout petit peu plus loin de cet effet-là, normalement non, on ne me renvoie pas une image de qui je suis. Le fait d’être enfermé dans ce qui ressemble un peu aux bulles de filtre si vous voulez, le fait d’être enfermé comme ça dans une société qu’on vous présente et qui est fausse puisqu’elle a été taillée sur mesure pour ce qu’on croit que vous êtes, on vous transforme et on vous transforme individuellement et surtout on nous transforme tous comme groupe. C’est-à-dire que parce qu’on suppose que le groupe a ce comportement-là on nous présente toujours les mêmes choses, on nous enferme toujours dans les mêmes clichés, donc on formate le groupe à être de plus en plus homogène, à être de plus en plus tout le temps pareil. Ça c’est extrêmement dangereux.
Arjuna Andrade : Le problème, Fabrice Rochelandet, est-ce que ce n’est pas comme pour le changement climatique ? Tant qu’on n’aura pas les incidences directes sur notre vie quotidienne est-ce qu’on sera prêts à changer et à adapter nos comportements ?
Fabrice Rochelandet : Je suis d’accord avec ce que Benjamin Bayart a dit précédemment, c’est-à-dire qu’il y a un coût collectif, il faut vraiment le voir comme ça, un coût environnemental, on est tous liés, etc. Ces données d’ailleurs sont exploitées ensemble, il n’y a pas une exploitation séparée des données, elles n’ont de sens que si elles sont exploitées par rapport à des profils, etc.
Le problème c’est que ce paradoxe de la vie privée, qui est mis en évidence par des économistes, des psychologues, etc., c’est que ça peut rendre les régulations difficiles. Pendant cinq-six ans j’ai travaillé avec un collègue sur ces questions d’efficacité en tant qu’économiste, d’efficacité des régulations. Un jour je me souviens que j’étais arrivé catastrophé, j’étais jeune chercheur, en disant « il n’y a pas de régulation efficace ». On a trouvé la cause c’est que, justement, les individus sont victimes d’un paradoxe parce que, simplement, les effets sont diffus, les effets sont collectifs ; on ne se rend pas compte du fait d’être contrôlé. Tout à l’heure on parlait de la publicité prédictive qui influence, etc., mais ça ne se fait pas du jour au lendemain, il n’y a pas une espèce d’apocalypse où je change de vie et c’est horrible. Non, ça se passe tranquillement, un peu comme le réchauffement climatique, les effets sont dans le temps, s’étalent dans le temps. Donc quelque part comment on fait pour réguler et essayer de corriger ? Et pourquoi réguler d’ailleurs ? Je profite aussi de dire cela, mais pourquoi vouloir réguler des données personnelles, en tout cas l’exploitation qui en est faite, la collecte, etc. ? Parce que d’un côté il y a quand même des aspects positifs, il y a quand même des innovations sociales. Facebook est une innovation sociale, ce n’est pas non plus quelque chose qu’il faut supprimer du jour au lendemain ; c’est son modèle économique qui pose problème, mais ce que rend Facebook comme service n’est pas inintéressant ; la preuve il y a quand même des centaines de millions, des milliards d’utilisateurs sur la planète. Donc il faut essayer de trouver une espèce d’équilibre entre d’un côté les bienfaits en quelque sorte, les innovations d’usage, etc. et puis, de l’autre, les dommages. Le problème c’est que ces dommages ne sont pas, comme vous le dites, perceptibles immédiatement par les individus. Ce qui rend difficile toute forme de régulation.
Arjuna Andrade : En matière de régulation on a longtemps pensé que les entreprises avaient tout intérêt à être vertueuses car si elles ne l’étaient pas elles risquaient de ternir leur image et donc de perdre des clients. C’est presque une idée de RSE [responsabilité sociétale des entreprises], de risque de ternir cette image. Qu’est-ce que vous pensez de cette idée, Fabrice Rochelandet ?
Fabrice Rochelandet : C’est ce qu’on appelle l’autorégulation ou la régulation marchande. En fait les entreprises se concurrencent, c’est un peu Google face à Yahoo, je suis plus respectueux de la vie privée donc ça devient un argument de vente ; il y a une espèce de mieux-disant, un aspect mieux-disant, une guerre. La protection des données personnelles devient un argument marketing. Je pense que là le problème c’est que les entreprises sont juge et partie. C’est-à-dire que ce sont elles qui vont décider les normes de privacy, de vie privée, ce sont elles qui vont mettre en œuvre les moyens d’action et surtout, quel est leur intérêt aux entreprises ? Est-ce que c’est minimiser la collecte ? Est-ce que c’est ne prendre que les données et ne pas les revendre s’il y a un marché qui s’offre à elles du jour au lendemain ? Je pense que l’autorégulation est mythe.
Arjuna Andrade : D’autant qu’on a vu qu’en dépit des multiples scandales qui ont pu émerger, les utilisateurs ne changent pas vraiment leurs pratiques, c’est peut-être aussi parce qu’ils sont captifs de certains monopoles. Je vous propose d’écouter ce qu’en dit la journaliste Amaelle Guitton, spécialiste des enjeux du numérique, le 11 avril 2018 dans Les Matins de France Culture.
Voix off de Amaelle Guitton : On voit bien qu’on arrive aux limites, finalement, du modèle Facebook. Pour deux raisons c’est que, d’une part, on se rend compte de ce que signifie leur modèle publicitaire, la monétisation, comme on dit, des données personnelles et des conséquences que ça a, notamment sur le partage de ces données personnelles avec des acteurs tiers, le problème posé par Cambridge Analytica, et, d’autre part, une question d’infrastructure tout simplement. C’est-à-dire est-ce qu’on peut imaginer raisonnablement un réseau social avec deux milliards d’individus, qui fonctionne bien, en étant géré par une entreprise privée de surcroît de droit américain ? Moi je suis assez fermement convaincue du contraire. Donc on voit bien qu’on touche aux limites du modèle. Effectivement la question c’est qu’est-ce qui peut en sortir ? Est-ce que des alternatives sont possibles ? On ne va pas avoir une fuite d’utilisateurs de Facebook du jour au lendemain, ça j’y crois assez peu, mais l’émergence de contre-modèles il faut, en tout cas, le souhaiter.
Arjuna Andrade : Benjamin Bayart on arriverait donc aux limites du modèle Facebook selon Amaelle Guitton. C’est pourtant difficile d’imaginer une fuite des utilisateurs du réseau social. Il faut dire que la firme est en quasi-monopole sur ce marché, que les utilisateurs sont pour ainsi dire captifs.
Benjamin Bayart : La firme est en monopole, pas en quasi-monopole. La firme est en monopole et c’est un des problèmes. On ne peut pas analyser ça comme une concurrence sur un marché ; il n’y a pas de marché. C’est qui le concurrent de Facebook ? Le concurrent de mon boulanger c’est vachement simple, c’est le boulanger d’à côté, ; je peux aller lui acheter du pain, j’aurai du pain, je vais m’en servir de la même façon, je m’en servirai dans le même repas, je vais l’assaisonner pareil, j’y mettrai le même beurre et la même confiture. C’est du pain ; il est meilleur, moins bon, mais enfin c’est du pain.
Arjuna Andrade : Alors qu’aujourd’hui Facebook a des activités qui sont complètement multipliées, c’est notre kiosque de journaux, notre…
Benjamin Bayart : Ce n’est pas le problème. Qui est le concurrent de Facebook ? Qui est le concurrent de Facebook ? Personne.
Arjuna Andrade : On pourrait dire qu’il y a de multiples concurrents sur des secteurs particuliers de Facebook, mais personne n’a cet usage.
Benjamin Bayart : Absolument pas ! Le secteur essentiel de Facebook, c’est le réseau des amis que vous avez là-bas. À moins que vous ayez exactement le même réseau d’amis sur un autre outil que Facebook, par exemple sur Mastodon [2], sur diaspora* [3], sur n’importe quel outil de partage et d’échange, il y en a des milliers des outils de partage et d’échange, si vous y avez le même réseau d’amis c’est un concurrent de Facebook. Si vous n’y avez pas le même réseau d’amis ce n’est pas un concurrent de Facebook. Ce que vous êtes en train de me décrire quand vous me dites kiosque à journaux, quand vous me dites on accède à de la musique, à de la culture, à machin, etc., non. Non, non ! Ça ce sont les clients de Facebook La marchandise c’est le réseau que vous et vos amis vous formez. Donc effectivement cette marchandise est mise à disposition de tout un tas de gens qui viennent vous présenter un service et vous profitez de ce qu’ils offrent.
Arjuna Andrade : Fabrice Rochelandet vous n’avez pas l’air d’accord.
Benjamin Bayart : Vraiment le produit c’est Facebook. J’ai un point sur lequel je veux terminer. L’idée essentielle c’est : on ne peut pas faire diminuer en taille et le rendre moins dangereux si on ne le force pas à l’interopérabilité. Et en forçant Facebook à l’interopérabilité…
Arjuna Andrade : Expliquez-nous ce concept interopérabilité.
Benjamin Bayart : C’est assez simple. C’est l’idée qu’il puisse exister une plateforme autre qui se connecte à Facebook, sur laquelle vous avez votre profil et où vous pouvez interagir avec les gens qui sont restés sur Facebook et dont le profil est resté là-bas. Exactement comme quand vous utilisez votre mail Gmail, vous pouvez communiquer avec moi qui ai un mail hébergé sur ma machine et on peut communiquer avec quelqu’un qui a un mail chez n’importe qui d’autre.
De la même manière, on peut imaginer que le réseau social formé aujourd’hui par Facebook devienne un système ouvert où d’autres plates-formes que Facebook peuvent s’y interconnecter. Par exemple vous pouvez utiliser, je ne sais pas, votre messagerie Telegram pour discuter avec vos amis qui sont sur le Messenger de Facebook. C’est ça l’interopérabilité [4]. Et en fait, à partir du moment où on force ces services à l’interopérabilité, on permet une diversité des plates-formes et on supprime cet effet de monopole.
Arjuna Andrade : Fabrice Rochelandet.
Fabrice Rochelandet : Là je ne suis pas tout à fait d’accord parce que je pense que Yahoo était un monopole à part entière et a été complètement déplacé par Google. Google est menacé par Facebook. On a tendance, justement, à ne pas forcément bien situer où est le monopole, où sont les enjeux de la guerre informationnelle, la guerre économique aussi que se livrent ces différentes plates-formes. Un exemple : quand Facebook rachète Instagram ou rachète WhatsApp à coups de milliards, c’est parce que Facebook est peut-être un monopole, mais un monopole contestable.
En revanche je suis d’accord, à court terme, pour l’instant, Facebook fait partie de ces grandes plates-formes qui est en monopole sur les services d’interaction, de réseautage, etc. Tout comme Google est en monopole ou quasi-monopole sur les moteurs de recherche, etc., les applications mobiles.
Arjuna Andrade : Et on voit que les jeunes n’utilisent plus Facebook maintenant, ils utilisent Snapchat.
Fabrice Rochelandet : Ils migrent. C’est assez impressionnant. Moi je vois pas mal de jeunes qui migrent d’autres plates-formes qui sont même des fois inconnues. On voit apparaître par exemple Tik Tok chez les plus jeunes.
Arjuna Andrade : Est-ce qu’on peut penser qu’on verra à la fin de Facebook de notre vivant ? Ou est-ce que cette stratégie est mise en œuvre, d’aller dans différents secteurs, justement pour contrer cette perte des usagers sur le réseau social ?
Fabrice Rochelandet : Oui c’est essayer de maintenir le verrouillage, c’est ce qui a été dit précédemment, ce qu’on appelle lock-in ou le verrouillage. Un peu comme Google : Google a promis de tendre un fil vers l’espace. On essaye toujours d’investir d’autres marchés, d’autres segments, d’autres usages, pour essayer de maintenir sa position coûte que coûte. Mais encore une fois, on n’est jamais à l’abri d’une petite start-up qui, en un an, peut passer de 30 utilisateurs à un million comme ça a été le cas historiquement par Napster ou d’autres depuis lors.
Arjuna Andrade : Est-ce que l’un des moyens de cette interopérabilité dont on parlait à l’instant ça n’est pas aussi le nouveau Règlement européen de protection des données [5] qui nous le donne avec ce qu’on appelle le droit à la portabilité. Peut-être que vous pourriez nous expliquer ce que c’est Fabrice Rochelandet ?
Fabrice Rochelandet : Le droit à la portabilité ce serait le droit de récupérer ses données, dans un format exploitable, et de pouvoir les utiliser, ce qui a été évoqué par Benjamin Bayart précédemment, de pouvoir les utiliser sur une autre plateforme. Moi je pense que le droit à la portabilité c’est intéressant dans certains secteurs par exemple comme un numéro de téléphone. Un numéro de téléphone est une ressource non reproductible ; je ne peux pas avoir deux opérateurs avec un même numéro de téléphone, c’est assez compliqué. Donc la portabilité fait jouer la concurrence entre les opérateurs telcos en quelque sorte ; ça c’est historique.
Arjuna Andrade : Ça remet en cause cette forme de verrouillage dont vous parliez à l’instant ?
Fabrice Rochelandet : Sur le marché des telcos, mais sur les marchés des médias sociaux en revanche, Snapchat peut reproduire exactement avec deux types de données. On disait tout à l’heure que ce n’était pas important la carte postale envoyée à la grand-mère, etc., mais ce qui est important c’est que la géolocalisation peut s’obtenir par plein de biais, plein de médias différents, que l’on poste en ligne, que ce soit une photo, une vidéo, que ce soit à moment donné le fait d’ouvrir sa lampe avec son smartphone, on peut se faire géolocaliser avec ça !
Du coup, quelque part, Snapchat comme Facebook, comme Google, peuvent reconstituer les mêmes données personnelles. Donc la portabilité quelque part, ne va pas forcément remettre en cause ce qui est le Graal, c’est-à-dire les données personnelles, les bases de données personnelles qui sont constituées et renouvelées en temps réel par ces grandes plates-formes. À mon avis, le droit à la portabilité est un instrument intéressant, mais pas forcément un instrument qui va porter beaucoup de fruits.
Arjuna Andrade : Benjamin Bayart, sur ce droit à la portabilité ? J’en profite pour vous glisser une autre question sur ce qui a été proposé aussi, évoqué, l’idée de faire de ces données un droit. Certains libéraux, notamment, proposent de faire un véritable droit de captation de ces données, pour ensuite décider de les utiliser donc de les vendre ou de ne pas les utiliser donc, auquel cas, de payer pour utiliser une application, un géant du numérique et autre.
Benjamin Bayart : Il faut une certaine couche de bêtise pour croire à ça !
Sur la portabilité. La portabilité c’est le fait de partir avec mes données. Quand je quitte mon opérateur téléphonique je récupère mon numéro de téléphone ; quand je quitte mon opérateur de mails je pars avec le contenu de ma boîte mail et je pourrai réinjecter ce contenu dans les archives de mails de la nouvelle boîte que je viens d’ouvrir.
Si je pars avec les contenus de Facebook et que je vais ailleurs avec, ça ne me sert à rien. Tous les contenus que j’ai postés sur Facebook, ça ne me sert à rien puisque je n’ai plus mon réseau. En fait, la portabilité est intéressante une fois que l’interopérabilité existe. C’est-à-dire une fois qu’il peut exister une deuxième plateforme, une troisième plateforme qui sont interopérables avec Facebook, comme les différents opérateurs de téléphonie sont interopérables entre eux.
Arjuna Andrade : C’est le préalable pour pouvoir utiliser cette plateforme de portabilité. Mais si on pense à Google, par exemple, les données ne sont pas utilisables par rapport à nos amis.
Benjamin Bayart : C’est autre chose. Typiquement le marché du moteur de recherche est beaucoup moins verrouillé. Si vous voulez changer de moteur de recherche vous pouvez le faire, c’est en un clic, c’est ce qui fait que Qwant a une chance de percer, c’est ce qui fait que Bing, le moteur de recherche de Microsoft continue d’exister.
Arjuna Andrade : Ecosia qui plante des arbres.
Benjamin Bayart : C’est ce qui fait que Yahoo continue d’exister dans les limbes des souvenirs de ce qui ne marche pas des internets de l’ancien temps.
Je veux revenir sur cette question de vendre ses données personnelles, ça revient à ça : c’est créer un droit patrimonial sur les données personnelles. Pour moi il y a un problème dual. D’abord ça ne sert à rien puisque le problème n’est pas un problème individuel mais un problème collectif. On ne peut pas régler un problème collectif en créant un droit individuel, ça ne marche pas. Mais surtout, fondamentalement, ça veut dire que seuls les riches ont le droit à la vie privée. Vous me direz « mais non, ce n’est pas ça la question, c’est est-ce que les pauvres peuvent gagner 3,50 euros en vendant toute leur vie ? » Dans les pays où on peut vivre en vendant un organe, vous pensez que ce sont les riches qui vendent un rein ? Non ! Ce sont toujours les pauvres. Donc dans un pays où la vie privée se cède contre quelques piécettes, c’est toujours les pauvres qui vont la céder, ce ne sont jamais les riches.
Arjuna Andrade : Les seuls qui auront les moyens de se permettre d’avoir une vie privée ce seront les riches peut-être dans ce monde.
Benjamin Bayart : Quand je dis riches ça ne veut pas dire milliardaires, juste les gens qui sont, disons, les 50 % les plus riches de la population.
Arjuna Andrade : Merci beaucoup Fabrice Rochelandet et Benjamin Bayart d’avoir été parmi nous pour analyser les méandres de la gratuité du numérique. Fabrice Rochenlandet, je rappelle que vous êtes l’auteur de l’ouvrage Économie des données personnelles et de la vie privée publié à La Découverte. Demain nous achèverons cette série sur le gratuit en réfléchissant avec Paul Ariès et Paul Jorion aux perspectives qu’offre la gratuité comme remède aux excès du capitalisme. En attendant vous pouvez retrouver cette émission en podcast et bien d’autres, disponibles à l’infini sur le site de France Culture. Vous pouvez aussi nous retrouver sur les réseaux sociaux avec le mot clef « entendez vous l’éco ».