Gérald Holubowicz : Bienvenue. Je suis Gérald Holubowicz et vous écoutez Imaginaires [1].
Un petit mot avant de commencer. Merci à vous, qui prenez le temps de cette écoute, à vous qui tentez l’expérience, qui donnez une chance à ce podcast.
Imaginaires part à la rencontre de chercheuses et de chercheurs, de journalistes et d’intellectuels qui observent l’effet de l’intelligence artificielle sur nos vies et son influence sur nos imaginaires.
Avant d’aller plus loin, je vous recommande de vous inscrire à Synth, la newsletter qui accompagne ce podcast, en vous rendant directement sur journalism.design [2], un site de ressources et de réflexions sur l’avenir de l’information et du journalisme.
Dans cet épisode, nous allons parler de travail et pas n’importe lequel, celui des petites mains du numérique, des petites mains qui aident chaque jour à collecter, trier, classer ou sélectionner les informations vitales pour les modèles d’intelligence artificielle qui nous accompagnent au quotidien. Arthur C. Clarke, l’auteur de 2001, l’Odyssée de l’espace, qui met en scène une des plus célèbres intelligences artificielles du cinéma américain, le fameux HAL 9000, écrivait que toute technologie suffisamment avancée ne peut être distinguée de la magie. Dans le cas des IA génératives, le tour de magie n’est pas là où on croit. Le truc des entreprises leaders en matière d’intelligence artificielle, c’est de faire disparaître de la conscience collective plusieurs millions de travailleurs.
Alors, comprenez-moi bien. Quand je parle de disparition je ne fais pas allusion aux prévisions du cabinet McKinsey qui annonce que, d’ici à 2030, entre 400 et 800 millions d’emplois seraient amenés à disparaître ou très affectés par l’essor des IA génératives. Ces prévisions catastrophistes, que la presse relaie depuis quelques mois et qui alimentent les peurs à propos des systèmes d’intelligence artificielle, semblent être la conséquence inévitable de l’innovation. Or, si elles devaient se concrétiser, ces prophéties ne seraient le résultat que d’une chose : la volonté de certains entrepreneurs de profiter des gains de productivité offerts par les systèmes d’intelligence artificielle pour remplacer des emplois par des dispositifs automatisés plus rentables.
Il s’agit avant tout d’un choix économique, un choix de management, une décision opportune en somme, mais pas du tout une conséquence imposée par la nature même de la technologie.
L’idée que pour faire une bonne omelette numérique il faut casser des emplois a réussi à s’imposer dans l’imaginaire collectif, au point qu’aujourd’hui elle aboutit à l’invisibilité presque totale de la question des travailleurs précaires du numérique, ceux qu’on connaît mieux sous le nom de travailleurs du clic.
Antonio Casilli [3] est professeur de sociologie à Télécom Paris, grande école composante de l’institut Polytechnique Paris. II a écrit un livre, en 2019, intitulé En attendant les robots. Enquête sur le travail du clic et justement, son travail l’a récemment conduit, avec quelques-uns de ses étudiants, à Madagascar sur les traces des travailleurs de l’intelligence artificielle auxquels font appel certaines entreprises françaises.
Cette étude publiée sur The Conversation [4]fait écho à l’enquête de Time Magazine [5], publiée un peu plus tôt, qui révèle qu’OpenAI, le créateur de ChatGPT, emploie des travailleurs kényans, pour deux dollars par jour, pour effectuer les tâches ingrates et difficiles dont personne ne veut en Occident. Ces travailleurs qu’on retrouve au Venezuela, au Brésil et parfois même en France, dont on peut bien se demander ce qui les distingue parfois de travailleurs plus classiques.
Antonio Casilli : Les premiers travailleurs du clic, ce sont les usagers comme toi et moi ; n’importe qui est un entraîneur de données, une personne qui participe, finalement, à une infrastructure technologique, qui a besoin de travail humain et de contribution humaine pour pouvoir fonctionner.
Les données ont besoin d’être annotées et améliorées, les algorithmes ont besoin d’être entraînés, donc, à la limite les premiers entraîneurs et les premiers qui mettent en doute ou remettent en question la structure métro-boulot-dodo ce sont les utilisateurs, comme toi et moi, qui se réveillent le matin, se servent de leur smartphone pour faire un tour sur les sites des médias sociaux, ou alors se servent de Siri ou Google tout de suite, qui, donc, sont déjà en train de produire de la data, de produire de la valeur, alors que, littéralement, ils viennent de sortir de la phase REM de leur sommeil. C’est une idée que d’autres ont déjà développée, moi-même dans le passé, l’idée qu’on ne vit plus dans le 3 X 8 mais dans le 8/8/8 finalement, dans une situation dans laquelle on est constamment en train de produire.
Après, la question, le débat et même, à la limite, je dirais la controverse qui m’a accompagnée tout au long de la deuxième partie des années 2010, dans ma carrière universitaire, était que, dans le contexte français, c’est vachement difficile de faire comprendre que la production, même bénévole, de données non encadrées par un contrat de travail constitue quand même du travail. Dans d’autres traditions politiques, dans l’Europe du Sud et même aux États-Unis, c’est beaucoup plus simple de faire comprendre : l’informalité du marché du travail est telle qu’on se passe souvent d’un contrat de travail et c’est exactement ce que ce qui se passe lorsque l’on va à la rencontre de ceux qui sont, par contre, reconnus comme les travailleurs du clic à proprement parler.
Les travailleurs du clic à proprement parler, ce sont de nouvelles professionnalités, il faut les reconnaître en tant que telles, mais qui, en même temps, sont constamment dévaluées et considérées comme des professionnalités à faible contribution en termes de valeur ajoutée, à faible spécialisation et à faibles compétences. Pourquoi ? Parce que ces travailleurs du clic sont des personnes qui sont recrutées, souvent de manière informelle, pour annoter des données, trier des données, retranscrire des extraits audio, regarder des vidéos pour laisser des tags ou pour identifier des objets dans ces vidéos et tout cela est nécessaire aujourd’hui pour entraîner les grands modèles linguistiques, mais aussi les grands modèles d’autre nature, par exemple des modèles qui produisent des images, des vidéos ou de la musique. On a besoin de travail humain pour entraîner ces modèles et pour faire davantage, parfois c’est même pour vérifier que l’intelligence artificielle fonctionne comme elle promet de fonctionner.
Ces personnes existent, sont encadrées d’un point de vue contractuel de manières très variées et souvent très floues. Certaines d’entre elles ont des contrats plus ou moins instables, ça peut être à la semaine, au mois ; d’autres ont des non-contrats, c’est-à-dire qu’elles sont plutôt recrutées comme des usagers lambda de plateformes, ça peut être une plateforme comme Amazon Mechanical Turk [6] ça peut être une plateforme un peu plus structurée comme une entreprise comme Apple qui est une énorme plateforme australienne. Ces personnes, grosso modo, n’ont qu’à s’inscrire sur ces plateformes, créer un profil et, après, ces plateformes agissent comme des marchés du travail, comme des marketplaces du travail.
Les travailleurs du clic peuvent donc chercher des tâches à réaliser, on les appelle des micro-tâches, qui durent très peu, normalement c’est quelques minutes, et qui sont très faiblement payées, normalement c’est quelques centimes, voire moins, selon les pays. Une première caractéristique, c’est le fait que c’est un retour du travail à la tâche, du travail à la pièce.
La deuxième question est que c’est un marché du travail à la pièce dans lequel la compétition est globale. Dans ce marché, les personnes qui travaillent depuis l’Europe ou le Nord du monde, le monde minoritaire comme on aime dire, sont en compétition avec le monde majoritaire, c’est-à-dire les pays dans lesquels se trouve la majorité de la population humaine et la majorité de la population mondiale se trouve dans des pays à moyens et faibles revenus. Dans ces pays, l’encadrement du travail est, disons, moins protecteur que chez nous, les salaires sont plus faibles et l’accès au marché du travail formel est beaucoup plus difficile pour tout un tas de catégories de personnes. Ces personnes sont déjà, le plus souvent, les plus marginalisées ou les plus fragilisées et se retrouvent à accepter de réaliser ce travail à la tâche qui est quand même un marché mondial qui implique plusieurs millions de personnes et, selon certaines estimations, dépasserait largement les 100 millions de personnes au niveau mondial.
Après, c’est clair que sur une population de huit milliards de personnes, ce n’est qu’une partie, voire une petite partie, des effectifs du marché mondial, mais c’est un phénomène qui semble être très répandu et que mon équipe de recherche et moi-même trouvons pratiquement dans plusieurs pays. On a déjà fait 19 enquêtes dans 19 pays différents et, dans tous ces pays, on retrouve des travailleurs du clic qui réalisent ce travail de préparation et de production de l’intelligence artificielle à force de produire à la main des données.
Gérald Holubowicz : Tu travailles sur cette population qui est, comme tu le dis, relativement restreinte, mais qui recouvre quand même une réalité économique relativement importante. Au début on disait « nous faisons tous partie de ces travailleurs-là, d’une certaine manière. » Au niveau de la tech, au niveau des acteurs principaux de la tech, qu’est-ce que ça représente d’avoir cette masse de travailleurs pour ceux qui ont une activité, qui sont, on va dire, rémunérés ? Qu’est-ce que ça représente comme valeur ajoutée ? On a l’impression que la tech se développe sur des algorithmes, sur des choses un peu éthérées. Est-ce que tu peux nous décrire, un peu, ce paysage des grands acteurs tech qui utilisent cette manne de gens qui existent dehors ?
Antonio Casilli : Je pourrais passer par un exemple qui est sous les yeux de tout le monde, qui est ChatGPT [7], parce que c’est effectivement le phénomène culturel des derniers mois. Dans ce cas-là, en effet, on a un double discours : un discours officiel et un discours de back-office.
Le discours officiel c’est celui des ingénieurs, celui qui parle aux investisseurs, qui parle au grand public, qui parle aux décideurs politiques et qui dit : « ChatGPT est basé sur une intelligence artificielle qui s’appelle GPT-3 et après 4, qui est basée sur des centaines de milliards de paramètres, qui est un truc énorme. » Des centaines de milliards de paramètres, lors de la dernière mise à jour de GPT-4 [8], même si OpenAI [9] n’a pas communiqué exactement sur cela, les estimations disent qu’on a affaire à un modèle qui a un trillion de paramètres, le trillion est même une unité de grandeur qui n’existe pas en français, c’est un truc genre Oncle Picsou, c’est lui qui aurait pu parler d’un trillion de dollars, etc. C’est donc quelque chose de vraiment faramineux, mais ce n’est qu’une partie de l’histoire. Ce sont évidemment des modèles hypertrophiques, énormes, par contre, ces modèles hypertrophiques ont besoin d’être entraînés. Et, dans l’acronyme, le « P » de GPT signifie Pre-trained, donc « pré-entraîné ». Pré-entraîné signifie que des personnes, des êtres humains, ont entraîné ces données et ces modèles d’intelligence artificielle pour, par exemple sélectionner les textes qui devaient être pris en compte, ou normaliser les textes, ou traduire les textes, ou les annoter pour dire que tel texte est une entrée de Wikipédia et parle de géologie, plutôt que ce texte est un commentaire de blog ou de Reddit [10] et c’est un truc qui parle de sport.
Ces annotations sont faites à la main par des personnes qui sont micro-payées, sous-payées en général, à partir de masses de données énormes sur lesquelles, par contre, ChatGPT et OpenAI communiquent beaucoup moins. C’est donc grâce au fait que d’autres personnes ont étudié cela qu’on sait que ChatGPT est entraîné à partir de données qui ont été collectées sur Internet depuis 2012. Donc, avant la création même de OpenAI, ils avaient déjà commencé à collecter des térabytes de données via une plateforme qui s’appelle Common Crawl [11] et, si l’on veut, ces données-là étaient des « données brutes », il faut mettre cela entre beaucoup de guillemets. Les données brutes, en tant que telles, n’existent pas, les données sont toujours produites d’un certain point de vue, il n’y a pas de données à l’état pur, mais ces données ont besoin d’être retravaillées encore par des personnes qui sont recrutées pour faire ce travail de filtrage.
Comme ChatGPT et OpenAI ne communiquent pas sur l’existence même de ces personnes-là, ce sont d’abord des journalistes et, après, des chercheurs qui ont fait l’effort d’aller les chercher. Quelques mois après la mise en ligne de ChatGPT, le magazine Time avait publié une enquête [5] dans laquelle il dévoilait que plusieurs centaines de personnes se trouvaient au Kenya, à Nairobi, en train d’annoter des données de ChatGPT.
Gérald Holubowicz : Donc, toi, tu as fait un travail un peu équivalent avec tes étudiants, tu es aussi allé chercher un peu ces données-là et qui était réellement derrière ce travail un peu invisibilisé, on va dire ?
Antonio Casilli : C’est le travail qu’on fait systématiquement depuis 2018 en réalité, on le faisait bien avant ChatGPT et GPT en général, parce que c’est une question, c’est une problématique qui concerne les solutions d’intelligence artificielle.
Si tu considères, par exemple, les assistants vocaux qui se trouvent dans ton smartphone ou d’un ton ordi, ce sont des intelligences artificielles qui ont besoin d’énormément de contribution humaine.
Nous avons commencé à travailler sur des applications du type agendas intelligents, des assistants vocaux ou des chatbots et après, évidemment, des caméras de surveillance intelligentes, des systèmes de reconnaissance faciale. On a donc tout un tas de technologies et, pour chacune de ces technologies, on va chercher les travailleurs qui sont dans le back-office. Ces travailleurs, dans le back-office, font tout un tas d’activités : parfois, ce sont des activités de pré-entraînement, ils se situent dans le passé et, parfois, ce sont des activités d’entraînement/vérification en temps réel, c’est-à-dire que, parfois, il faut s’assurer que l’application d’intelligence artificielle fonctionne comme elle promet de fonctionner, par exemple que l’assistant vocal interprète correctement ce que l’usager dit. Il faut donc des personnes qui, parfois à la main, parfois sur un échantillon et parfois sur toutes les conversations qu’on a avec un assistant vocal, s’occupent de vérifier que les transcriptions et l’interprétation faites par l’assistant vocal soient correctes. C’est donc une deuxième activité, ce n’est pas de l’entraînement, c’est de la vérification.
On a cité de la vérification en temps réel. Parfois, cette vérification en temps réel est tellement en temps réel que, pour être un peu provocateur, il n’y a pas d’intelligence artificielle à proprement parler, c’est-à-dire que, parfois, l’effet d’intelligence artificielle ou, plutôt, la performance d’intelligence artificielle est assurée par des personnes qui, en temps réel, font ce que le modèle d’intelligence artificielle est censé faire mais n’arrive pas à faire, parce que, parfois, il dysfonctionne et parfois il n’existe même pas ; parfois ce sont carrément des situations de fraude.
Gérald Holubowicz : Du coup, il y a vraiment toute une brique de ce système-là qui repose sur des travailleurs qui, en temps réel, ou pas, avant même l’utilisation du logiciel, commencent à former un travail pour pouvoir soit raffiner les données soit ajuster en direct ces données. De qui s’agit-il ? Est-ce que ce sont des Occidentaux, des gens venant d’autres pays ? Comment se répartit un peu cette masse de travailleurs-là qui agit dans l’ombre ?
Antonio Casilli : C’est une vaste question, je cherche à apporter quelques éléments un peu concrets.
Il y a, en réalité, trois équipes au monde qui font ce type de travail : nous à l’institut Polytechnique de Paris, nos collègues d’Oxford et nos collègues de l’OIT, l’Organisation internationale du travail. Ces enquêtes-là, qui durent depuis plusieurs années, nous donnent une cartographie dans laquelle on a une très forte séparation, un très fort clivage entre le Nord et le Sud global.
C’est clair que des pays comme les États-Unis ou plusieurs pays européens sont encore des lieux dans lesquels un nombre important de micro-travailleurs ou travailleurs du clic sont recrutés. Notre propre estimation, qui remonte quand même à 2019, donc pré-Covid, faisait état, approximativement, de 260 000 personnes en France qui font occasionnellement ce type de travail du clic. Mais, comme il s’agit de personnes qui, pour des questions légales et pour des questions économiques, doivent être payées certes à la pièce et très faiblement, mais faiblement par rapport aux standards des pays du Nord, ce n’est pas toujours intéressant du point de vue de l’efficacité, par rapport aux coûts, pour les entreprises qui produisent de l’intelligence artificielle. Si tu dois recruter un million de personnes parce que d’ici sept jours tu as besoin d’annoter, que sais-je, quatre millions de vidéos, ce n’est pas une masse de travailleurs que tu peux recruter tranquillement dans les pays du Nord, c’est donc plutôt dans les pays du Sud qu’on va les chercher. Ces pays sont Madagascar pour le contexte francophone, le Venezuela pour l’Amérique du Sud, les Philippines et l’Inde, plus récemment le Bangladesh et, après, d’autres pays. Avec mon équipe de recherche, nous nous sommes spécialisés surtout sur l’Afrique et l’Amérique latine, d’autres se spécialisent plutôt sur l’Asie.
C’est quand même un phénomène qui affiche une forte forme de dépendance politique et économique de ces pays et des marchés du travail de ces pays vis-à-vis des entreprises du Nord : les entreprises qui produisent et qui vendent de l’intelligence artificielle sont dans les pays du Nord, plus récemment dans les pays dits émergents mais largement émergés comme la Chine, l’Inde et la Russie aussi. Dans ce contexte-là, ces formes de dépendance politique et économique ressemblent effectivement beaucoup à des formes néocoloniales.
Gérald Holubowicz : Ça veut donc dire, grosso modo, qu’on maintient ces pays sous influence pour pouvoir bénéficier d’une main-d’œuvre relativement bon marché, voire extrêmement très bas marché, pour pouvoir justifier un business modèle qui, autrement, ne pourrait pas survivre. C’est ça ?
Antonio Casilli : D’abord, il faut comprendre que ce n’est pas une nouveauté dans l’absolu, parce que ces pays étaient déjà dans une forme de dépendance économique à cause des chaînes de sous-traitance d’autres secteurs, par exemple le secteur du textile, le secteur de l’énergie ou, plus traditionnellement, le secteur de l’agriculture. Plus récemment – quand je dis récemment c’est entre la fin du siècle passé et le début du 21e siècle –, on a commencé à voir apparaître, dans ces mêmes pays, des centres de spécialisation sur des services de traitement de l’information. Au début c’était plutôt les call centers, c’était le téléservice, c’étaient les SS2I [Sociétés de services en ingénierie informatique]. Après, progressivement, on s’est rendu compte qu’on n’avait pas besoin exclusivement de personnes qui répondent au téléphone, mais de personnes qui réalisent aussi des tâches non voix, non-voice tasks. Les tâches non vocales consistent, grosso modo, à annoter une data, regarder une vidéo, lire et résumer rapidement, en une phrase, un texte. Toutes ces tâches-là ont été, progressivement, de plus en plus fragmentées, simplifiées, standardisées, pour les rendre effectivement disponibles à une population plus vaste et « moins spécialisée » ; quand je dis moins spécialisée, il faudrait mettre ça entre beaucoup de guillemets. En réalité, la spécialisation est là, elle n’est pas reconnue, mais il est certain que ces tâches ont moins de barrières à l’entrée, demandent moins de temps d’apprentissage pour pouvoir être réalisées tout de suite ; normalement, il n’y a pas un entraînement important avant la réalisation de ces tâches.
Gérald Holubowicz : D’accord. On a eu, à travers certains articles de presse, des remontées, notamment de ce type de travaux. On parle notamment de curation, en fait de modération de contenus qui pourraient être éventuellement problématiques sur la santé de ces travailleurs-là. Est-ce que tu as un regard là-dessus ? Est-ce que c’est quelque chose que tu observes en particulier ? Est-ce que tu peux nous décrire un peu les problématiques que ces travailleurs-là rencontrent ?
Antonio Casilli : Les modérateurs, c’est un cas particulier. Ils rentrent dans ce travail du clic même s’ils sont présentés comme des modérateurs de contenu. Eux aussi sont des entraîneurs de données : pour les plateformes, une vidéo ou une photo c’est de la data, même si c’est de la data sous forme de contenu produit par les utilisateurs mêmes de ces plateformes et ces contenus ont besoin d’être filtrés ou placés. Les modérateurs sont normalement des travailleurs du clic qui font ce travail de filtrage ou, plutôt, notamment sur des contenus problématiques : si on doit départager, par exemple, les contenus généralistes versus les contenus pour adultes, c’est un travail de modération, par exemple de ce qu’on pourrait définir comme des contenus pornographiques. Ou alors, s’il s’agit de faire respecter certaines règles qui sont parfois de simples règles de civilité et, parfois, des lois de l’État dans lequel la plateforme se trouve, là il s’agit, par exemple, de modérer un certain type de discours politique, de discours de haine et ainsi de suite. C’est donc un cas particulier, mais c’est encore de l’annotation de données, c’est encore de l’entraînement d’intelligence artificielle.
Ces personnes, qui modèrent surtout les contenus les plus problématiques, sont reconnues depuis longtemps, et de plus en plus, carrément par des cours de justice, comme atteintes par des risques sociaux-professionnels spécifiques, qui relèvent, effectivement, du traumatisme ou du syndrome post-traumatique. En plus si c’est structuré d’une manière systématique, c’est-à-dire voir des images violentes à longueur de journée, oui, on peut bien imaginer qu’à certains moments cela déclenche un traumatisme de l’esprit humain et ceci est attesté.
Au-delà de cela que je comprends, que je justifie, je trouve même très correct de faire reconnaître les droits des travailleurs du clic en passant effectivement par les risques sociaux-professionnels et les risques pour la santé, on retrouve d’autres risques un peu différents, un peu dans toute la population qu’on a étudiée. Je te donne un autre exemple parce que c’est tout récent. Avec des collègues d’un laboratoire de recherche au Brésil, qui s’appelle LATRAPS,on a réalisé et on vient de publier un rapport [12] sur le travail du clic au Brésil, dans lequel il y a toute une partie sur les risques psychosociaux associés à ce type de travail.
Encore une fois, certains modèrent, certains sont là pour entraîner des robots genre les Roomba, les aspirateurs robots qu’il faut entraîner aussi. D’autres personnes, au Brésil, font un travail carrément de fermes à clics, cela veut dire, tout simplement, qu’elles sont payées par exemple pour follower un profil sur Instagram ou pour regarder une vidéo sur YouTube.
Elles ne sont pas toutes exposées à des situations problématiques, pourtant toutes ont un problème ou des problèmes qui sont liés principalement à des formes d’atomisation de leur activité, de perte de sens de leur activité, et de désocialisation autour du travail, parce que, historiquement, tel qu’il est conçu dans les sociétés modernes, le travail est une activité collective qui inscrit le travailleur et la travailleuse dans un collectif de travail, dans un collectif professionnel, ça peut être le bureau, ça peut être un lieu, ça peut être une communauté professionnelle, mais ces personnes-là ne voient pas la communauté professionnelle.
Après, il faut mettre des bémols parce qu’on ne trouve pas la même situation qu’au Brésil partout dans le monde. Par exemple, dans notre enquête sur la France oui, on remarque que les mêmes risques sociaux-professionnels et psychosociaux sont présents chez les travailleuses et travailleurs français, parce que, eux et elles aussi, avaient, par exemple, des problèmes d’isolement et ça, encore une fois, même avant le Covid. Le fait de se dire « je suis en train de travailler pour une entreprise dont je ne rencontre jamais les représentants, de laquelle je ne reçois pas, à proprement parler, ma fiche de paye parce que je ne suis pas payé comme un salarié, mais je suis payé comme une personne qui est un usager d’une plateforme dans laquelle il y a une cagnotte et je cumule des points, ces points peuvent être transformés en argent », tout cela implique, effectivement, des effets de désocialisation qui, au fil des mois et des années, ont effectivement un impact important et très grave sur ces populations.
Après, il y a des différences. Je peux te donner deux pays dans lesquels la situation est largement différente : le Venezuela, par exemple, dans lequel les travailleurs du clic travaillent depuis chez eux et chez elles, mais, souvent, travaillent en communauté qui peut être leur communauté familiale. On a souvent rencontré des personnes où tout le monde, au sein du foyer, s’alternait pour réaliser les mêmes tâches : quand l’enfant était à l’école, c’était la maman, après c’était l’enfant et, le soir, peut-être même la grand-mère ou le grand-père. C’est une situation complètement différente.
On a rencontré une situation encore complètement différente, parce que très variée, par exemple à Madagascar : quand j’étais à Tananarive, j’ai rencontré des personnes qui travaillaient dans des véritables bureaux, dans des openspaces, chacune avec son poste ; des personnes qui travaillaient dans des entreprises informelles, plus ou moins cachées dans une maison complètement banale mais, dans chaque pièce de cette maison, dans le grenier, dans le garage, tu avais 20/30 personnes en train de cliquer de se faire payer pour cliquer ; et, parfois, il y avait des personnes qui travaillaient dans des cybercafés, il y avait des personnes qui travaillaient chez elles.
Après, il y a aussi des questions de connectivité, d’électricité. Autant au Venezuela qu’à Madagascar le courant électrique ne passe pas toujours, ça peut donc introduire des fragmentations et des ruptures de continuité dans ces processus de travail qui ont besoin, par contre, que tout le monde s’y mette un peu.
On a même rencontré, à Madagascar comme au Venezuela, des familles, des frères et sœurs, qui, à longueur de journée et parfois même la nuit, réalisaient des micro-tâches et, de cette manière-là, créaient leur propre mini-collectif de travail pour contrer la désocialisation qui aurait eu lieu si elles n’avaient pas mis en place ces structures informelles.
Gérald Holubowicz : C’est intéressant parce que, au final, tu expliques que dans certains pays les gens sont très isolés, ne peuvent pas se rencontrer les uns les autres. Est-ce que ça empêche, quelque part, l’émergence d’une forme de solidarité entre les différents travailleurs qui pourrait leur permettre, comme on a vu, par exemple au Kenya, tout un groupe de travailleurs se sont formés en syndicat ? Est-ce que ça ne les empêche pas, un peu, d’être justement dans un rapport de force avec l’employeur pour obtenir de meilleures conditions de travail, par exemple ?
Antonio Casilli : Oui. La fragmentation de ce travail est certainement l’une des motivations principales pour la difficulté actuelle de constituer même une conscience de classe, si l’on veut, autour de cette nouvelle professionnalité.
Les personnes qui sont à Madagascar ignorent qu’au Venezuela il y a des personnes qui réalisent le même type de travail. Ou alors, parfois, même si elles le lisent par exemple dans la presse, « au Kenya, des modérateurs se sont organisés en syndicat », eh bien ils ne sont pas présentés comme des travailleurs du clic, ils sont présentés comme des modérateurs, donc, si je ne fais pas de la modération, peut-être que ça ne me concerne pas.
Bref, les différences sont importantes, mais la fragmentation est aussi quelque chose qui est activement recherché par les employeurs – plutôt que des employeurs, des recruteurs, ce n’est pas un emploi – et par les clients des recruteurs, les clients de ces plateformes. Il y a une raison technologique et statistiques pour cela : lorsque je suis en train de recruter non pas une personne pour réaliser une tâche mais 1000 personnes pour réaliser la même tâche et que je dois, grosso modo, trouver après une espèce de moyenne de la réponse, ou des réponses, pour pouvoir entraîner mon intelligence artificielle ; c’est comme ça qu’on entraîne l’intelligence artificielle : il n’y a pas un expert qui donne la bonne donnée à l’intelligence artificielle, il y a des milliers, voire des millions de personnes qui donnent des millions de réponses et, après, on fait une distribution et une moyenne. Pour pouvoir avoir une distribution non biaisée, le plus possible non biaisée, on a besoin que ces personnes-là ne se coordonnent pas. Si 1000 personnes parlent entre elles et se mettent d’accord pour donner la même réponse à la même tâche, il y a un problème de biais et selon les producteurs d’intelligence artificielle, c’est un biais dû aux travailleurs qui se constituent en « cartel », je mets ça entre beaucoup de guillemets. Je trouve complètement exagéré, voire faux du point de vue légal, de classer ces personnes comme des cartels, mais c’est clair que lorsque les travailleurs se constituent en syndicat, ceci est perçu, par les plateformes et par les producteurs d’intelligence artificielle, comme un cartel de freelances qui s’organisent contre l’entreprise et qui sont en train de créer des formes de centralisation, voire de monopolisation sur le marché du travail. Les employeurs et les producteurs d’intelligence artificielle se retrouvent même à avoir, d’une manière perverse, la loi de leur côté qui leur dit « on a là, effectivement, un problème d’antitrust », à la limite, ce qui est complètement débile parce qu’on se retrouve à dire que les personnes marginalisées, fragilisées et mal payées font de l’antitrust contre Microsoft ou Facebook, c’est carrément paradoxal !
Les raisons pour lesquelles c’est difficile de créer de la solidarité active au sein de ces collectifs de travail, c’est justement parce qu’ils ne se reconnaissent pas comme des collectifs de travail, ni même comme des collectifs internationaux de travail, ils ne se reconnaissent pas comme une classe et les seules situations dans lesquelles on a eu, jusqu’à l’année passée, un certain succès, c’était plutôt des recours collectifs, des class actions. Dans les class actions, on ne passe pas par une négociation collective, des grèves comme on en a en Inde, par exemple, ou la création d’un syndicat comme au Kenya, mais on passe par des tribunaux et la cour de justice doit rendre une décision de justice favorable à des personnes. On a donc eu, effectivement, des succès relatifs : on a eu un véritable succès au Brésil, il y a deux ans, lorsque des travailleurs du clic ont été reconnus par le ministère du Travail brésilien et par l’État de São Paulo, dans le sud du pays, comme de véritables salariés, on parle, je pense, de 15 000 personnes.
En France, on est passé à côté, quelques centimètres encore et on arrivait vraiment à faire reconnaître comme travailleurs salariés plusieurs centaines de milliers de personnes. En 2020, on avait eu une décision de justice de la cour d’appel de Caen, je crois, qui avait décidé que ces plateformes de micro-travail, qui opéraient en France, auraient dû reconnaître comme salariés toutes les personnes qui s’étaient inscrites sur la plateforme et la plateforme faisait état, même si j’ai un doute, de 700 000 inscrits. Encore une fois, il faut mettre beaucoup de bémols, mais, en même temps elles ont eu chaud parce que, pendant deux ans, la situation était telle qu’elles paraissaient devoir embaucher, régulariser, plusieurs centaines de milliers de personnes. Le problème est que, par la suite, la cour d’appel de Paris a renversé la décision.
Encore une fois, on n’y est pas arrivé, disons qu’on y est arrivé suffisamment pour que les entreprises qui font du travail du clic soient aujourd’hui beaucoup plus attentives lorsqu’il s’agit de l’encadrement contractuel de leurs propres travailleurs du clic.
Gérald Holubowicz : C’est un peu le contexte qu’il y avait aussi autour de Uber, non ? Entre les livreurs et les chauffeurs Uber, il y avait une sorte de volonté de reconnaissance de salariat parce qu’ils travaillaient, il y avait une hiérarchie entre eux chez Uber et ils recevaient directement leurs ordres par un algorithme.
Antonio Casilli : Le mot que tu cherchais était subordination.
Gérald Holubowicz : Merci.
Antonio Casilli : En effet, c’est exactement le même type de combat et je considère, effectivement, qu’il y a une ligne de continuité, un fil rouge qui connecte les plateformes de travail local comme Uber, comme Deliveroo, etc., et les plateformes de micro-travail à distance comme Apple, Amazon Mechanical Turk et d’autres. Ce sont tous des cas de figure d’une économie de plateforme dans laquelle les travailleurs uberisés, les travailleurs de la gig economy comme on l’appelait à un moment, ont été l’avant-garde de cette reconnaissance du travail de plateforme et, encore aujourd’hui, ils ont un rôle important. Si on pense à ce qui se passe au niveau européen autour de la directive sur le travail en plateforme qui est très controversée, qui est un véritable terrain de combat depuis plusieurs années et je ne suis pas certain qu’on soit en train de gagner ce combat, même si je le suis de très près, voire je suis impliqué dans ce type d’expertise et d’analyse de situation. La directive sur le travail de plateforme a été largement portée et calibrée sur les travailleurs en présentiel, donc les travailleurs locaux comme Uber et compagnie. C’est un véritable travail culturel de formation des sensibilités politiques pour faire comprendre aux décideurs publics qu’il ne faut pas qu’ils se limitent tout simplement à voir les travailleurs qu’on voit, mais aussi à voir les travailleurs qu’on ne voit pas. Les travailleurs qu’on voit ce sont les personnes qui passent dans la rue, on voit passer des voitures Uber, on voit passer des livreurs Glovo, Foodora, Deliveroo, etc. On ne voit pas les entraîneurs de l’intelligence artificielle, on ne voit pas les modérateurs de contenus, on ne voit pas les personnes qui, parfois, font semblant d’être des intelligences artificielles, parce que le système est justement imaginé et conçu pour qu’on ne les voie pas.
Gérald Holubowicz : Donc structurellement la loi permet, finalement, à ces modèles-là, à ces entreprises d’exister, parce qu’elle maintient une population dans une certaine forme de précarité, voire elle l’invisibilise soit par ignorance des situations soit, peut-être aussi, pourquoi pas, une vraie volonté politique parce qu’on considère qu’il n’y a pas besoin de valoriser ce type de travail, donc la loi favorise structurellement l’émergence de ces industries-là.
Quand, par exemple, on a un débat au niveau européen autour de l’IA Act [13] qui doit justement encadrer le développement de ces technologies au sein de l’espace européen et quand on voit que Sam Altman ou d’autres leaders d’industries de l’IA font des tournées mondiales pour pouvoir influencer les législations, est-ce que tu penses, est-ce que tu crois que ce volet-là du travailleur numérique invisibilisé devrait également faire partie intégrante de ce type-là de corpus législatif pour être vraiment ceinture et bretelles en termes de législation ?
Antonio Casilli : Oui. Je pense que le volet travailleurs du clic invisibilisés, travailleurs du clic mis à distance, éloignés du point de vue géographique et, parfois, éloignés du point de vue de l’imaginaire et de la conception, devrait faire partie de ces efforts de régulation. Je comprends aussi pour quelle raison, aujourd’hui, ceci n’est pas le cas.
Si on regarde, par exemple, l’effort de lobbying de Sam Altman et de OpenAI vis-à-vis des décideurs publics américains : il passe, dernièrement sa vie à Washington pour chercher à mettre en place une « régulation efficace », entre beaucoup de guillemets, ou alors si on pense à l’IA Act européen, ce sont des formes de législation ou des formes de régulation qui se concentrent exclusivement sur la phase de déploiement de l’intelligence artificielle, c’est-à-dire que l’intelligence artificielle est présentée dans ces initiatives de régulation comme un produit déjà fait, qui marche et qui est prêt pour être utilisé par les utilisateurs.
Gérald Holubowicz : Comme une bagnole, comme un mixeur, comme n’importe quoi.
Antonio Casilli : Voilà, exactement !
Si on continue, si on file la métaphore de la bagnole ou du mixeur, la question est qu’on ne s’occupe pas des pièces détachées qui ont été nécessaires pour construire le mixeur. Si on file la métaphore du mixeur pour l’adapter à l’intelligence artificielle, on ne se préoccupe pas du fait que, finalement, dans le mixeur il y a quelqu’un qui, à la main, est en train de mixer les légumes, parce que l’intelligence artificielle est encore largement dépendante d’un travail humain.
Cela demanderait un effort pour aller regarder non pas le déploiement de l’intelligence artificielle, mais aussi la production de l’intelligence artificielle, comme on le fait dans d’autres secteurs, comme on le fait, par exemple, dans l’agro-alimentaire. Je veux, bien sûr, m’assurer que la confiture x soit présente sur le marché selon des règles de, que sais-je, commerce équitable, à un prix juste et qu’elle ne soit pas nuisible à ceux qui la consomment, mais je veux aussi m’assurer, par exemple, que les personnes qui ont fait la cueillette des fruits pour la confiture ne soient pas exploitées, ne soient pas mises en danger. Si on le fait pour certains produits, ça peut être, encore une fois, dans le textile, dans l’agro-alimentaire, si on s’occupe, par exemple d’un droit de vigilance, right diligence, tout au long de la chaîne de production, pourquoi ne le fait-on pas pour l’intelligence artificielle ? Tout simplement parce que les grandes entreprises, même les petites – je dirais même, à la limite, les petites plus que les grandes –, sont dans le déni total de l’existence même de cette chaîne d’approvisionnement en termes de données et de travail du clic. Elles disent ou, plutôt, elles vendent le rêve de l’intelligence artificielle qui marche parce qu’il y a l’algorithme surpuissant, mais elles oublient de préciser qu’il y a, en réalité, des millions de petites mains qui, chaque jour, doivent être impliquées pour faire marcher cette intelligence artificielle ou le mixeur pour que le mixeur mixe.
Tant qu’on continuera de mettre à distance et d’invisibiliser ce type de travail, tant qu’on continuera, finalement, de se soustraire au devoir de vigilance, on va avoir un problème. On va avoir un problème de non-dit, on va avoir un problème de face cachée et, finalement, d’un ingrédient secret qui pourrait s’avérer dangereux pour l’existence même de ces solutions d’intelligence artificielle.
Gérald Holubowicz : C’est l’impact que cela a sur nos imaginaires, ce discours, cette narration qui est fabriquée autour des IA : dire que l’intelligence artificielle est une suite d’algorithmes éthérés qui reposent dans le cloud, etc. ? Qu’est-ce que ça produit chez nous, dans la population, peut-être même chez toi, chez les gens que tu rencontres, qu’est-ce que tu constates ? Que produit ce discours-là dans nos façons de nous représenter le travail, dans nos façons d’imaginer ce rapport-là aux outils et à la technologie ?
Antonio Casilli : Ce type de rhétorique est tout d’abord utilisé pour créer une forme de discipline des travailleurs qui produisent l’intelligence artificielle et des travailleurs qui sont potentiellement exposés à l’intelligence artificielle. On le voit à chaque fois qu’un nouveau produit ou un nouveau paradigme d’intelligence artificielle s’impose, même si c’est largement du marketing à ce stade-là : la solution est accompagnée par un discours et par des prophéties de la disparition de x % d’emplois. C’est, en effet, une manière de jouer avec les peurs, de faire du marketing de la peur, de montrer la puissance de ces solutions, la performance de ces solutions en montrant l’effet négatif qu’elles peuvent avoir et même, à la limite, en assumant le côté négatif.
Après, il y a aussi une manière de redistribuer la responsabilité de ces effets négatifs. Quand on regarde comment les producteurs d’intelligence artificielle parlent effectivement de leurs algorithmes, parlent de leurs données et, par données, ils sous-entendent aussi les travailleurs qui annotent les données, qui entraînent les données, s’il y a un pépin avec l’intelligence artificielle, c’est toujours à cause des données et si l’intelligence artificielle marche bien, c’est toujours grâce à l’algorithme. Il y a donc une manière de se partager les bienfaits et les effets négatifs qui, constamment, déplace le risque, déplace la responsabilité vers des personnes qui sont, finalement, les ouvriers de cette data.
Je vais te donner un exemple qui a affaire avec une affaire criminelle, finalement, qui a affaire à une intelligence artificielle un peu particulière parce qu’il s’agit d’un véhicule autonome. Il y a des hauts et des bas, les véhicules autonomes continuent d’être un rêve qui nous est vendu systématiquement. On sait aussi très bien, et de plus en plus, que ça marche relativement mal, que c’est vraiment difficile de se passer d’une intervention humaine pour passer à un niveau d’automatisation de la conduite qui serait ce qu’on appelle le niveau quatre ou cinq, dans lequel tu peux effectivement carrément te passer du volant. Aujourd’hui, les véhicules sont tout au plus au niveau trois et peuvent se permettre d’être autonomes sur certains parcours ou en réalisant certaines manœuvres, mais pas partout, pas tout le temps. Il faut qu’une personne soit constamment au volant, les mains sur le volant en train de conduire. Ces personnes-là ne sont pas reconnues par les producteurs de ces intelligences artificielles comme des chauffeurs, elles sont appelées des testeurs ou opérateurs de conduite. Elles aussi font un travail de la donnée, un travail de la data un peu particulier.
Lorsque, en 2018, il y a eu le premier accident mortel impliquant un piéton et une voiture dite autonome de Uber en Arizona, la personne qui était dans la voiture dite autonome, the driverless car, la voiture sans chauffeur, était bien un chauffeur, une femme à ce moment-là, qui est la seule personne qui se trouve encore en prison à cause de cet accident. On aurait pu avoir une palette de responsabilités, un éventail de responsabilités civiles ou criminelles : on aurait pu accuser l’entreprise Uber, on aurait pu accuser les ingénieurs de Uber qui avaient mal projeté le système de freinage du véhicule autonome, on aurait même pu impliquer la ville de Tempe, en l’Arizona, parce que la route n’était pas bien éclairée et ainsi de suite. La seule personne qui a encore des problèmes avec la justice, sur laquelle se trouve la responsabilité légale de l’acte qui se manifeste de cette manière répressive, c’est la travailleuse des données, la travailleuse du clic qui était aussi une testeuse de véhicules et qui se trouvait dans la voiture à ce moment-là.
C’est aussi une manière de reconnaître qu’il y a une double peine dans ce type de travail : c’est un travail qui n’est pas reconnu, qui est mal payé et en plus, lorsqu’il y a un pépin, un travail qui, fort probablement, peut même provoquer des problèmes de nature légale pour les travailleurs et les travailleuses.
Gérald Holubowicz : C’est intéressant. En plus, on a appris récemment que Tesla avait connu près de 736 crashs et à peu près 17 morts. Les personnes qui ont utilisé les véhicules autonomes en mode autonome, ont quand même causé des morts et là pour le coup, pour autant qu’on sache, il n’y a pas eu de personnes envoyées directement en prison, c’est plutôt la technologie qui a été désignée comme fautive.
Antonio Casilli : Dans le cas de Tesla, c’est un peu particulier. Tesla a des pratiques douteuses, voire carrément illégales et, pendant des années, n’a pas communiqué aux autorités compétentes le nombre de décrochages – on les appelle comme cela lorsqu’on a un pépin avec l’intelligence artificielle –voire d’accidents. Pour Tesla, les accidents mortels concernent la mort des conducteurs qui sont les premiers testeurs de Tesla. Ce sont des personnes qui, clairement, ont trop d’argent, trop de temps à leur disposition ou trop d’adhésion idéologique au rêve d’Elon Musk et qui acceptent d’être les entraîneurs de ces véhicules. Parfois, elles font un peu trop confiance à ces véhicules, par exemple en se fiant un peu trop à l’autopilote ou en ne considérant pas les conditions de la route qui ne sont pas tout à fait idéales. De ce que j’ai compris, dans ces cas-là, c’étaient plutôt les conducteurs mêmes et pas des piétons comme c’est le cas, par exemple, dans l’accident de Uber dont j’ai parlé.
Gérald Holubowicz : D’accord.
Pour finir comment vois-tu l’avenir du travail dans ce domaine de l’IA qui est relativement vaste, on l’a vu, on a couvert plein de questions ? Quels changements doit-on apporter pour garantir d’abord de la dignité, une bonne rémunération aux travailleurs de cette frange économique ? Est-ce que c’est compatible avec le développement du secteur à plus ou moins long terme ?
Antonio Casilli : J’envisage le futur comme un combat, comme une lutte autour de la reconnaissance de ces travailleurs avec, comme condition nécessaire mais pas suffisante, une articulation entre les luttes des travailleurs à distance, les travailleurs du clic à distance, et les travailleurs de plateformes en présence. Donc, effectivement, l’idée d’une sorte d’alliance internationale entre les gens qui font des livraisons et les gens qui font des livraisons de données c’est un peu nécessaire et c’est aussi quelque chose qui est en train de se faire.
Après, il y a aussi un combat culturel. Faire comprendre qu’il y a une armée industrielle de réserve derrière n’importe quel chatbot ou n’importe quelle solution d’intelligence artificielle est un message qui passe de plus en plus dans la presse. Je pense qu’on est vraiment à un doigt d’une prise de conscience mainstream, au moins dans le contexte des pays du Nord, mais ceci ne signifie strictement rien sur la façon dont on peut imaginer le futur de ce conflit autour du travail.
Parfois les prises de conscience s’accompagnent aussi d’une posture, disons cynique, de renonciation à l’opposition vis-à-vis d’un système injuste. L’exemple pourrait être ce qui s’est passé dans nos pays entre 2013 et 2016 avec les révélations de Snowden [14] et après Cambridge Analytica [15] sur les violations de la vie privée, la désinformation, etc. Face à ça, on a effectivement, au niveau de la société et des décideurs publics, une situation de résignation et, finalement, de laisser-faire cynique : bien sûr ils nous espionnent, bien sûr il y a une violation systématique de nos libertés publiques et de notre vie privée, mais que veux-tu faire !
Ce type d’attitude est un risque, c’est pour cela qu’il faut aussi travailler sur une autre prise de conscience, la prise de conscience du fait qu’on est dans la même situation, qu’on soit des travailleurs du clic ou des utilisateurs des interfaces et des solutions développées grâce au travail de ces travailleurs du clic. Il faut effectivement revenir à ce qu’on disait au début, au fait que notre vie d’usager est aussi une vie d’entraîneur de données, est une vie de manipulateur et manipulatrice de données. Dans notre cas, parce qu’on vit normalement dans des pays dans lesquels on peut se permettre du travail gratuit, on peut se permettre que certaines de nos contributions ne soient pas rémunérées, parce que nous sommes dans des situations économiquement assez stables par rapport à des pays comme le Venezuela dans lequel 80 % de la population vit en dessous du seuil de pauvreté. Dans le contexte vénézuélien, tout geste doit se transformer dans quelque chose de rémunéré parce qu’il faut s’en sortir, la débrouille c’est aussi ça.
Pour nous, la débrouille ce n’est pas ça ! Parfois on a envie de donner de son temps, de donner de son activité. Parfois on se fait un peu arnaquer dans ce type de posture un peu bénévole, mais il faut comprendre que nous sommes tous des producteurs de données, qu’on le fait collectivement, que c’est un effort collectif. Ce n’est pas quelque chose qui peut être réalisé par une personne et qui peut être payé par une personne. Lorsqu’on paye le travail du clic individuellement, on se retrouve dans la foire d’empoigne ou dans le marché extrêmement inégalitaire dans lequel les personnes sont payées 0,01 centime par tâche. Donc la solution, pour nous usagers, n’est pas de nous faire reconnaître en tant que producteurs de données parce que, sinon, on se retrouve à être tous travailleurs du clic. Je crois qu’il est assez clair que ce n’est pas une situation enviable du point de vue professionnel.
Gérald Holubowicz : Merci Antonio.
Antonio Casilli : Merci Gérald.
Gérald Holubowicz : Merci. Bye-bye. Ciao.
En écoutant Antonio, je réalise que le numérique repose, comme beaucoup d’autres secteurs, sur le travail acharné de millions de petites mains invisibles. Invisibles parce que nous décidons tous, collectivement, d’ignorer leur travail. Plutôt que de reconnaître leur existence, nous préférons perpétuer des histoires d’inventeurs géniaux qui auraient décidé tout seuls de révolutionner le monde depuis leur garage en Californie. En faisant ça, nous faisons un choix politique, un choix de société. Nous décidons d’appuyer nos avancées technologiques sur l’exploitation de travailleurs précaires, situés, pour une bonne partie, dans des pays pauvres et dont beaucoup étaient d’anciennes colonies ou des protectorats. A-t-on encore envie de perpétuer cette organisation héritée d’un ancien monde ?
Merci d’avoir écouté cet épisode d’Imaginaires, le podcast compagnon de la newsletter Synth [2].
Si vous êtes encore en train d’écouter, c’est que ça vous a plu. Alors, n’hésitez pas à faire connaître le podcast en le partageant sur les réseaux, à le recommander à vos amis et à lui donner la meilleure note possible sur votre plateforme d’écoute préférée.
Je vous donne rendez-vous à très bientôt pour un prochain épisode. Salut.