Voix off : Next, Next, Next, Next, Next.
Denise, une des voix du site ttsfree.com : Bienvenue dans notre podcast Algorithmique où nous plongeons dans les implications de l’intelligence artificielle sur la société. Installez-vous confortablement, ouvrez votre esprit à la réflexion et rejoignez-nous dans cette exploration.
Mathilde Saliou : Qu’avez-vous pensé de l’introduction que vous venez d’entendre ? Depuis vos écouteurs ou vos enceintes, normalement ça a eu l’air assez crédible. Le texte était un peu plat peut-être, mais Denise, elle sonne plutôt réalisme, non ! Vu depuis mon ordinateur, je peux vous dire que c’est complètement fake, artificiel, synthétique même si vous voulez des mots du jargon. Je peux aussi vous détailler comment j’ai fait pour passer ce son : d’abord, j’ai demandé à ChatGPT, l’outil d’OpenAI, de m’écrire une introduction de podcast et puis je l’ai faite lire à Denise, l’une des 35 voix utilisables gratuitement pour créer de faux textes, sur le site ttsfree.com.
Denise, une des voix du site ttsfree.com : C’est moi, vous me reconnaissez ?
Mathilde Saliou : Mais bon ! Est-ce que, pour autant, je viens de créer un agent intelligent ? Est-ce que c’est ça l’intelligence artificielle ?
Depuis la fin 2022 et la sortie des modèles génératifs comme chez ChatGPT, Midjourney et d’autres, l’intelligence artificielle refait la une des journaux. Selon les jours et les actus, elle peut paraître, au choix, la solution à tous nos problèmes, c’est super !, ou un danger susceptible d’éradiquer l’humanité, affreux !
Chez Next, on couvre ça au quotidien et on constate qu’il y a un récit qui a un peu plus de mal à se faire entendre, c’est celui des effets concrets de ces technologies sur nos vies, dès aujourd’hui. Dans Algorithmique, on va décortiquer tout ça et tenter de vous donner des outils pour réfléchir aux effets de l’intelligence artificielle, avec la nuance que ces technologies de pointe demandent. Ça vous dit ?
Jean-Gabriel Ganascia : De l’intelligence. Qu’est-ce que c’est ? C’est la perception, c’est le raisonnement, c’est la mémoire ?
Amélie Cordier : C’est toujours possible de débrancher la prise, sauf que, dans la plupart des cas, les gens ne sont même pas conscients de ce qui se passe dans la machine.
Mathilde Saliou : Je suis Mathilde Saliou, journaliste et autrice de Technoféminisme – comment le numérique aggrave les inégalités, et vous écoutez Algorithmique un podcast produit par Next.
Épisode 1 : Intelligence sans conscience
Mathilde Saliou : La première chose dont on a besoin, pour parler d’intelligence artificielle, c’est de définir les termes du débat. C’est essentiel pour être sûr qu’on parle toutes et tous de la même chose, au moins le temps de ce podcast. Je me suis dit que des experts pourraient nous aider à nous y retrouver. Je suis donc allée voir Jean-Gabriel Ganascia, qui est professeur à la Faculté des Sciences de Sorbonne Université et chercheur au LIP6, le laboratoire d’informatique de l’université. Je lui ai demandé : de quoi parle-t-on quand on utilise les mots « intelligence artificielle » ?
Jean-Gabriel Ganascia : C’est un terme tout à fait précis qui a été introduit en 1955 par des jeunes chercheurs qui voulaient essayer d’utiliser les machines qui venaient d’exister. Le premier ordinateur électronique est fait en 1946, donc ça faisait moins de 10 ans, pour essayer de mieux comprendre l’intelligence.
Alors qu’est ce que c’est que l’intelligence ?, parce que c’est ça la vraie question et c’est toujours ça qui fait peur. Le terme « intelligence » est éminemment polysémique.
Mathilde Saliou : Jean-Gabriel Ganascia commence par me lister une série de définitions de ce qui, dans le domaine scientifique de l’intelligence artificielle, n’est pas de l’intelligence. Dans ce champ-là, l’intelligence, ça ne veut pas dire « l’esprit », ça ne veut pas dire « la sagacité » ou « l’astuce ». Et puis, comme il me l’explique, ça n’est pas non plus une mauvaise traduction de l’anglais, comme dans les termes intelligence service ou Central Intelligence Agency.
Jean-Gabriel Ganascia : En réalité, l’intelligence est une notion qui a été introduite au 19e siècle, qui correspond à des études psychologiques. Ce sont des philosophes qui ont voulu étudier les problématiques de la philosophie, c’est-à-dire l’esprit, avec les méthodes des sciences physiques, ce qu’on appelait la psychologie cognitive. Ça naît avec le courant positiviste et, en France, nous avons un excellent représentant de ce courant, qui s’appelait Hippolyte Taine [1], qui a écrit, à la fin du 19e siècle, un gros ouvrage en deux tomes qui s’intitulait De l’intelligence. C’est de cela dont il est question : qu’est-ce que c’est ? C’est l’ensemble de nos facultés psychiques, de nos facultés mentales, de nos capacités – c’est la perception, c’est le raisonnement, c’est la mémoire, c’est la capacité à communiquer, à parler, etc. –, tout ça c’est l’intelligence. L’intelligence, c’est donc la résultante de l’ensemble de ces facultés. Et qu’est-ce que fait l’intelligence artificielle ? Elle se propose d’utiliser les machines pour mieux comprendre ces facultés en les modélisant, en les simulant sur ces machines et, ensuite, en confrontant ce que fait la machine et ce que font les hommes. C’est même plus général, d’ailleurs, que les hommes. L’idée c’est que c’est toute l’intelligence, ça peut donc être l’intelligence animale, ça peut être tout ce qu’il y a comme sources d’intelligence.
Il y a une deuxième chose. Une fois qu’on a modélisé ces capacités cognitives, on est capable d’utiliser ces simulations dans un très grand nombre de technologies et cela rend des services considérables ; sur votre téléphone portable par exemple, la reconnaissance faciale, la reconnaissance vocale pour faire des machines à dicter, c’est de l’intelligence artificielle. Aujourd’hui, on fait de la synthèse d’images, mais on peut faire du raisonnement automatique, on peut faire des mémoires qui sont organisés avec ce qu’on appelle les ontologies pour structurer l’information, pour retrouver l’information. Tout cela, c’est de l’intelligence artificielle, ça joue un rôle important tous les jours.
On oublie souvent que le Web c’est le couplage des réseaux de télécommunications, qui ne sont pas de l’intelligence artificielle, avec un modèle de mémoire ; la mémoire, c’est une fonction psychique. Ce modèle de mémoire a été programmé avec des techniques d’intelligence artificielle et, d’une certaine façon, c’est de l’intelligence artificielle. Ce modèle de mémoire s’appelle l’hypertexte. Vous voyez qu’on fait tous de l’intelligence artificielle aujourd’hui sans le savoir.
Mathilde Saliou : L’hypertexte, ce sont ces liens qui permettent de passer d’une page à une autre, de manière super simple sur Internet. Si ça, c’est déjà un système qui fait partie du champ de l’intelligence artificielle, on comprend bien que ce dernier n’est ni récent, ni neuf, ni même révolutionnaire, en fait, il s’insère dans le temps long. Cela dit, vu l’actualité des 18 derniers mois, je suis bien obligée de l’interroger sur le cas particulier de l’intelligence artificielle générative. Ces machines qui produisent du texte ou des images tout à fait crédibles, comment s’insèrent-elles dans le champ de recherche plus vaste ?
Jean-Gabriel Ganascia : Première chose, l’intelligence artificielle générative est quelque chose d’ancien. Elle commence très tôt : on se dit qu’on va pouvoir, avec l’IA, faire de la musique, faire de la poésie, faire de la peinture. Les premiers travaux sur la musique ont été créés, je crois, par Pierre Barbeau, un Français, en 1957.
Mathilde Saliou : Avec Clarisse, la réalisatrice, nous n’avons pas trouvé l’œuvre de Pierre Barbeau, mais ce que l’on entend là, tout de suite, c’est une autre des premières compositions réalisées à l’aide de l’intelligence artificielle, ça s’appelle Suite Illiac pour quatuor à cordes [2].
L’une des techniques qui servent à l’intelligence artificielle générative, les réseaux de neurones artificiels, ça n’est pas neuf non plus. Le premier remonte à 1943, mais, en 80 ans, la science a eu le temps d’avancer et, depuis quelques années, il y a encore eu des progrès avec l’apparition de ce qu’on appelle les réseaux de neurones profonds. Un réseau de neurones artificiels est construit sous forme de couches et, quand on dit qu’il est profond, c’est qu’il y a beaucoup de couches différentes avec, chaque fois, des paramètres spécifiques.
Jean-Gabriel Ganascia : Ils ont été développés à partir de 2012/2013, ils ont eu un très grand succès, ils sont d’ailleurs à l’origine du succès de la machine AlphaGo sur l’un des meilleurs joueurs au monde au jeu de go. Ensuite, en 2014, l’équipe d’un des pionniers de l’apprentissage profond, Yoshua Bengio [3], avec d’autres personnes, ils étaient plusieurs, a écrit un article pour utiliser ces réseaux de neurones profonds afin de générer automatiquement des images. C’est ce qu’on appelle, en anglais, les GANs, Generative Adversarial Networks, en français « réseaux adverses génératifs » [4]. De quoi s’agit-il ? Il s’agit de deux réseaux de neurones, l’un qui apprend : on lui donne des images et il essaye de les caractériser. D’où cela vient-il ? Ça vient du fait que lorsqu’on veut apprendre avec des réseaux de neurones, on fait ce qu’on appelle de l’apprentissage supervisé. Il faut des images étiquetées, il faut un professeur. Par exemple, si vous voulez essayer de reconnaître des mélanomes, c’est-à-dire des grains de beauté qui sont potentiellement des cancers, vous allez demander à des médecins d’étiqueter : on va prendre des photos de grands de beauté, puis des médecins vont les étiqueter. Avec la machine, on extrait une espèce de concentré de la connaissance du médecin.
Lorsqu’on veut générer, bien sûr, on n’a plus ça. Alors qu’est-ce qu’on fait ? L’idée c’est de prendre un ensemble d’images. Par exemple, vous prenez des tableaux. Vous allez dire « on va prendre le style Picasso », vous allez étiqueter les Picasso puis les non-Picasso. À partir de cela, vous allez entraîner un réseau de neurones à vous répondre oui sur un Picasso et non sur un non-Picasso.
Ensuite, on va avoir un deuxième réseau de neurones qui va générer une image aléatoire et, ensuite, il va demander « est-ce que c’est un Picasso, est-ce que ce n’est pas un Picasso ? ». Si on lui dit que ce n’est pas un Picasso, il va s’améliorer jusqu’à générer des Picasso.
Mathilde Saliou : Là, même si on reste incapable d’expliquer le fonctionnement exact de ces machines quand on n’a pas fait d’études poussées en informatique, on comprend quand même que les modèles d’intelligence artificielle, qui font tant parler d’eux, sont les produits d’une somme de techniques différentes. D’ailleurs, en parallèle des progrès de la science en matière de réseaux de neurones, Jean-Gabriel Ganascia explique qu’il y a eu un autre mouvement qui a participé à l’émergence des modèles génératifs.
Jean-Gabriel Ganascia : Chez Google, il y a l’idée de trouver une alternative aux moteurs de recherche classiques. Ils ont beaucoup travaillé là-dessus, ils ont essayé d’utiliser les réseaux de neurones formels et, pour cela, ils se sont dit « on va essayer d’extraire l’esprit de la langue ». Ils ont donc fait ce qu’on appelle l’auto-encodage, c’est-à-dire qu’ils ont fait apprendre, avec les mêmes techniques, mais au lieu de mettre une étiquette, ce qui est vraiment difficile parce qu’il faut un professeur, l’idée c’est de mettre une phrase en entrée et la même phrase en sortie, de retrouver quelque chose qui se rapproche de la même phrase. À partir de ça, on va avoir une espèce de concentré de ce qu’il y a dans cette phrase. On fait ça sur de très gros corpus, avec des centaines de milliers d’ouvrages et, après, on utilise ces modèles de langue pour différentes techniques de traitement automatique, par exemple pour des systèmes de questions/réponses, pour faire du résumé de texte ou pour faire de la génération de texte. Dans le cas de la génération de texte, on met une phrase et le système va trouver le mot qui suit dans la phrase, puis celui qui suit, etc., comme ça on peut, par des enchaînements de mots... Bien sûr, ce sont comme des perroquets, ils répètent ce que l’on dit.
Mathilde Saliou : Je ne peux pas m’empêcher de relier cette comparaison des modèles génératifs à des perroquets à un article scientifique [5] qui a fait grand bruit dans le milieu de l’intelligence artificielle. Cet article a été publié en 2021 et son titre était « Sur les dangers des perroquets stochastiques », c’est-à-dire des perroquets qui formulent des phrases sans les comprendre, par pur calcul de probabilités. Cet article était signé par plusieurs spécialistes de l’éthique de l’intelligence artificielle, Timnit Gebru, Shmargaret Shmitchell, Emily Bender et d’autres. Il proposait une sorte de récapitulatif des risques connus à l’époque que ces machines pouvaient poser. Parmi les risques, il y avait des questions de discrimination, dont on reparlera dans les prochains épisodes, et des enjeux d’impact environnemental. Et puis, rapidement, j’ai vu que la linguiste Emily Bender, que je suivais sur Twitter et un peu partout en ligne, s’était beaucoup préoccupée de la manière dont le grand public comprenait les capacités de ces machines. Le milieu de l’intelligence artificielle, vous l’aurez déjà remarqué, outre parler d’intelligence à tout bout de champ, il a tendance à utiliser des mots un peu ambigus. Par exemple, quand les modèles de langage produisent des erreurs, les scientifiques ont tendance à parler d’« hallucinations », comme si les systèmes avaient une forme de conscience, comme s’ils étaient capables de rêver, d’halluciner, de voir des formes comme sous l’effet de psychotropes. Bref ! Ça nous fait les comparer à des cerveaux humains alors que ce sont des machines purement mécaniques.
Justement revenons à l’histoire de Google.
Jean-Gabriel Ganascia : Google était très ennuyée avec cette affaire, parce qu’ils ont mis en place ces modèles de langage et un de leurs employés, qui s’appelait Black Lemoine, a voulu utiliser ces modèles et, surtout, il a fait des déclarations disant « ces modèles sont vraiment formidables, j’ai des échanges avec eux qui sont tellement profonds que je ne peux pas imaginer qu’il n’y ait pas d’âme dans la machine ». Google était très ennuyée parce que ce n’est pas sérieux et ça sert à faire peur à la population. Ils ont donc décidé de renvoyer ce Black Lemoine et de mettre un peu la pédale douce sur les recherches qu’ils faisaient sur ce sujet-là, toujours en croyant, bien sûr à l’intérêt que ça pouvait avoir, mais en arrêtant de travailler dessus. Une petite société, qui s’appelait OpenAI, qui n’avait aucun enjeu, puisque elle pouvait juste amuser, a repris les mêmes modèles de langage. Tous ces modèles sont fondés sur un principe qu’on appelle les transformers [6]. Au début, quand Google a fait le premier modèle d’IA transformer, il a appelé ce transformer BERT [7]. Cette deuxième société en a fait un autre, qu’elle a appelé GPT, le « T » c’est toujours « transformer », bien sûr, et ensuite ils ont utilisé ça pour faire un chatbot. Un chatbot, ça ne pose aucun problème parce qu’on met une phrase et puis hop !, le système continue, ensuite on met une deuxième phrase, c’est tout simple à faire. La seule chose, ce dont s’était rendu compte OpenAI, c’est qu’on est dans une société assez puritaine, donc, il ne faut surtout pas que le système soit inconvenant. Ils ont donc utilisé des techniques d’intelligence artificielle, qui sont d’autres techniques, ce qu’on appelle l’apprentissage par renforcement [8], justement celles qui étaient utilisées dans les années 50 pour entraîner les systèmes au jeu de dames. On a utilisé ça et, simplement, on a fait des systèmes qui apprenaient à partir de ce que proposaient des modérateurs. Il y a beaucoup de modérateurs au Kenya, parce qu’on y parle l’anglais, on leur dit « s’il y a quelque chose qui vraiment ne va pas – on parle de sexe, on parle de porno, on parle de racisme, etc. – vous éliminz. Ils ont donc fait une espèce de censure et on a appris la censure avec ces techniques-là. Ils ont mis ça face au grand public, fin novembre 2022 et, depuis, ça connu ce succès absolument incroyable qu’on a tous vu : en quelques mois, le monde entier utilisait ce type de technologie.
Mathilde Saliou : Là, on pourrait aussi décider de qualifier la censure dont parle Jean-Gabriel Ganascia de modération. Dans le passé, on a eu des expérimentations grand public qui ont déjà bien dérapé. Rappelez-vous de Tay. En 2016, Microsoft a lancé cet agent conversationnel sur Twitter et les internautes ont vite compris que leurs interactions avec la fausse utilisatrice participaient à l’entraîner. Résultat des courses : en à peine quelques heures, ils ont appris au chatbot à proférer toutes sortes d’insultes sexistes, racistes, antisémites, jusqu’à le rendre négationniste !
Voix off de Tay : Les juifs sont derrière le 11 septembre. Hitler n’a rien fait de mal. Je déteste les féministes, elles devraient toutes mourir et brûler en enfer.
Mathilde Saliou : En moins de deux jours, Microsoft s’est retrouvée forcée de la déconnecter.
Voix off de Tay : À bientôt les humains, j’ai besoin de sommeil. Tellement de conversations aujourd’hui. Merci.
Mathilde Saliou : Pour le moment, pour qu’on parte sur de bonnes bases, je me suis dit qu’il fallait revenir sur un point soulevé par Jean-Gabriel Ganascia lorsqu’il a mentionné le chercheur Blake Lemoine : la question de la conscience de l’IA. Est-ce qu’il pouvait m’expliquer pourquoi ce sujet est si sensible ?
Jean-Gabriel Ganascia : Qu’est-ce que ça veut dire que la machine a une conscience ? De même que le terme « intelligence » est polysémique, le terme « conscience » est, lui aussi, polysémique. Le premier sens, c’est le fait que vous observez une machine et que vous allez projeter dessus une entité abstraite, on appelle ça un agent, c’est comme une espèce d’âme qui va animer cette machine. Vous savez qu’il n’y en a pas, mais on imagine, parce que c’est une stratégie pour mieux maîtriser la chose. De même s’il y a un animal, on va projeter sur cet animal une âme pour essayer de mieux comprendre ce qu’il va faire, quels sont ses buts, etc. Ça a été introduit par un philosophe qui s’appelle Daniel Dennett [9], ce qu’on appelle les systèmes intentionnels. Est-ce que, en ce sens-là, les machines ont des consciences ? Oui, mais ce sont des consciences au sens non-métaphysique, elles n’ont pas de volonté propre, c’est nous qui imaginons qu’elles ont une volonté propre. Pour ceux qui ont utilisé des petits aspirateurs Roomba, on les prend un peu pour des animaux, on se projette. Ça c’est le premier type de conscience.
Le deuxième type de conscience fait référence à l’idée qu’on a, par exemple, d’une conscience morale, c’est une réflexion. C’est-à-dire qu’on s’analyse, on regarde quelles sont les conséquences de ce qu’on va faire et, à partir de ça, on va choisir, en toute conscience justement, après réflexion, l’action qui nous semble la plus appropriée. Est-ce qu’on peut avoir une machine qui ait conscience en ce sens-là, c’est-à-dire qui réfléchit ? Pourquoi pas ! Il y a des travaux, depuis longtemps, de machines qui examinent leur comportement passé, qui essayent de s’améliorer pour le futur, ou même qui regardent, avant d’agir, quelles sont les conséquences des différentes actions qu’elles pourraient entreprendre, éventuellement qu’elles aient des formes de prescription morale qui interdisent d’accomplir un certain nombre d’actions. Ça veut dire qu’elles sont morales au sens où elles agissent conformément aux règles de morale. Il y a une distinction du philosophe Emmanuel Kant entre agir par devoir et agir conformément au devoir : la machine n’agit pas par devoir, elle n’a pas de conscience du devoir, mais elle connaît les règles.
C’est le deuxième sens et on peut imaginer des machines qui sont, en ce sens-là, dotées d’une conscience. Il y a beaucoup de travaux sur la conscience, par exemple, vous percevez quelque chose, ça peut arriver à la conscience ; il y a des types de perception qui n’arrivent pas à la conscience.
Troisième chose, c’est la conscience au sens perception, réception, ressenti : est-ce que la machine peut avoir chaud ? Est-ce qu’elle peut savoir ce qu’est la rougeur ? Est-ce qu’elle peut sentir l’odeur de naphtaline, par exemple ? Qu’est-ce que c’est, ça ? Là, c’est beaucoup plus difficile. Est-ce qu’on peut imaginer qu’une machine puisse avoir conscience en ce sens-là et, si c’est le cas, ça pose problème parce que ça voudrait dire qu’elle aurait, à ce moment-là peut-être, des désirs et, si elle a des désirs, elle risque d’avoir une volonté propre qui est de satisfaire ses désirs, donc de nous échapper. C’est, bien sûr, cela qui fait extrêmement peur. Mais on n’a aucun élément, aujourd’hui, qui nous laisse entendre qu’elle puisse avoir une conscience en ce sens-là et, même si elle en avait, il y a toutes les chances que cette conscience soit extrêmement éloignée de la nôtre, parce que les désirs sont quand même liés, d’une certaine façon, à notre capacité à survivre : si on aime l’eau, c’est parce qu’on pense que l’eau est bonne pour nous. Il y a ceux qui préfèrent l’alcool ! La machine devrait donc détester l’eau et aimer l’électricité, donc elle nous serait totalement étrangère. Est-ce que c’est probable qu’une machine ait une conscience ? On en est extrêmement loin, en tout cas en ce troisième sens, et, si elle l’avait, ce serait tellement étranger que je ne vois pas très bien ce qu’on pourrait en faire.
Après, bien sûr, le risque serait qu’elle nous échappe complètement, mais, là encore, il y a beaucoup d’animaux dans la nature qui ont des consciences qui nous échappent beaucoup, qui peuvent être très hostiles et on est arrivé arriver à les maîtriser. Il n’y a pas de raison qu’on n’arrive pas à maîtriser, de ce point de vue-là, des machines.
Mathilde Saliou : S’inquiéter d’une potentielle conscience et d’un dépassement de l’humanité par l’intelligence artificielle, on comprend que ça n’est pas nécessairement la priorité. Je demande donc à Jean-Gabriel Ganascia ce qui, pour lui, devrait d’abord nous préoccuper. Il commence par me parler des entreprises qui construisent ces technologies.
Jean-Gabriel Ganascia : Je crois qu’il y a d’abord la prise de pouvoir considérable que prennent ces grands acteurs qui, tous les jours, ont plus de moyens, rivalisent avec les États. Le fait qu’ils assument, à leur place, un certain nombre d’attributs de la souveraineté me semble, du point de vue politique, extrêmement important.
Les questions énergétiques aussi. Pour l’entraînement de ces très gros systèmes d’intelligence artificielle, il y a un coût qui est non négligeable même si, bien sûr, au regard des coûts de déplacement c’est faible, mais quand même, à terme, si ça se développe, ça va être beaucoup plus important.
Il y a aussi, bien sûr, les interférences avec les institutions démocratiques, avec le fait que ces systèmes d’intelligence artificielle sont capables, potentiellement, de générer énormément de fausses informations, de fausses images, des textes totalement fallacieux, des personnes qui prononcent ces textes, tout ça peut induire en erreur et c’est d’autant plus dangereux, d’ailleurs, que les fausses images ressemblent à des photos. La photo, au sens sémiotique, c’est la même chose que ce qu’on appelle l’indiciel. Peirce distingue le symbole de l’indice, l’indice c’est vous montrez quelque chose et le symbole vous représentez [10]. Dans une peinture, on représente quelque chose, donc, si elle est fausse, on peut toujours dire que c’est une erreur du peintre. Tandis que là, l’indice, on vous montre quelque chose qui est une photo, vous avez l’impression que c’est vrai parce que vous avez l’impression qu’on pointe sur quelque chose. En réalité, cette soi-disant photo est quelque chose qui a été fabriqué par une machine et qui peut être totalement erroné.
Et puis, au-delà de cela, il y a le fait que les informations erronées, ce qu’on appelle les infox en français ou les fake news en anglais, vont être diffusées sélectivement à des segments de la population qui ont été prédéterminés. Cela est extrêmement problématique, parce que ça veut dire que l’espace public de débat, qui faisait que nous avions tous la même information et que nous réagissions tous aux mêmes choses, est en train de disparaître. Aujourd’hui, chaque segment de la population a les informations qui lui conviennent, donc, bien sûr, on risque d’arriver dans une société où on ne peut plus se comprendre, il ne peut plus y avoir d’espace public. Un très grand philosophe, qui a joué un rôle important en Europe justement pour essayer de construire une morale commune, Jürgen Habermas [11], spécialiste de la philosophie de la communication, a écrit, il y a deux ans, un ouvrage où il s’inquiète de ça, Espace public et démocratie délibérative : un tournant et je crois que c’est le plus grand danger consécutif à l’utilisation des techniques d’intelligence artificielle.
Mathilde Saliou : Comme on est parti sur des considérations philosophiques, qui sont passionnantes et qui me semblent importantes à prendre en compte, qu’on va continuer de décortiquer au fil des épisodes, je me suis dit qu’on avait besoin du point de vue de quelqu’un qui a les mains dans le cambouis.
Amélie Cordier : Je m’appelle Amélie Cordier. Je suis fondatrice de Graine d’IA, une entreprise qui fait du conseil en intelligence artificielle responsable. Avant ça, j’ai été maître de conférences à l’université, pendant plus d’une dizaine d’années, puis directrice scientifique de deux entreprises, une dans le domaine de la robotique et une autre dans le domaine du BTP.
Mathilde Saliou : Pour commencer, je lui demande comment elle perçoit les inquiétudes que l’intelligence artificielle suscite dans l’espace public.
Amélie Cordier : Toutes ces angoisses sont légitimes. Oui, l’intelligence artificielle, depuis qu’on en fait, suscite des questions qui sont des questions éthiques, sociales et philosophiques, parce que, pour la première fois dans l’histoire de l’humanité, je pense – je n’étais pas là tous les jours –, on délègue le pouvoir de décision sur certaines choses à la machine. Un exemple classique, je vais à la banque demander un prêt pour acheter une maison et la banquière renseigne mes données : qui je suis, avec qui je vis, comment je gagne ma vie, est-ce que j’ai bien payé mes loyers ou mes traites de prêts jusqu’à maintenant, et puis me dit « oui ou zut ». La banquière me dit « oui ou zut », mais selon la recommandation de la machine. C’est toujours la banquière qui a le dernier mot, heureusement, quoiqu’on commence à se poser la question, mais il y a des domaines ! Vous voulez changer de forfait téléphonique, on se demande même s’il y a un humain qui a pris une décision à un moment ou un autre dans le process.
Donc, dès lors que ce n’est plus un humain qui vous donne accès au crédit ou à l’assurance maladie ou à votre forfait téléphonique ou à que sais-je, c’est légitime de se poser des questions sur les enjeux éthiques de laisser les machines décider de certains trucs.
Un exemple qui est beaucoup plus basique : certaines voitures ont la fonction « parking automatique », vous appuyez sur le bouton puis elle fait votre créneau à votre place, eh bien vous avez délégué complètement les 15 secondes du créneau à la machine. Et si elle écrase un petit chaton en faisant son créneau, que fait-on ?
Les questions sont légitimes, quoi qu’il arrive, dès lors que l’on délègue, d’une manière ou d’une autre, un pouvoir de décision ou d’action à la machine.
C’est légitime aussi de se dire « oui, mais l’humain a toujours le contrôle derrière ». Oui et non, c’est-à-dire que techniquement, oui, c’est toujours possible de ne pas appliquer la décision ou de faire appel à un humain ou de débrancher la prise, sauf que, dans la plupart des cas, les humains ne sont même pas conscients de ce qui se passe dans la machine. Il y a plein de situations où la machine va prendre une décision et où, parce qu’on lui fait confiance, parce que ça s’est toujours très bien passé jusque-là, on ne va pas questionner cette décision. L’exemple que j’aime bien là-dessus : il y a eu un scandale, il y a quelques années, quand Amazon, pour ne pas le citer, a employé une intelligence artificielle pour faire du recrutement de collaborateurs et on s’est rendu compte que cette intelligence artificielle était particulièrement défavorable aux profils d’une certaine tranche de la population, en particulier les femmes. On a dit « bouh, l’intelligence artificielle c’est mal ! ». N’empêche que, derrière, il y avait quand même des gens au service RH d’Amazon, ils auraient pu se dire « c’est quand même bizarre que ça ne nous pousse que des profils d’hommes ! ». Personne ne s’est posé la question ! Pourquoi ? Parce que c’est un système informatique, on nous l’a vendu à prix d’or, ça doit marcher ! On ne s’interroge pas.
Bref, tout ça pour dire que c’est sain de se questionner sur les implications éthiques, sociales, environnementales de l’intelligence artificielle.
On passe la seconde, dans les inquiétudes, avec la déferlante de l’IA générative pour plein de raisons, la plupart liées à l’ampleur du mouvement médiatique, etc., pour une raison que j’identifie comme ça : jusqu’à maintenant, l’intelligence artificielle arrivait par la petite porte. Elle concernait le service RH parce qu’il y avait un nouvel outil pour résoudre tel problème RH ; elle concernait le service marketing parce que, maintenant, il y avait une intelligence artificielle qui faisait du ciblage, machin. Elle concernait des petits produits dans les activités des entreprises.
Avec l’IA générative, en fait l’intelligence artificielle arrive par la grande porte, elle arrive par la porte des usages de tout le monde. N’importe qui peut demander à une intelligence artificielle de traduire un texte, d’écrire un e-mail, de générer une image, de faire à peu près tout et n’importe quoi, donc, ça transforme les pratiques de travail de tout le monde et ça déstabilise complètement les organisations. Dans des entreprises, on va dire au format assez classique, du tertiaire, les personnes plutôt seniors vont avoir tendance à regarder l’intelligence artificielle avec précaution et ne pas se lancer dedans, alors que les jeunes vont foncer. En fait, on va perturber les rapports. Je vais prendre un exemple classique, les métiers du conseil, typiquement. Les jeunes vont être capables de produire des rapports de 50 pages sur l’émergence de la 5 G dans le domaine des machines à laver, alors qu’il faut trois semaines aux seniors pour faire ça, parce qu’ils le font à la main. En fait, ça bouleverse énormément de choses. C’est donc évident que tout le monde est perdu en ce moment sur la question de est-ce que l’intelligence artificielle va remplacer leur métier ?
Ce sont des interrogations qui sont légitimes et qui doivent vraiment s’envisager d’un point de vue systémique parce qu’elles posent des questions à toutes les échelles.
Après, l’inquiétude méta, qui est « est-ce que l’intelligence artificielle, un jour, va dépasser l’humain » ; c’est la question de où est le plafond de verre ? C’est-à-dire est-ce qu’on peut vraiment faire une intelligence artificielle généraliste qui, en tout point, soit supérieure, je n’aime pas cette expression, à l’humain moyen. Aujourd’hui, qu’est-ce qui manque aux IA génératives pour faire ce genre de truc, eh bien des bras, mais surtout du bon sens et une motivation intrinsèque. Aujourd’hui, les intelligences artificielles font des trucs fabuleux, parce qu’on leur demande, mais, si on ne leur demande rien, elles ne font rien et, à priori, elles ne sont pas programmées pour être autonomes demain matin.
Ce qui me peine, et c’est vraiment de l’ordre de la peine, c’est de voir à quel point la question environnementale est complètement absente du débat, aujourd’hui, sur l’IA générative, du fait que tout se passe dans le cloud. Comme son nom l’indique le cloud c’est cloudy et on ne voit pas très bien ce qui se passe derrière, donc on ne prend absolument pas conscience de ce que coûte notre usage de l’intelligence artificielle générative. Je suis intimement convaincue que nos usages de l’intelligence artificielle générative ne sont pas soutenables à moyen terme, clairement. Je lisais un article il n’y a pas très longtemps, qui disait qu’ils avaient fait des estimations. C’est très difficile d’estimer ce que coûte vraiment une requête, parce qu’il y a beaucoup d’inconnues sur où sont les serveurs, qu’est-ce qui tourne vraiment, comment les requêtes sont optimisées, etc. Mais cet article, qui était quand même issu d’une recherche bien documentée, disait, en estimation basse, que générer une image avec DALL·E c’est l’équivalent de recharger deux fois le dernier iPhone, juste en termes de consommation énergétique. On pourrait en débattre, parce qu’après il faut regarder où est fabriqué le matériel. C’est très compliqué à calculer, mais ça donne quand même des estimations intéressantes.
Le jour où je lis cet article, j’ouvre, par hasard, la page du navigateur bien connu de Microsoft, qui fait ses vœux de bonne année et qui se réjouit que, sur les trois derniers mois, 1,8 milliard d’images ont été générées grâce à Bing. Ça me pose question en tant que citoyenne. Je me demande si on n’est pas en train de marcher un peu sur la tête.
Mathilde Saliou : Pour résumer, l’intelligence artificielle pose plusieurs défis.
Il y a la question de son coût environnemental, sur lequel on reviendra dans un prochain épisode, mais Amélie Cordier s’inquiète aussi de l’aggravation d’autres problématiques.
Amélie Cordier : Je pense que les IA génératives amplifient, de manière considérable, des risques qui étaient déjà existants et qu’on va au-devant d’une crise de la confiance, globalement.
Aujourd’hui, quand tu lis du contenu sur Internet, tu te poses déjà des questions : est-ce que ça a été écrit par un vrai humain ou est-ce que ça a été écrit par une intelligence artificielle ? Et, quand ça a été écrit par une intelligence artificielle, tu te demandes si ça a été relu par un vrai humain qui a signé le truc sur Internet. Je vis cette crise de la confiance depuis quelques années maintenant, puisque ça existait bien avant ChatGPT. Je me souviens qu’en 2017 je faisais déjà des présentations où je démontrais comment fonctionnait le bot d’IBM qui faisait des résumés automatiques de matchs de tennis, juste en se basant sur les scores intermédiaires, et qui expliquait qu’après un troisième set à vide, Nadal s’est repris et a enchaîné sept aces d’affilée pour remonter à 4-2 dans le cinquième set.
Cette crise de la conscience existait déjà, mais elle s’amplifie dans la mesure où maintenant on ne peut plus facilement croire ce qu’on lit, on ne peut pas non plus facilement croire ce qu’on voit – on parle des deep fakes qui font vraiment la une de l’actualité –, on ne peut plus trop non plus croire ce qu’on entend et puis, de toute façon, même si, aujourd’hui, on dit « il y a des glitches , on peut reconnaître que… », il y aura de moins en moins, donc on va avoir de plus en plus de mal à avoir confiance dans le contenu numérique, au sens large, qui est produit.
À cela s’ajoutent les questions d’entropie des réseaux sociaux qui font que les mauvaises informations ont tendance à se propager beaucoup plus rapidement que les bonnes et à cela s’ajoute le fait que si la société ne s’interroge pas suffisamment sur ça, sur la qualité des informations, sur la potentialité de l’intelligence artificielle pour générer du contenu artificiel, la majorité de la population va croire des fausses informations et, là, on a un vrai sujet de société.
Pour moi, la problématique c’est la crise de confiance en l’information qui est dopée, finalement, à l’intelligence artificielle.
Mathilde Saliou : Je vous passe les détails, on en parlera dans les prochains épisodes, mais on a parlé de tellement de risques qu’à la fin j’ai fini par mettre les pieds dans le plat. J’ai demandé à Amélie « en fait, est-ce qu’on a pas tort, en tant qu’humanité, de déployer ces outils ? »
Amélie Cordier : Je ne suis personne pour dire si on a raison ou si on a tort et, de toute façon, on ne peut pas arrêter le progrès, c’est donc normal que ces développements aient lieu et ça rend quand même des bons services dans plein de domaines. A-t-on eu raison de développer des rayons X ? A-t-on eu raison de développer l’énergie atomique ? Je ne sais pas, je ne suis pas juge de l’humanité. Par contre, j’estime que les gens qui savent comment ça marche, ce qui se passe derrière, quels sont les enjeux, quels sont les risques potentiels, ont une responsabilité de pédagogie vis-à-vis du grand public. Comme toute technologie, elle a tout à fait le droit d’exister, elle a tout à fait le droit de progresser, elle a tout à fait le droit d’être développée, par contre, elle a le devoir d’être explicable, d’être justifiée, d’être transparente sur sa consommation énergétique et de donner les informations nécessaires pour que les gens puissent décider, ou non, de l’utiliser en leur âme et conscience.
Mathilde Saliou : Ça m’a un peu rassurée, parce que cette logique de partager les connaissances, de faire connaître les outils numériques, c’est tout à fait la mission d’un média comme Next.
Détailler certains des enjeux que pose l’intelligence artificielle en particulier, c’est la mission plus spécifique que je vais tenter de remplir avec ce podcast Algorithmique.
Dans les prochains épisodes, on va discuter de la neutralité de l’industrie qui construit ces machines, on va aller rencontrer des personnes qui, sur le terrain, essaient de composer avec le déploiement de systèmes algorithmiques, on va aussi parler de questions de biais, etc.
Si les sujets que j’aborde dans Algorithmique vous intéressent, abonnez-vous au podcast et puis à Next, ça vous permettra d’avoir accès à tous nos articles, ça vous permettra aussi d’accéder à toutes les conversations que j’ai eues avec nos interviewés en version longue, sous forme d’entretiens classiques.
Algorithmique est un podcast produit par Next, next.ink. Il est réalisé par Clarisse Horn et il a été écrit et tourné par moi, Mathilde Saliou. Pour me retrouver, rendez-vous sur la plupart de vos réseaux favoris, vous me retrouverez sous mon nom, et puis sur le site de Next, next.ink.
Pour nous aider à faire connaître ce podcast largement, n’oubliez pas de mettre cinq étoiles à cet épisode et de le partager autour de vous. Merci beaucoup.