Voix off : Bonjour et bienvenue sur Les dessous de l’IA, le podcast qui tente de mieux comprendre les évolutions de l’intelligence artificielle et leurs impacts sur nos sociétés. Bonne écoute.
Clément Durand : Bonjour Nadia, et bienvenue sur Les dessous de l’IA.
Aujourd’hui, nous allons nous intéresser à mieux comprendre l’impact des technologies d’IA sur le fonctionnement de notre cerveau et notre capacité à sociabiliser.
Pour commencer, est-ce que tu pourrais présenter un petit peu ton parcours, ce qui t’a amenée à t’intéresser aux interactions entre l’IA et les neurosciences affectives ?
Nadia Guerouaou : Bonjour Clément. Merci de me recevoir aujourd’hui.
Je vais essayer de me présenter rapidement, surtout donner des informations qui peuvent être pertinentes par rapport à ton invitation.
Je suis docteure en neurosciences affectives, également psychologue, enseignante et autrice.
J’ai commencé à travailler dans le domaine de la recherche clinique, à tester différents types de thérapies, notamment dans le cadre de la psychiatrie et c’est à ce moment-là que je me suis spécialisée dans le traitement du trouble de stress post-traumatique qui est une affection, comme on dit, qui peut se développer chez des individus suite à une expérience, à un événement traumatique. À l’époque, j’exerçais à Lille à la consultation du Psychotrauma qui est clairement pionnière dans ce type de prise en charge, c’était assez rare à l’époque. En parallèle, j’ai monté un enseignement de neuroéthique [1], en détournant clairement un cours d’éthique de la recherche qu’un collègue m’avait refilé. L’idée c’était de sensibiliser les futurs neuropsychologues au détournement des techniques des neurosciences, que ce soit l’IRM, le neurofeedback, des technologies qui sont conçues en laboratoire soit pour la recherche fondamentale soit pour le soin, qui ont été très vite utilisées hors de ces cadres, on peut penser au neurodroit [Champ de recherche s’intéressant aux applications juridiques des neurosciences, NdT] pour l’IRM ou bien à la neuroaugmentation avec toute l’idéologie transhumaniste que ça charrie. En 2016, c’était un peu bizarre, pour les étudiants, que je leur parle de transhumanisme, de figures comme Nick Bostrom [2] et de choses comme ça, mais, avec le temps, ils ont été un peu sensibilisés à la question, notamment par les médias.
Je vous en parle parce que c’est complètement lié au doctorat que j’ai entamé par la suite, qui est la raison pour laquelle tu m’invites aujourd’hui.
Pour en venir à cette thèse [3] j’étais en plein essais cliniques, à Lille, pour tester une thérapie pour les patients qui souffrent de TSPT, de troubles de stress post-traumatique, et je reçois un message d’un ami qui m’envoie un article de blog en me disant « tu vas voir, je suis sûr que ça va te plaire » et il ne s’est pas du tout trompé.
Dans cet article, c’était en 2018, j’ai découvert deux choses : l’existence d’un logiciel qui s’appelle DAVID comme Da Amazing Voice Inflection Device, un nom super. C’est un dispositif capable de transformer, en temps réel, la tonalité émotionnelle de la voix d’un utilisateur. En 2018, ça n’avait vraiment rien de commun avec le boom de l’IA. Voilà pour l’aspect technique que j’ai découvert.
Ensuite, sur le plan des neurosciences, cet article présentait un effet qui s’appelle the feedback vocal, de contagion émotionnelle. Je vous explique rapidement ce dont il s’agit. Les chercheurs de ce papier, dont Jean-Julien Aucouturier qui allait devenir finalement un de mes directeurs de thèse, ont montré que lorsqu’ils demandaient à des participants de lire un texte à voix haute et qu’ils transformaient la tonalité de la voix des participants à leur insu pour la rendre par exemple plus triste, ça allait avoir un changement, ça allait déclencher un changement sur l’humeur des participants qui, après cette lecture, avec leur voix qui était transformée, allaient s’auto-évaluer comme étant plus joyeux. Et la chose qui est assez folle dans cet effet-là, c’est que ce changement opéré sur leur voix, qu’ils allaient entendre comme étant donc plus triste via un casque, est passé complètement inaperçu pour les participants. Cela veut dire qu’au niveau du cerveau, en gros, pour faire très simple, que la perception faussée, qui était manipulée par ces algorithmes du DAVID, comptait plus que la réelle production du message et de la voix du participant. C’est vraiment incroyable et, à plein d’égards, ça soulève plein de questions sur notre fonctionnement. Bref ! Ça m’a donné envie, ça m’a donné l’idée d’utiliser ce dispositif-là pour aider mes patients pendant la thérapie d’exposition en imagination, pour des patients qui souffrent de troubles de stress post-traumatique, parce que, pendant cette thérapie, on demande aux patients de faire quelque chose qui est extrêmement difficile pour eux, qui est de raconter, à voix haute, l’événement traumatique qu’ils ont vécu, en détail, vraiment beaucoup de détails, et ce pendant plusieurs séances consécutives. Je n’ai pas vraiment le temps, là, d’expliquer les bases théoriques de la thérapie, mais ça se fonde sur le fait que la trace mnésique, un souvenir, est modifié à chaque fois que vous allez rappeler en mémoire ce souvenir.
Autre chose qu’il faut savoir, c’est que ce qu’on demande aux patients, de revivre en imagination le trauma, c’est très difficile. Donc en recherche, tout ce qui va pouvoir alléger cette charge affective qui est ressentie par le patient pendant l’exercice, était vraiment quelque chose de bienvenu, d’où mon idée. Ça a été le point de départ de ma thèse, qui s’est beaucoup élargie notamment à des questions éthiques. J’ai très vite considéré cet outil de transformation des émotions dans la voix comme un potentiel outil d’augmentation, à l’instar, un peu, des neurotechnologies dont je vous parlais précédemment.
Voilà un peu le cadre de ma présentation, de mise en contexte.
Clément Durand : Peut-être, avant de plonger un peu plus dans le détail, pourrais-tu poser quelques définitions ? Déjà ce que sont les neurosciences affectives et peut-être le lien qu’il y a entre neurosciences affectives et IA. J’ai en tête deux choses : à la fois comment elles sont utilisées pour comprendre un petit peu le fonctionnement des affects humains, reconnaître un petit peu les émotions, le côté de compréhension, et aussi comment elles sont utilisées ; tu parlais de modifier les perceptions, de modifier les émotions dans la voix, comment elles sont utilisées aussi, peut-être par des plateformes numériques ou autres, pour jouer, justement, avec ce qu’elles permettent de comprendre de nos émotions, donc d’améliorer les algorithmes d’IA qu’on utilise.
Nadia Guerouaou : Les neurosciences affectives, c’est tout simplement une sous-discipline des neurosciences qui s’intéresse aux émotions et à leurs corrélats neuronaux. Corrélats neuronaux, c’est tout ce qui se passe au niveau, on va dire, central, c’est-à-dire dans le cerveau mais aussi ce qui est sous le contrôle du système nerveux végétatif, c’est mon système nerveux chouchou, préféré, c’est lui qui va contrôler l’activité du cœur, de l’estomac, la sudation, la respiration. Pourquoi l’IA dans tout ça ? En tout cas pour moi, c’est clairement lié à la technologie dont je vous parlais.
Un truc vraiment important à savoir, à avoir en tête, c’est que pendant assez longtemps, on a eu tendance à considérer les expressions faciales et vocales comme des indices naturels, honnêtes, qu’on va utiliser en tant qu’humains, je parle d’êtres humains, pour déduire les émotions d’une personne, d’un interlocuteur en fait. Mais, après la pandémie, avec la croissance des interactions qui se font sur le numérique et l’émergence de ces technologies, que j’ai appelées les filtres IA, qui permettent donc, désormais, de contrôler informatiquement ces expressions, on se retrouve dans une situation qui est complètement inédite pour notre humanité : notre expressivité émotionnelle, d’une certaine manière, s’affranchit de ce qu’on peut appeler ses conditions biologiques par des algorithmes, même s’il n’y a pas que des conditions biologiques dans l’expression des émotions, j’y reviendrai. Il y a quand même la possibilité, si je veux, de simuler un tremblement dans ma voix, indépendamment de mon état émotionnel réel et sans que ça demande aucune compétence d’actrice de ma part.
Cela ouvre énormément de questions par rapport aux émotions, parce que justement, contrairement à la croyance populaire, les émotions sont soumises à l’influence de notre culture, donc, qui dit culture dit technologies. Beaucoup de philosophes disent que nous sommes les descendants de nos objets techniques, donc de notre milieu. Un philosophe japonais, Bin Kimura, un éthicien japonais, dit que nous créons des objets par le biais de la technique et, en les créant, nous nous créons nous-mêmes. Ce qui vraiment m’a intéressée et qui m’intéresse toujours c’est de mettre en avant, par les neurosciences, le potentiel anthropotechnique des filtres, un gros mot pour dire que les filtres, en tout cas les filtres émotionnels, ont un potentiel de façonner notre cognition sociale.
J’ai étudié ce phénomène-là, le fait qu’on puisse dorénavant manipuler les émotions grâce à des technologies d’intelligence artificielle, à la lumière d’une théorie qui est celle de l’intervention prédictive bayésienne [4], encore un gros mot, mais c’est juste une théorie qui stipule que nos déductions, celles qu’on fait tous les jours sur les états émotionnels de nos interlocuteurs, vont reposer sur un modèle cognitif interne, qui est un modèle probabiliste du monde, et qui est construit à partir de nos expériences, notamment nos expériences passées. Dans ce modèle-là, qui est un véritable modèle constructiviste des neurosciences, une inflexion de voix ou une expression faciale ne constituent pas une émotion en soi. Ça devient une émotion selon le sens que notre cognition va lui attribuer dans une culture donnée.
Si on prend l’Occident, par exemple, on va déduire qu’un ami souriant est joyeux, c’est une déduction, c’est en fait une association qui n’est pas universelle, on n’a pas partout dans le monde cette désirabilité sociale du sourire. Elle résulte d’un modèle interne qui va relier, par la réflexion, le sourire à une forte probabilité que l’individu qui sourit ressent une émotion qu’on va considérer agréable.
En fait, le lien que je fais entre les neurosciences et ces nouveaux systèmes d’IA, en particulier les systèmes d’intelligence artificielle générative, c’est que si l’appréciation des états mentaux d’autrui est issue d’un apprentissage, comme c’est le cas avec cette théorie-là, la diffusion de filtres qui permettent de bouleverser ces associations – présenter un sourire alors que je suis complètement déprimée –, ça pourrait transformer non seulement l’apparence extérieure, celle qu’on montre aux individus, en tout cas dans des échanges numériques, mais aussi des modèles internes qui vont structurer nos interactions sociales quotidiennes. Et quand on voit à quel point notre vie sociale est désormais médiée par le numérique, là, par exemple, nous avons une interaction à travers une plateforme, la question je me suis posée à travers les neurosciences, qui relie clairement les neurosciences et l’IA, c’est : quel est l’avenir pour nos affects, nos émotions, à l’ère des IA génératives ?
Je ne sais pas si ça répond à votre question, en tout cas c’est le lien que je fais dans mes travaux entre les neurosciences et l’intelligence artificielle.
Clément Durand : Si, complètement. J’aimerais bien qu’on parle un peu plus de tes travaux, parce que tu t’es spécialisée sur la voix. J’ai l’impression que ça fait pas mal d’années qu’on dit que la voix va devenir la nouvelle façon d’interagir avec la technologie, ça ne s’est pas encore matérialisé, mais on le constate quand même, par exemple sur le téléphone avec WhatsApp. Tu parlais de l’aspect culturel. En France, par exemple, c’est assez récent le fait d’utiliser WhatsApp avec la voix, alors que ma femme, qui est russe, l’utilise tout temps avec la voix, je sais qu’en Inde, au Sri Lanka, les gens utilisent la voix et même des gens qui ne savent pas écrire peuvent utiliser la technologie grâce à la voix, on voit donc que ça transforme un usage de la techno. Je ne sais pas si c’est une explosion, mais on voit quand même que la voix se développe fortement comme un médium de communication pour utiliser les outils numériques. En quoi, selon toi, ce retour de l’« oralité », entre guillemets, et ce que tu appelles les filtres vocaux, illustre un petit peu une transformation des interactions qu’on a à la fois avec les outils d’IA, mais, plus largement, avec les outils numériques ? Je trouve hyper-intéressant ce que tu as abordé, ce que tu disais : les filtres transforment à la fois l’émetteur, mais transforment aussi le récepteur, puisqu’il n’a plus, en tout cas moins cette capacité à apprendre, en tout cas à corréler à une intonation « joyeuse », entre guillemets, avec l’état émotionnel de la personne, parce que si ça a été transformé, on peut se dire « elle est joyeuse », alors que la personne est déprimée.
Nadia Guerouaou : Oui, c’est ça. C’est effectivement l’accent que je veux mettre sur les transformations qui ne sont pas uniquement extérieures mais qui, vraiment, nous touchent profondément.
En tout cas, pour en revenir à l’importance de l’oralité, c’est clairement un médium qui est de plus en plus plébiscité, je suis d’accord avec toi, c’est assez récent pour nous en France. J’avais fait cette expérience des notes vocales sur WhatsApp en 2018, quand j’avais fait un voyage au Brésil, tout le monde communique, tous les Brésiliens communiquent avec des notes vocales beaucoup plus qu’avec des messages. En France, je pense qu’on peut aussi parler d’une explosion des notes vocales sur WhatsApp depuis ces derniers mois. On sait que c’est plus ou moins bien reçu. À cet égard, j’ai eu une discussion très chouette avec l’anthropologue David Le Breton lors d’un colloque récent sur la voix à la Philharmonie, d’ailleurs c’est en replay, si ça intéresse des gens, c’est toujours sur la voix dans le cadre de l’adolescence [5] et lui perçoit clairement, dans ces médiums, la mort de la conversation. Pour lui, ce n’est pas possible d’avoir de réelles conversations en utilisant des médiums numériques.
Je ne suis pas complètement d’accord avec ce diagnostic de mort, en tout cas pas complètement, je trouve que la voix est quelque chose qui est extrêmement vivant, très riche même à travers un médium numérique. Si on prend l’exemple de ce podcast, énormément de choses vont être véhiculées dans ma voix. En même temps que toi, Clément, les auditeurs du podcast sont en train d’écouter mes réponses, ils prêtent attention au contenu linguistique, c’est-à-dire aux mots que je vais choisir pour te répondre, mais ils vont aussi déduire énormément de choses à mon sujet à partir d’un canal qu’on appelle le canal paralinguistique, ce canal sur lequel jouent pas mal les IA, on en reparlera. Le canal paralinguistique c’est le rythme de ma parole, les intonations de ma voix, ces choses-là. Et on a pas mal de recherches, notamment en neurosciences, qui ont montré qu’à travers ces éléments paralinguistiques les individus sont capables de déduire, comme je disais tout à l’heure, mon état émotionnel, mais aussi des choses plus complexes comme la bienveillance ou la méfiance que je peux avoir à ton égard ou aussi, encore plus fou, la certitude que j’ai dans ce que je suis en train de raconter. Je suis à chaque fois bluffée par ce qu’on est capable de faire. On acquiert toutes ces compétences par l’expérience, par la répétition des situations, jusqu’à devenir vraiment des experts et pouvoir faire ce qu’on appelle des inférences, les déductions sont des inférences hyper-précises et c’est le cas, par exemple, de certains thérapeutes. Dans ma thèse j’ai pu montrer que certains thérapeutes sont capables, rien qu’à partir d’enregistrements de voix de patients, de déduire l’état de gravité du trouble de stress post-traumatique chez ces patients, alors même qu’il ne s’agissait pas de leurs patients.
Tout ça pour montrer que, même à travers un médium numérique, on est capable d’extraire énormément d’informations dans la voix. À partir de ce travail des neurosciences, on a pu mettre en évidence des profils de voix en fonction de certains affects et états mentaux. La discipline de l’informatique émotionnelle s’est développée pour pouvoir recréer complètement synthétiquement des voix qui vont véhiculer ce genre d’affect ou bien des filtres qui vont transformer des voix naturelles pour gommer certains de ces affects ou en créer d’autres.
Tout à l’heure, il y a 30 secondes, je vous parlais de ma thèse qui montrait que les soignants étaient capables de détecter l’état gravité du trouble de stress post-traumatique. Eh bien on a créé un filtre de voix particulier, élaboré à partir d’une étude précédente, qui est capable de transformer ces évaluations en faisant passer un enregistrement de patients guéris pour un enregistrement de patients malades. Ces filtres-là sont capables d’aller jusqu’à transformer ce genre d’évaluation qui sont faites sur la voix. Les possibilités de ce que j’appelle le façonnement algorithmique des émotions qui sont véhiculées, donc ressenties, parce que quand je véhicule certaines émotions vous allez en ressentir d’autres ou les mêmes par empathie, eh bien cela est très recherché avec la popularisation des chatbots. Il y a même un nom pour ce pan-là de la recherche, au Japon on appelle ça la Kansei engineering, c’est toute l’ingénierie qui cible l’émotion des utilisateurs.
De par nos vies quotidiennes, on sait qu’OpenAI mise beaucoup sur l’émotionnalité de la voix de son chatbot, on a vu aussi les différentes sorties cet été, mais ce ne sont pas les seuls. Je ne sais pas si vous avez entendu parler de Hume, une start-up qui est basée à Manhattan, qui prétend avoir développé la première IA vocale au monde dotée d’intelligence émotionnelle. C’est une IA qui va analyser à la fois la prosodie, donc tout le paralinguistique, et aussi, en mode visio, analyser les expressions faciales pour permettre, c’est ce qu’ils disent, à leur IA, leur assistant, leur chatbot, de répondre avec le plus d’« empathie » possible, je mets des guillemets, je ne sais pas si on entend dans mon expression vocale que j’ai mis des guillemets à empathie, mais clairement parce qu’on ne peut pas parler d’empathie pour une IA, en tout cas c’est ce qu’ils vendent. C’est très recherché et ce qui est recherché là-dedans, c’est l’engagement du consommateur.
Clément Durand : J’ai une question par rapport à ce que tu décris sur l’utilisation des filtres dans le traitement, tu parlais des troubles de stress post-traumatique. J’ai vu récemment un reportage d’Arte sur les deepfakes et il y avait, je ne sais plus si c’était un artiste, non je crois que c’était un psychologue qui utilisait, non pas la voix, mais des deepfakes visuels. Il prenait l’exemple d’une dame qui avait peur de l’eau, de nager dans l’eau. Il créait une vidéo avec une actrice qui lui ressemblait, qui allait se baigner et il mettait le visage de la personne qui souffrait de ce stress-là pour lui montrer, c’est un peu Inception, pour montrer à son cerveau concrètement que non, elle n’avait pas peur. Il avait travaillé là-dessus. Il montrait la vidéo à la personne et, après, il débriefait avec elle, pour voir comment elle se sentait. La personne disait qu’elle se sentait un peu moins stressée, en tout cas que ça l’avait touchée, que ça lui avait fait quelque chose de voir ça.
La question que ça me pose c’est qu’on a quand même assez peu de recul sur la vidéo, peut-être un peu plus sur la voix, sur cette capacité à faire ça et à traiter des personnes qui souffrent de stress post-traumatique, de phobies ou autres. N’y a-t-il pas quand même un risque à utiliser ces technos ? On a vu l’histoire d’un adolescent qui s’est suicidé parce qu’il était tombé amoureux d’une IA. J’ai un peu l’impression que nous sommes en train de jouer aux apprentis sorciers avec des technos dont on ne maîtrise pas totalement l’impact, surtout sur cet aspect émotionnel. Quand ça reste, entre guillemets, « de l’ordre de l’intellectuel », « de la tâche intellectuelle », qu’il n’y a pas ces affects-là en jeu, j’allais dire que les risques sont peut-être un peu moins grands ; quand on rentre dans une relation émotionnelle, les risques sont quand même plus importants.
Nadia Guerouaou : Avant de répondre à ta question, juste une petite précision sur le fait qu’en réalité il n’y a pas cette distinction très nette entre activités qui font appel à la raison, activités qui font appel aux émotions. C’est une distinction qu’on faisait il y a très longtemps en neurosciences, en sciences cognitives, en tout cas en psychologie, mais qui n’existe plus. Pas mal de travaux ont été faits qui montrent que les émotions vont entrer en jeu même dans des tâches qui sont considérées comme étant ce qu’on appelait auparavant de la cognition froide et qui sont, en fait, complètement mêlées, on utilise nos émotions pour prendre des décisions tous les jours, même dans des tâches qui ne sont pas particulièrement émotionnelles. Donc, en réalité, les émotions et la raison ne sont pas séparées. Voilà pour cette petite précision.
Ensuite, il faut séparer, pour le coup, ce qui est de l’ordre de l’usage dans le cadre thérapeutique, celui que tu décris, les deefakes qui sont utilisées dans le cas du traitement de la phobie de cette personne, d’un usage qu’on va appeler plutôt récréatif qui est celui du cas de cet adolescent qui est tombé amoureux du chatbot. Je vais essayer de répondre aux deux.
Normalement, ce qui relève du soin, donc cette utilisation des deepfakes dans le cas de la phobie, c’est censé être encadré et c’est censé être testé dans un cadre de recherche clinique. Je ne connais pas cette étude, je vais regarder ce documentaire, mais ce n’est pas si nouveau. Déjà pas mal de recherches sont faites pour traiter les phobies avec des casques de VR [Réalité Virtuelle], c’est donc assez proche. Dans le traitement des phobies, l’idée c’est de faire de l’exposition et de la désensibilisation. Ça part de l’idée qu’utiliser ces techniques-là rien qu’en imagination, c’est amener le patient petit à petit à s’imaginer faire face à sa phobie et que, au fur à mesure des expositions à cet élément qui déclenche la peur intense, que l’intensité de cette peur diminue de plus en plus. J’imagine que ce n’est pas en une seule fois qu’on s’attend à ce qu’il y ait des effets de cette technique-là, parce que, clairement, il n’y a pas une exposition même si c’est très immersif. Se voir soi-même, dans ces cas-là, en train de faire face à sa phobie, ça ne va pas guérir complètement le trouble de la patiente en une seule fois. En tout cas, il faut que ce soit encadré par une recherche clinique qui demande énormément de limites et de précautions au niveau éthique. Par exemple, pour pouvoir commencer mon protocole de recherche, j’ai dû écrire un dossier de 200 pages, ça demande donc vraiment beaucoup d’investissement.
Ensuite, le cas de l’usage récréatif est un cas qui est complètement différent. Dans ces cas-là, on ne teste pas en amont les effets que pourraient avoir ces compagnons IA/chatbots sur l’attachement réel qui est généré et les comportements des individus. Ça demanderait justement, au contraire, d’être testé en amont, mais ce n’est pas ce qui est fait. En fait, on a balancé ces chatbots, on a fait en sorte qu’ils engagent, en passant justement par des émotions, le plus possible de personnes, mais sans avoir fait aucun test auparavant ou, si on a fait des tests auparavant, on ne les a pas mis à disposition de la société en demandant « est-ce que vous voulez vraiment utiliser ce genre de dispositif alors qu’il y a ça et ça comme conséquences ? »
Clément Durand : Tu en as parlé un petit peu tout à l’heure quand on a parlé de la voix, mais il y a aussi des filtres visuels où, en tout cas, on peut modifier son apparence. Selon toi, comment ces filtres, que ça soit la voix, les visages, modifient-ils, impactent-ils déjà la relation que nous avons à nous-mêmes, aux autres ? Tu parlais beaucoup de la question de l’expérience, comment ça peut impacter notre construction, je ne sais pas si c’est identitaire, mais la façon dont on se construit dans les interactions avec les autres, le fait de pouvoir modifier son visage, sa voix ?
Nadia Guerouaou : On peut parler d’identité, en tout cas ça fait partie de la construction de soi, on sait qu’elle se fait beaucoup au travers des interactions sociales. Il y a même des modèles qui disent que nous faisons notre rapport à nous-mêmes sur la base de notre rapport à autrui, c’est tout un champ des neurosciences qui considère que ça s’est fait d’abord dans ce sens-là. Tout ça pour montrer, vraiment mettre en avant l’importance des interactions, de ce qu’on voit aussi et de ce que l’on crée de soi-même : notre construction de nous-même se fait à travers nos interactions avec les autres. Elle se fait aussi, effectivement, à travers l’apparence que l’on peut avoir dans ces interactions. Il y a encore quelque temps, cette apparence était seulement celle de notre écosystème réel. Aujourd’hui, il faut aussi prendre en considération l’apparence qu’on a dans ce qu’on appelle la numérisphère, cet écosystème numérique avec, comme tu disais, la possibilité maintenant de paramétrer algorithmiquement cette présentation de soi, cette image de soi.
Des études ont été faites concernant les filtres de visage, notamment le travail de Rosalind Gill qui est professeure de sociologie culturelle au Royaume-Uni qui a d’abord montré, en 2021 – j’imagine que c’est encore un peu plus maintenant – que 90 % des jeunes femmes appliquent des filtres de beauté ou modifient leurs photos avant de les publier sur les réseaux sociaux. Elle a relié ce chiffre-là au fait que l’utilisation de ces filtres impactait les comportements et les états mentaux des utilisateurs au-delà de l’écosystème numérique, en créant chez certains une confusion par rapport à leur corps réel. Il y a plein de phénomènes dont on a pas mal entendu parler, qui sont documentés, comme l’apparition de la dysmorphie du selfie, des problèmes d’estime de soi, de distorsion corporelle, qui sont vraiment exacerbés par l’utilisation des filtres et qui peuvent mener jusqu’au désir d’opérer des transformations sur son corps réel, avec une augmentation de la demande et du recours aux chirurgies esthétiques et il a été noté, par les chirurgiens esthétiques, que la demande est différente. Autrefois, on allait venir avec une photo d’une star, de quelqu’un qu’on admirait pour dire « je voudrais le nez d’untel ou d’untel ». Mais là, les demandes sont faites par des individus qui viennent avec leur photo filtrée en disant « j’ai envie de ressembler plus à ce moi-là. » Cela montre l’impact de la part des filtres visuels sur la construction de notre identité.
Pour vraiment mettre en avant l’effet de ces filtres dans la construction de nous-mêmes, je propose de les considérer comme ce que j’appelle des technologies de soi. Je fais clairement référence, pour ceux qui connaissent, aux techniques de soi qui ont été décrites notamment par Foucault, mais pas que. Foucault décrit ces techniques de soi comme des procédures, et là je vais le citer, « qui sont soit proposées ou prescrites aux individus pour fixer leur identité, la maintenir ou la transformer en fonction d’un certain nombre de fins et ça, grâce à des rapports de maîtrise de soi sur soi. » Je trouve cette citation vraiment super pour décrire les techniques de soi et pour décrire ce que font ces filtres sur nous-mêmes. La maîtrise de soi que permettrait le contrôle paramétrique de notre apparence, que ce soit sur notre visage ou dans notre voix, implique, selon moi, non seulement le façonnement, comme on disait, d’une image de soi qui est renvoyée à l’interlocuteur, mais et surtout, et c’est ce qui m’intéresse, une transformation de soi dans le sens d’une espèce de reprogrammation, si on veut parler avec des termes d’ordinateur, qui se fait de manière implicite, profonde des individus, via nos modèles cognitifs. Ça ouvre évidemment plein de questions éthiques et politiques qui sont celles du souci de soi, du gouvernement de soi par soi ou par autrui, des questions que j’ai un petit peu abordées dans une tribune pour Le Monde [6]. Ce sont des questions sur lesquelles j’essaie de travailler de plus en plus ces derniers temps.
Clément Durand : J’aurais une question en lien avec la tribune que tu as publiée, j’aimerais te poser une question plus sur l’utilisation de ces filtres vocaux, ou les assistants d’IA, par les entreprises. Tu évoques ce sujet-là. Il y a pas mal d’utilisations dans le domaine de la relation client. On a entendu parler de certaines boîtes qui licencient pour utiliser des IA, qui gèlent les recrutements pour utiliser des IA. Cela c’est sur les assistants d’IA, mais sur la partie filtres, je crois que tu as abordé ce sujet de l’utilisation, pour des humains, de ces filtres qui pourraient, par exemple, gommer la colère.
La question que j’aimerais te poser : comment vois-tu cette évolution et cette prise en main, cette réappropriation par les entreprises de ces technologies-là ? Tu parlais d’éthique. Comment pourrait-on imaginer ou est-ce qu’on peut concilier à la fois le besoin de performance économique, qui est un peu derrière la décision de ces entreprises, et la question du respect des individus, à la fois les salariés mais aussi les clients ou les interlocuteurs de ces entreprises ?
Nadia Guerouaou : Prenez l’exemple des call centers qui proposent, qui proposeraient de gommer la colère dans la voix de clients mécontents. Il y a plein de manières de répondre à cette question.
Clairement, il y a le problème du technosolutionnisme. En faisant ça, on met une espèce de pansement algorithmique sur un problème sociétal qui est celui des conditions de travail des individus. Personnellement, j’ai un peu tendance à regarder d’un mauvais œil ce genre de réponse, mais c’est clairement parce que ça ne cadre pas avec ma vision de la société.
Si j’utilise des données objectives qui sont en lien avec mon travail pour te répondre, je pense que ce qui m’intéresse c’est de donner la parole, encore une fois, aux futurs usagers, à la société, au regard de ces nouvelles technologies qui pourraient être implémentées dans le milieu du travail.
En commençant ma thèse, pareil, j’ai été frappée par le peu d’études visant à interroger l’acceptabilité morale par la société des dispositifs qu’on utilise, qu’on pourrait utiliser, que nous, chercheurs, on développe en laboratoire. Donc, par rapport à la question de l’éthique, j’avais mené une étude d’éthique expérimentale, justement pour questionner l’acceptabilité de l’usage de technologies qui transformeraient les émotions dans la voix. Pour évaluer ça, j’avais conçu plein de petits scénarios plausibles, des scénarios un peu à la Black Mirror, d’utilisation potentielle de ces filtres de voix. C’est marrant, parce que, parmi les scénarios que j’avais imaginés, c’était en 2020, il y avait justement celui d’utiliser des techniques de transformation de voix pour gommer la colère dans la voix de clients de call centers mécontents qui est maintenant une technologie qui a été proposée, en tout cas annoncée par SoftBank, un géant japonais, qui a annoncé qu’il allait la mettre sur le marché d’ici un an. En tout cas, j’ai présenté ce genre de petit scénario à 300 jeunes Français, qui sont un peu la cible potentielle des filtres, et je leur ai demandé, à chaque fois, quelle était l’acceptabilité morale de l’usage de filtres dans telle ou telle condition. Assez étonnamment, c’était en été 2020, les résultats nous ont montré qu’il y avait une assez grande acceptabilité de l’utilisation de technologies qui permettent de transformer la voix, en tout cas les émotions dans la voix, dans les interactions, et ça allait d’interactions dans le cadre du travail, des interactions au café avec un serveur ou bien aussi des usages thérapeutiques. Beaucoup de scénarios étaient présentés, exactement 24. Encore plus étonnant, je m’étais intéressée à une condition au sein de laquelle ces filtres pouvaient être utilisés sans qu’on en informe son interlocuteur, donc une question « cacher les filtres ». Même dans ce cadre-là, le fait d’utiliser des filtres qui transforment notre voix sans en informer notre interlocuteur, il n’y avait pas de problème d’acceptabilité morale pour nos individus, en fait, ça ne semblait pas être un problème éthique pour les individus.
Je n’ai pas le temps de rentrer trop dans les détails des différents scénarios, mais ça pose quand même la question du rapport à l’authenticité dans notre société, le fait de transformer ce qu’on donne à entendre de soi semblait manifestement ne pas être un problème. Je me suis demandé ce qui pouvait un peu expliquer ça. On avait évoqué plusieurs pistes, notamment le fait de relier, dans cette étude, une meilleure acceptation des filtres quand on était familier des technologies et qu’on était aussi familier de la science-fiction. Il y a donc clairement un effet de l’imaginaire dans l’acceptation de ces technologies.
Clément Durand : Tu évoquais la tribune que tu as faite dans Le Monde, je crois que c’était dans cette tribune que tu insistais, en tout cas que tu parlais de l’importance, pour prendre un petit peu de recul sur toutes ces technologies, de se questionner un peu sur ce qu’il se passe en nous quand on utilise l’IA et d’acquérir, j’essaye de citer un petit peu, des clés de compréhension sur le fonctionnement de notre cognition, de notre psychisme pour, justement, faire des choix éclairés en matière d’IA. Est-ce que tu pourrais un petit peu préciser ta réflexion et comment ça permettrait de diffuser un petit peu un esprit critique sur ces technologies et sur leur impact à moyen ou long terme que ce soit sur les jeunes publics qui sont peut-être encore plus exposés du fait de l’utilisation encore plus massive, mais ça concerne quand même toute la population ?
Nadia Guerouaou : Il y a plusieurs leviers pour cette acquisition de clés de compréhension.
Le premier, qui est évidemment lié à mon terrain d’étude, c’est celui de défaire des croyances erronées sur nos émotions. On a tendance à croire que tout ce qui est biologique, qui s’exprime par le corps, est coupé de l’influence de la culture. Ce n’est pas du tout le cas. Nos expressions émotionnelles, nos émotions sont mortelles comme le dit très bien Hervé Mazurel qui est un historien des sensibilités. D’ailleurs, je renvoie les auditeurs qui sont intéressés par cette question à un super numéro de sa revue Sensibilités qu’il dirige avec Quentin Deluermoz, si je ne me trompe pas, c’est le numéro qui s’appelle « Controverses sur l’émotion » [7].
L’idée d’avoir des connaissances et des compétences sur nos interactions et nos émotions, c’est vraiment particulièrement important pour se rendre compte par soi-même des effets potentiels de l’usage de telle ou telle technologie. Pour moi, c’est vraiment très important que cette prise de conscience se fasse aussi à un niveau individuel, qu’on ne vienne pas forcément avec une espèce de prêt à penser, une liste de risques, c’est important de le faire, mais, ce qui me semble aussi vraiment crucial c’est d’engager les individus, notamment les jeunes, en leur donnant des outils pour qu’ils se rendent compte par eux-mêmes que certaines technologies, certains usages du numérique, pourraient avoir des effets sur eux-mêmes et que ces effets peuvent être positifs mais aussi négatifs. Pour s’en rendre compte, je pense qu’il faut avoir suffisamment de compétences à ce niveau-là.
Ça c’est pour le versant un peu émotion/cognition, mais il y a aussi d’autres compétences qu’on peut venir un petit peu gonfler, muscler, et c’est ce que j’essaie de faire notamment dans le cours que je donne sur la neuroéthique, des compétences autour des technologies d’augmentation et des réflexions sur les effets à long terme sur la société de l’usage et du déploiement de ce type de technologie. J’essaie de sensibiliser à des questions telles que celle du libre arbitre. Souvent, les libertariens vont nous dire qu’il n’y a pas de problème avec le fait de déployer ça sur la société, les individus sont libres de choisir d’utiliser tel ou tel dispositif. Ce qu’on répond à ça, en tout cas ce que j’aime répondre, c’est de questionner sur l’autonomie dans les choix des individus, mettre en évidence qu’il y a aussi une certaine forme de coercition implicite de la société à travers une pression, certaines normes. C’est ce genre de question, de chose qu’il faut mettre en lumière.
J’essaye aussi de sensibiliser à des phénomènes comme celui du glissement de la norme. On sait que quand on utilise beaucoup un type de technologie, ça va avoir un effet sur le seuil de normalité que l’on va évaluer pour telle ou telle situation. Dans le cadre des techniques, on a souvent un glissement de ce qu’on va considérer comme étant normal ou pas normal après un certain temps, un certain nombre d’usages d’une technologie.
Il y a aussi le fait que ça puisse créer une société à deux vitesses entre les personnes qui ont accès à des techniques qui vont leur permettre de s’augmenter et celles qui ne peuvent pas le faire.
J’essaie vraiment de faire ça pas sous la forme d’un cours magistral mais d’ateliers qui vont permettre aux étudiants – je fais ça dans le supérieur, mais je trouve que ce serait super de le faire par exemple dans les lycées –, d’avoir plus d’outils pour se demander « est-ce que j’ai envie d’utiliser cette technologie-là avec les effets que ça va avoir sur moi mais aussi les effets que ça crée sur la société. Est-ce que c’est ce genre de société que j’ai envie de voir advenir en utilisant tel ou tel outil ? ». C’est le travail que je fais, mais je pense que c’est ce que tu fais via ton podcast. Il y a aussi d’autres initiatives dans ce sens, le fait de choisir des émissions, des programmations de radio qui vont dans ce sens. D’ailleurs, je n’ai pas compris pourquoi, au moment vraiment du boom de l’IA, de ChatGPT, on a choisi de supprimer Le Meilleur des mondes [8] alors que c’était une émission qui prenait vraiment le temps d’expliciter ce genre d’impacts, d’effets du numérique et des technologies sur nos sociétés. Il y a des newsletters qui sont super, je pense à « Dans les algorithmes » [9] qui explique vraiment en détail, pas de manière superficielle, les effets que peuvent avoir ces outils techniques sur notre société.
Clément Durand : Tu disais qu’il y a ce côté individuel de comprendre pour faire des choix éclairés. Pour autant, les entreprises technologiques, n’importe lesquelles, qui conçoivent ces outils-là pensent en amont un design qui soit le plus addictif possible. On se rend compte que l’aspect individuel est important, pour autant il ne suffit pas et même si on est conscient des risques, ces outils sont tellement bien faits pour capter notre attention et nous rendre accros qu’il faut plus que juste de la volonté. Ça amène un petit peu aux questions plus collectives. Il y a donc les aspects individuels, il y a aussi les aspects collectifs et on voit que l’IA transforme nos interactions. Quelles sont les lacunes, je ne sais pas si ce sont des lacunes, que tu vois dans le cadre juridique ? Peut-être y aurait-il là des choses à faire qui permettraient de coupler à ces aspects individuels que tu décrivais pour renforcer un petit peu la protection des individus, en tout cas permettre de gommer un petit peu plus les aspects négatifs de ces technologies-là et la manière dont on les utilise ?
Nadia Guerouaou : Je suis complètement d’accord avec toi, la sensibilisation individuelle ne remplace pas la réglementation. C’est juste que, souvent, la réglementation arrive un peu en retard. L’idée c’est au moins de sensibiliser les individus pour qu’ils puissent se rendre compte, tu parlais justement d’addiction. Si on est sensible aux processus de l’addiction, à ces choses-là, on va se dire que cette nouvelle technologie-là va peut-être agir sur ces processus cognitifs-là.
En tout cas, sur le plan réglementaire, ce serait un peu malhonnête de ma part de dire que les IA de reconnaissance des émotions évoluent en France dans un vide juridique, c’est un sujet qui est traité que ce soit par le RGPD [Règlement sur la protection des données] ou l’AI Act [10]. Concernant justement l’AI Act, on sait qu’elles sont directement concernées par ce règlement européen, un accord a été trouvé à ce sujet, il me semble, en 2023, qui est censé interdire ces systèmes de reconnaissance dans le monde du travail et dans le monde de l’éducation, en les classifiant comme systèmes à haut risque, vu que c’est ce genre-là de classification qui a été choisi dans ce règlement-là. Mais il me semble qu’il y a deux brèches à ce niveau-là.
Je lisais cet été, dans le journal The observer que l’AI Act, à cet endroit, fait la distinction entre l’identification des expressions des émotions, ce qui serait apparemment autorisé, et la déduction de l’état émotionnel d’un individu à partir de celles-ci, et cela ne le serait pas. Par exemple, le chercheur qui était interviewé disait qu’en vertu de cette loi, écrite de cette manière, un responsable de centre d’appel qui utiliserait une IA émotionnelle pour la surveillance, pourrait sans doute sanctionner un employé si l’IA disait qu’il avait un ton de voix grincheux, pas que lui était grincheux, mais que son ton de voix était grincheux. Si c’est vraiment le cas, c’est problématique.
Il y a une deuxième faille qui est que l’interdiction de l’utilisation de la reconnaissance des émotions a clairement été retirée dans le cadre de la surveillance de frontières.
L’autre point sensible c’est que ce système-là, ces IA restent quand même légales ; elles sont classifiées comme étant à haut risque mais elles restent légales. Donc ça n’empêche pas, par principe, de faire la collecte des émotions dans un cadre marchand, de faire la collecte des émotions des consommateurs pour influencer leur décision d’achat, cela ne fait pas partie du cadre réglementaire. Je trouve qu’à cet égard il y a quand même une lacune, que le cadre juridique peine à suivre les avancées qui lient IA et neurosciences affectives. On doit pouvoir protéger, assurer une intégrité cognitive et émotionnelle face à des technologies qui sont clairement capables d’influencer nos états mentaux.
Il y a tout un travail de l’Unesco autour de la neuroéthique [11] qui questionne le droit à la protection de notre cerveau contre toutes les exploitations invasives, que ce soit donc la neuromodulation, mais aussi ce qu’ils appellent la manipulation cognitive par les IA. C’est vraiment un travail dont on pourrait s’inspirer, pouvoir mettre en avant la nécessité d’avoir des neurodroits, des droits de protection réels de notre système cognitif et affectif.
Il est clair que pour se prémunir de tout ça il faudrait, je n’aime pas trop parler comme ça, mais l’idéal serait quand même d’adopter une méthodologie d’ethic by design, vraiment placer la réflexion éthique dès le début de la conception, dès le début de l’ingénierie et, contrairement à ce qu’on dit, ça n’empêche pas de créer, ça n’empêche pas d’innover, si on veut utiliser ce terme, mais ça permet de se poser les bonnes questions sur le produit qu’on veut mettre à disposition de notre société. Par exemple, l’exercice que je fais avec les étudiants de l’Essec [École supérieure des sciences économiques et commerciales] qui doivent développer une innovation à la fin de leur semestre, c’est de les sensibiliser à des questions éthiques, comme celles dont je parlais tout à l’heure, et je leur demande : à la lumière de ces questionnements éthiques, est-ce que vous regardez différemment l’innovation technologique que vous aviez conçue en début de semestre ? Est-ce que vous choisissez de la modifier ? Quels aspects choisissez-vous de modifier ou pas ? Je ne leur dis pas qu’il ne faut pas qu’ils sortent tel ou tel projet, mais on essaie de réfléchir aux transformations qui pourraient être faites sur leur idée initiale. Donc, clairement ça n’empêche pas une innovation, ça permet de la penser.
Clément Durand : Tout à l’heure, tu as parlé rapidement de monétisation. Un livre de Shoshana Zuboff [12] sur le capitalisme de surveillance, [L’Âge du capitalisme de surveillance], en 2018, avait fait un petit peu de bruit. Elle parlait de la transformation notamment du business modèle de Google qui avait découvert le surplus comportemental qui permettait de beaucoup mieux comprendre le comportement des individus, de le monétiser, de vendre de la publicité beaucoup plus ciblée. Si on essaie de transposer un peu ce modèle sur la partie expériences émotionnelles, qu’elles pourraient être les conséquences économiques ou les risques pour les libertés individuelles si des entreprises technologiques comme Google, et toutes les autres, développaient massivement cette capacité à la fois à comprendre nos vécus, nos émotions et, le pendant de ça, à les modifier ou à agir dessus grâce à des technologies ? C’est déjà un peu le cas, on parlait de la captologie, on comprend comment capter l’attention, c’est juste que là c’est peut-être allé un cran plus loin sur le développement de ces mêmes outils. Sur la partie émotionnelle, grâce à la voix, tu disais que des IA peuvent comprendre des choses sur nous. Comment vois-tu ça ? Est-ce qu’on va vers une monétisation de l’expérience émotionnelle ?
Nadia Guerouaou : Il y a quand même une utilisation qui est faite des travaux des neurosciences, notamment autour de tous ces travaux de lecture des émotions à partir d’indices que sont les expressions faciales ou les expressions vocales. Parmi les neuroscientifiques mêmes, notamment une personnalité vraiment éminente des neurosciences affectives qui est Lisa Feldman Barrett, une des pionnières des neurosciences constructivistes, va juger ces utilisations de captation de reconnaissance émotionnelle comme étant de la pseudoscience. Il faut avoir en tête que ce sont des données et des résultats qui sont faits sur un corpus d’individus qui est énorme. Et, à partir de cet énorme corpus d’individus, on va extraire statistiquement des tendances, des moyennes, mais ces moyennes-là, qu’on met en évidence, ne s’appliquent pas de manière très précise à chaque personne dans son comportement en tant que sujet. C’est vraiment une illusion de penser qu’on peut réellement et précisément extraire, en tout cas avec des machines, les émotions et déduire les émotions des individus. C’est vraiment une première chose pour peut-être casser ce mythe-là.
Ensuite, effectivement l’IA est un marché. L’IA et la détection émotionnelle sont un marché. Je lisais dans un article de Kate Crawford de 2021, qui s’appelle Time to regulate AI that interprets human emotions, que selon elle la croissance de ce marché est telle que les premières estimations prévoyaient que l’industrie de la reconnaissance des émotions, une industrie qui n’est pas forcément fondée scientifiquement, pèsera plus de 37 milliards de dollars en 2026.
Comme je disais, en tout cas au moins dans le cadre du travail, il semblerait que nous soyons préservés, mais, dans d’autres cadres, on peut très bien imaginer cette marchandisation des émotions. De toute façon c’est déjà le cas à plusieurs niveaux : dans le fait de demander une certaine attitude émotionnelle aux employés, on appelle ça le travail émotionnel. Une super chercheuse qui s’appelle Arlie Hochschild [13], qui travaille un peu à la suite de Erving Goffman sur cette idée du fait que, au cours des dernières décennies, dans le cadre de cette économie capitaliste où prédominent des emplois de services, on a un travail émotionnel qui est plébiscité, orienté vers des fins marchandes dans les entreprises. Elle a écrit un super livre qui s’appelle Le prix des sentiments. Au cœur du travail émotionnel et elle va illustrer son propos par l’exemple d’une compagnie aérienne qui demande spécifiquement à ses employées de sourire comme si elles étaient réellement heureuses. Là on s’imagine bien l’usage qui peut être fait des IA génératives dans ces cas-là, qui peuvent transformer les émotions, parce qu’on sait que ce travail à l’endroit des émotions qu’on affiche est associé à des difficultés. Les employées qu’avait interviewées Hochschild témoignaient du fait qu’elles étaient parfois incapables de se libérer d’un sourire artificiel après, en rentrant chez elles.
Sachant qu’on vient toujours nous présenter le progrès technique comme d’une avancée, comme des innovations qui sont censées améliorer notre quotidien, on peut très bien imaginer qu’on présente des filtres de voix ou des filtres qui permettent d’arborer un sourire artificiel, qui viendraient donc aider les employés qui n’auraient plus besoin de feindre ce sourire, la machine le fera à leur place.
On peut imaginer dans l’autre sens, celui dont tu parlais, qu’on nous vende du bien-être, une meilleure gestion de nos émotions personnelles, et c’est ce qu’on fait déjà avec des programmes de neurotechnologie ou de méditation pour augmenter nos performances, mais on peut imaginer qu’avec des IA qui nous permettent d’être beaucoup plus précis dans la soi-disant détection des émotions, qu’on pourrait y aller sans se poser trop de questions. Un peu dans la continuité de cette société du profilage, on peut imaginer des IA émotionnelles qui vont nous proposer du contenu adapté à notre état affectif du moment. On a déjà beaucoup de propositions pour des playlists, mais on peut imaginer une playlist pour nous remonter le moral si notre ordinateur détecte qu’on est triste ou une playlist de bruits blancs si on est en train de travailler ou, pourquoi pas, des écouteurs qui passent en mode anti-agressions extérieures si on a indiqué à notre appli santé qu’on se sent un petit peu vulnérable en ce moment.
Avec toutes ces IA qui disent détecter nos émotions, plus les IA qui créent ce profilage et qui vont donc orienter nos comportements d’utilisations et d’achats, on a vraiment un super paquet du gouvernement de soi par des sociétés marchandes.
Je trouve que ce n’est pas de la science-fiction. On se dit toujours que ça paraît être de la science-fiction, mais le profilage algorithmique a clairement ouvert la voie à tous ces usages-là.
Clément Durand : On arrive à la fin de notre échange. J’avais une question un peu plus prospective. Dans tes recherches, tu suggères qu’on est un petit peu à l’aube d’une transformation très importante de nos modes d’interaction, de notre façon d’interagir. Si tu devais nous projeter dans 15/20 ans et imaginer un petit peu la société dans laquelle on est, surtout les interactions qu’on pourrait avoir, comment verrais-tu les choses ? Quels sont les changements les plus importants que tu imagines dans la façon de communiquer, d’interagir et/ou de gérer nos émotions ?
Nadia Guerouaou : Je sais pas si je peux répondre, en tout cas en faisant des prédictions certaines ou si ça peut se produire dans 20 ans. Je me suis quand même exercée à ça dans mon travail à travers le cadre dont je parlais tout à l’heure, le cadre de l’inférence prédictive bayésienne. L’inférence prédictive bayésienne se fonde sur une équation mathématique, l’équation de Baye, qui explique en quoi, par exemple, nos déductions de nos émotions sont construites par nos expériences et j’essaie de voir dans quelle mesure ces IA narratives, ces filtres, pouvaient agir sur cette équation, donc sur les modèles qu’on utilise pour nos interactions sociales au quotidien. J’ai écrit un article là-dessus, un article en anglais peut-être un peu fastidieux, mais on peut déjà faire des prévisions, des hypothèses, sur notre seuil de tolérabilité de certaines émotions qui pourrait bouger en fait. Le fait qu’on accepte certaines réactions émotionnelles, comme le fou rire, tient au fait qu’on considère que ces réactions émotionnelles sont difficilement contrôlables. Mais, dans un monde où on peut contrôler l’expression de nos émotions, est-ce que ça ne va pas faire bouger notre tolérance à l’égard de ce type-là d’émotion ? Cela ne sort pas de nulle part, je le déduis à partir de ce modèle théorique-là des neurosciences, mais, dans l’histoire des sensibilités, on a déjà vu l’apparition ou la disparition de certaines émotions, cela lié soit à des techniques ou à des changements dans la société, ce n’est donc pas quelque chose qui serait complètement nouveau ou, encore une fois, qui relèverait de la fiction.
Plusieurs chercheurs mettent en avant un risque qui est celui de l’homogénéisation de nos expressions émotionnelles. En fait, on sait que les technologies ont un effet sur la société, ça a un nom, ça s’appelle les soft impacts des technologies. Si on prend l’exemple du sourire, si on veut mettre un faux sourire sur son visage, on peut se poser la question du type de sourire qui va être généré par cette IA. Comme on sait que la plupart des IA sont entraînées sur du matériel qui nous vient notamment des États-Unis, beaucoup de chercheurs craignent une homogénéisation de notre culture émotionnelle qui irait dans le sens d’une esthétique et d’une culture dominante qui est celle nord-américaine. C’est un risque d’autant plus présent qu’on sait que ce projet Stargate [14] a été annoncé dans lequel OpenAI, qui insiste beaucoup sur l’émotionnalité de ces voix, est impliquée mais pas que. Tout à l’heure je vous parlais de Softbank, le Japonais, qui avait annoncé cette technologie qui permettait de gommer la colère dans la voix des utilisateurs, eh bien c’est un des actionnaires majeurs du projet Stargate, même si c’est un Japonais, c’est quand même un des actionnaires majeurs.
Il y a ce risque-là d’un lissage de notre culture émotionnelle et c’est un peu le côté des risques, mais j’aime bien aussi, dans les futurs possibles, considérer l’idée que ces technologies-là, ces IA génératives ne soient pas forcément ou uniquement des outils au service du conformisme et de l’appauvrissement. Il n’y a rien qui lie de manière inexorable ces pratiques à une forme de conformisme, à une forme d’aliénation. Ça peut être aussi un moyen d’expansion du domaine des possibles, de découverte de soi. C’est vraiment un sujet qui me tient à cœur, que j’essaie de développer. À cet égard-là, d’expansion de soi, les pratiques artistiques sont un peu un terrain privilégié de reconfiguration des modèles existants. On a quand même beaucoup d’artistes numériques – je cite souvent Inès Alpha [15] parce qu’elle est française et qu’elle est assez connue – qui vont créer des filtres qu’on peut qualifier de cyberféministes parce que, contrairement aux filtres de beauté, ils vont contribuer à redéfinir une identité féminine. Elle a une démarche que j’aime beaucoup, que je qualifie de zoopoétique parce qu’elle s’inspire de l’univers subaquatique. Il y a peut-être la possibilité d’un dépassement, dans nos interactions futures, des frontières entre le réel, l’imaginaire, mais aussi entre les espèces. En fait, c’est une assez belle idée d’utiliser ces technologies-là pour aller chercher de l’altérité, des formes nouvelles. On a déjà vu que le numérique pouvait être un espace d’invention de choses inédites. Encore une fois, si on pense aux expressions émotionnelles, c’est quand même un espace dans lequel on a vu émerger des émojis qui sont une expression complètement nouvelle de nos émotions. Je pense qu’on peut essayer de convoquer l’imagination pour ne pas être dans une attitude seulement de reproduction de ce qui existe déjà.
Clément Durand : Merci beaucoup, Nadia Guerouaou, d’avoir répondu à mes questions et j’espère à bientôt.
Nadia Guerouaou : Merci à toi.
Clément Durand : L’épisode est maintenant terminé. J’espère qu’il vous a plu. N’hésitez pas à le partager autour de vous et à vous abonner au podcast pour écouter les prochains épisodes. À bientôt.