Mohamed Kaci : Ce n’est pas de la science-fiction. Une femme robot a pris récemment la tête d’une entreprise chinoise. La police de San Francisco, elle, rêve d’avoir des robots tueurs. Jusqu’où ira la robotisation et l’intelligence artificielle ? Quelles problématiques pose la montée en puissance de cette intelligence artificielle dans nos vies quotidiennes ? On en parle avec Laurence Devillers. Bonsoir. Bienvenue à vous sur TV5MONDE.
Laurence Devillers : Bonsoir.
Mohamed Kaci : Vous êtes professeure en intelligence artificielle à Sorbonne-Université, chercheuse au CNRS et à Paris-Saclay. Votre livre Les robots émotionnels - Santé, surveillance, sexualité... : et l’éthique dans tout ça ? aux éditions L’Observatoire.
Une première question pour commencer, avant de voir quelques exemples que l’on a compilés en termes de robotisation. La figure du robot est omniprésente, ce n’est pas nouveau, mais elle l’est de plus en plus dans nos sociétés. Qu’est-ce-que représente au fond selon vous, cette figure même du robot ?
Laurence Devillers : On a tendance à appeler robot tout ce qui est automatique. Un robot embarque des modules d’IA qui vont percevoir notre monde, pouvoir interpréter et pouvoir générer des réponses si le robot est doué de parole. Le robot peut être également incarné dans une forme qui nous ressemble.
Mohamed Kaci : C’est l’humanoïde ?
Laurence Devillers : C’est l’humanoïde, le robot physique, à forme humaine, mais ça peut aussi être votre aspirateur, un objet qui se déplace tout seul.
Mohamed Kaci : C’est intéressant que vous disiez aspirateur parce que, pour le commun des mortels, quand on dit robotisation, on a l’image du progrès.
Laurence Devillers : C’est un progrès un aspirateur qui découvre tout seul son environnement. Il n’est pas du tout comme quelqu’un qui pousse quelque chose, il a un certain niveau d’autonomie.
Mohamed Kaci : Je vous le disais, nous avons rassemblé quelques exemples des dernières innovations robotiques, si l’on peut dire. C’est compilé par Sophie Goldstein. Regardez.
Sophie Goldstein, voix off : C’est un rire délicat que l’université de Kyoto a mis trois ans à lui enseigner. Voici Erica, l’une des dernières sensations androïdes made in Japan. Elle parle depuis 2015 et rit depuis décembre 2022. « Un rire à propos », soulignent ses concepteurs, une petite révolution humaine et ce, grâce à l’intelligence artificielle.
« Est-ce difficile pour vous de comprendre l’humour humain ? », l’interroge ce journaliste allemand. « Oui, l’humour varie d’une personne à l’autre. On peut rire d’une plaisanterie mais il y a aussi le rire social : à chaque instant, je dois décider si je ris avec les autres ou non », répond Erica. » L’ingénieur informaticien au cœur de ce rire, engage à son tour la conversation : « Au mondial de football, le Japon a battu l’Allemagne ». Le visage d’Erica exprime la surprise et puis elle accueille la nouvelle d’un rire discret, même réservé ; les victoires modestes, très politiquement correct. Dans son travail, l’ingénieur a étudié, répertorié et stocké des centaines de rires s’appuyant sur des mises en situation réelle avec des étudiants.
Et pourquoi pas une intelligence artificielle à la tête d’une entreprise ? A Hong-Kong, le pas a été franchi. NetDragon annonçait en août dernier, 2022, la nomination de la première cheffe d’entreprise virtuelle à la tête d’une de ces filiales, Tang Yu, présentée comme l’avenir du management, intégrant l’expertise de millions de situations réelles rencontrées par des cadres. Avantage : Tang Yu décide sans traîner, elle serait même capable de subjectivité humaine. Des décisions rationnelles et sans biais tout en sachant repérer et régler les situations d’erreurs humaines.
Robots toujours plus humains, toujours plus compétents, jusqu’à quel point ? Dans quels objectifs ? A quel prix ? Et avec quels garde-fous ?
Mohamed Kaci : Votre réaction Laurence Devillers ? Sophie dit « avec quels garde-fous ? » C’est une des grandes questions ?
Laurence Devillers : Une des questions majeures est, en fait, l’évaluation [et la mise en place de normes pour encadrer les usages des robots, Note de l’intervenante]. On parle souvent des performances et des possibilités de ces machines mais jamais on ne nous parle réellement d’évaluation [sur des jeux d’essais ni de surveillance des usages, Note de l’intervenante]. L’évaluation devrait indiquer jusqu’à quel niveau de performance vont ces machines, sont robustes et nous montrer que, de temps en temps, cela ne marche pas bien.
On voit très bien que ce sujet est mis sous le tapis par de grandes compagnies qui font du marketing autour de ces progrès fulgurants, transcendants, enthousiasmants. Je voudrais avant tout qu’on raisonne, qu’on évalue correctement [pour avoir une meilleure compréhension des progrès et des limites de ces objets socio-techniques, Note de l’intervenante].
Mohamed Kaci :Il y a deux choses, il y a l’aspect, on va dire, éthique/philosophique et il y a l’aspect, on va y venir plus longuement, que vous venez d’évoquer : selon vous, on surestime l’intelligence artificielle ? Vous dites — et ce n’est pas nouveau, c’est depuis Blade Runner il y a maintenant 40 ans — que la science-fiction fait miroiter, qu’elle a un pouvoir beaucoup plus fort qu’elle n’en a.
Laurence Devillers : C’est assez paradoxal. On a l’impression qu’elle va venir nous envahir, que c’est une intelligence surhumaine qui a des intentions malsaines, alors qu’on devrait se méfier d’autre chose : on devrait se méfier de la manipulation des humains grâce à ces IA.
Mohamed Kaci : C’est plutôt l’utilisation.
Laurence Devillers : On se méprend sur l’objectif. La machine n’a pas d’entité réelle, elle n’a pas d’intention, elle n’a pas de plan de carrière, elle n’a pas de besoins économiques, elle n’a pas besoin de manger. Elle n’a besoin de rien du tout de tout ça.
Mohamed Kaci : Quand en Chine, une femme robot prend la tête d’une entreprise, et pas des moindres puisque, je le disais tout à l’heure, c’est très sérieux, c’est l’entreprise NetDragon Websoft qui est en quand même un fleuron du jeu vidéo, vous nous dites pourquoi pas, cela dépend des projets qu’on va faire faire à ce robot.
Laurence Devillers : C’est surtout qui sera responsable. Pour l’instant, il n’est pas question de faire des systèmes qui ont une responsabilité. Ce sont des objets programmés par des humains, même s’ils sont capables d’apprentissage.
Mohamed Kaci : D’ailleurs c’est vrai, si l’entreprise fait faillite, qui est responsable ?
Laurence Devillers : Il faut se le demander. Quand on est chef d’entreprise, on est responsable de ses actes et de ses décisions. Comme la machine n’est pas responsable de ses décisions, qui l’est vraiment ? Et c’est là qu’il faut aller regarder en quoi elle est, en fait, une espèce de marionnette pour les entités, derrière, qui pilotent.
Mohamed Kaci : Vous dites « qui pilotent ». La question de la responsabilité se pose notamment aussi pour les voitures automatiques, c’est bien ça ?
Laurence Devillers : Elle se pose aussi pour les voitures automatiques, mais la voiture autonome est un sujet un peu différent.
Mohamed Kaci : Il y a de l’intelligence artificielle.
Laurence Devillers : Il y a de l’intelligence artificielle, mais elle ne va pas juger les directives. Elle va avoir un atout de perception, c’est-à-dire qu’elle va reconnaître, autour d’elle, les différents objets [qu’on lui a appris à discerner à partir de sa base de données d’apprentissage, Note de l’intervenante]. Si la voiture autonome, demain, est entourée d’autres voitures autonomes, dans un milieu qui permet de vérifier un certain nombre de choses, je pense que ce serait mieux que la conduite humaine, il y aurait moins d’accidents.
Mohamed Kaci : Quel exemple vous a le plus choqué ? On entend aussi parler de licenciements, et pas qu’un peu, des milliers de licenciements dans une entreprise grâce, plutôt à cause de l’intelligence artificielle. Est-ce qu’il y a un exemple concret qui vous a plus choqué qu’un autre ?
Laurence Devillers : Sur les mésusages ?
Mohamed Kaci : Sur l’usage de l’intelligence artificielle et de la robotisation. Ou est-ce-que c’est plus général ? Par exemple, la suppression de métiers, de pans entiers de métiers par des robots.
Laurence Devillers : On a toujours cherché à augmenter nos connaissances et à augmenter le pouvoir de créativité dans la société. On crée des objets pour nous assister, [pas pour nous remplacer, Note de l’intervenante]. Il faut qu’il y ait absolument un retour sur investissement. Sans doute qu’un certain nombre de travailleurs n’auront plus le même travail parce que des machines les auront remplacés. Ce n’est pas la première révolution dues aux machines. Cela a déjà existé par le passé, donc on peut en tirer des leçons, il faut absolument travailler sur cet aspect de partage social de l’activité bénéfique que l’on propose à travers ces machines. Je pense que le travail et le remplacement est un sujet à part, d’ailleurs, on ne remplace pas des humains, mais on remplace sur des tâches particulières [et les robots assistent les humains, Note de l’intervenante].
Le problème de responsabilité, le problème de garde-fous, le problème d’éthique et de conséquences sur la société sont vraiment des sujets sur lesquels on doit travailler ensemble.
Mohamed Kaci : ChatGPT [1] ce n’était ce qu’on a vu dans les images, mais ça y ressemble quand même drôlement. C’est encore différent. Expliquez-nous. C’est un site internet, qui cartonne on va dire depuis deux semaines. L’idée c’est d’avoir en face de soi une « intelligence artificielle humaine », entre guillemets, si on veut l’appeler comme ça.
Laurence Devillers : Pas du tout.
Mohamed Kaci : C’est quoi ?
Laurence Devillers : Sur Google, lorsque vous posez des questions, le système vous renvoie des informations dans un certain ordre à partir de recherches sur Internet.
[ChatGPT va plus loin. Cest un dialogueur multitâche : il traduit, répond aux questions, fait une rédaction, écrit du code… ChatGPT utilise un système d’IA générative nourri de millions de données issues d’Internet pour répondre. C’est un système de dialogue, il peut prendre en compte le contexte des phrases pour répondre, Ajout de l’intervenante]. En ce moment, c’est ouvert et tout le monde l’utilise permettant à OpenAI, de collecter un grand nombre de données et de retour d’expériences. je pense que c’est utile de le tester.
Mohamed Kaci : On peut demander des tâches, on peut dire « rédige-moi un reportage sur l’IA ».
Laurence Devillers : Un étudiant peut lui demander « fais mon devoir », le professeur « corrige mes copies ».
Mohamed Kaci : C’est assez bluffant paraît-il. Je ne l’ai pas essayé.
Laurence Devillers : C’est assez bluffant. Je l’ai essayé, c’est très bluffant.
Mohamed Kaci : Par contre, pardonnez-moi de vous couper, attention aux mauvaise surprises. Vous disiez que l’outil se base sur le nombre de données et pas sur leurs qualités.
Laurence Devillers : Exactement.
Mohamed Kaci : Un de vos confrères dit que si de nombreuses données disent que les pommes rouges sont bonnes, le programme va intégrer que le rouge est délicieux. Et si on lui demande ce qui est meilleur entre une tarte au citron et un extincteur, ChatGPT répondra l’extincteur qui est rouge. C’est un cas tiré par les cheveux ?
Laurence Devillers : Non, je pense que c’est une erreur qu’il ne fera pas. [Il peut faire des erreurs de logique très simple et mais peut-être pas jusqu’à cela … tout dépend des données, Note de l’intervenante].
Mohamed Kaci : Pourquoi ne la fera-t-il pas ? Potentiellement c’est possible.
Laurence Devillers : Oui, mais c’est caricatural. Si personne n’a vérifié les fake news, les discours qui sont sur Internet, qui pourraient être utilisés pour entraîner le système, il peut très bien générer, à un moment donné, des propos incohérents ou hallucinants, propager des fake news avec une grande assurance. C’est pour cela qu’il est souhaitable de parler d’éthique [et de questionner les dires de ChatGPT, Note de l’intervenante].
À l’heure actuelle, OpenAI, comme l’avait fait Google avant avec LamDA, utilise des filtres pour éliminer tout ce qui est propos non politiquement correct. [Ces censures devraient d’ailleurs être décidées par des comités d’éthique, ajout de l’intervenante].
Par exemple, on ne peut pas demander à la machine « donne-moi une recette pour faire une bombe ». Elle refusera avec ce propos-là. Par contre, si vous lui demandez d’écrire un texte de science-fiction parlant de cela, elle pourra donner la recette. Donc il n’y a pas d’intelligence derrière les propos de la machine.
Mohamed Kaci : Merci beaucoup Laurence Devillers. J’invite vraiment nos téléspectateurs à lire votre livre Les robots émotionnels - Santé, surveillance, sexualité... : et l’éthique dans tout ça ?, notamment sur le sujet de la normalisation en Europe pour laquelle vous travaillez. Merci à vous.
Laurence Devillers : Merci.