France Charruyer : Bonjour à tous. Bienvenue pour une nouvelle Causerie Data entre France Charruyer, votre serviteur, et le chercheur, professeur, Jean-Michel Loubes. Bonjour Jean-Michel.
Jean-Michel Loubes : Bonjour France.
France Charruyer : Qui êtes-vous Jean-Michel ?
Jean-Michel Loubes : Je suis professeur des universités à l’Université de Toulouse. Je travaille dans le laboratoire de mathématiques de Toulouse, donc je suis un mathématicien. Je suis un mathématicien qui s’intéresse aux algorithmes et, tout particulièrement, qui s’intéresse aux problématiques sur les biais.
France Charruyer : Pourquoi un autre podcast sur l’IA ?, vous demandez-vous. Parce qu’avec Data Ring, on ne nage pas en surface. Plongeons tête la première pour explorer non seulement l’IA et comment cela fonctionne, mais pourquoi elle ne fonctionne pas toujours et ce que cela va signifier pour nous, nos familles, nos emplois, nos loisirs, nos façons de vivre, de penser et d’habiter le monde.
La conversation, avec les Causeries Data, c’est apporter un éclairage différent.
Alors, on va prendre le temps de poser les questions brûlantes sur les biais algorithmiques, qui peuvent faire rougir un vieux PC, à l’explicabilité impossible des IA ou pas, parce que, parfois, peut-être qu’elles semblent avoir leur propre volonté, ce n’est pas moi qui le dis, c’est Standford, mais je vais le questionner, et en passant par les implications éthiques et légales qui donneraient des sueurs froides même aux robots les plus froids.
Alors Jean-Michel, on va démarrer avec la question d’usage : comment définissez-vous les systèmes d’intelligence artificielle dans le contexte actuel ?
Jean-Michel Loubes : C’est une question compliquée parce que l’IA est un domaine de l’informatique qui se concentre sur la création de systèmes capables d’effectuer des tâches qui, si elles étaient accomplies par des humains, nécessiteraient une forme d’intelligence. On voit donc qu’il faut commencer par définir ce qu’est l’intelligence et c’est un concept qui est très complexe, parce qu’il englobe plusieurs aspects de la capacité cognitive. C’est la capacité de penser de manière logique, de résoudre des problèmes, de prendre des décisions, d’analyser des situations complexes, et aussi de pouvoir apprendre de l’expérience et de s’adapter.
Est-ce que les machines, à travers l’intelligence artificielle, en sont capables ? Depuis quelques années, la théorie de l’apprentissage a permis aux machines d’apprendre par elles-mêmes à partir d’instructions qui ne sont pas données par une personne mais qui sont générées directement par l’ordinateur. L’ordinateur apprend donc de lui-même à partir de données qui lui sont fournies, un modèle, et peut arriver à avoir des modèles qui permettent des prises de décision.
France Charruyer : Vos travaux, Jean-Michel, portent sur l’équité, la robustesse dans l’apprentissage automatique, du moins les travaux que vous avez menés chez ANITI [Artificial and Natural Intelligence Toulouse Institute]. J’ai cru comprendre que vous alliez intervenir également, parce que vous êtes modeste, à TSE, la Toulouse School of Economics. Comment définiriez-vous un biais dans le contexte de l’IA et pourquoi est-il crucial de les quantifier et de les comprendre ?
Jean-Michel Loubes : Le terme biais est aussi un terme compliqué qu’il faut, bien entendu, définir. Biais vient du latin biaxius, deux axes. Ça veut dire que lorsqu’on est face à un problème, on peut le voir selon deux directions : une direction principale et puis une direction un peu inattendue, qui surprend. Si on regarde dans le dictionnaire l’étymologie, la décision biaisée est une décision qui dévie par rapport à un comportement attendu et le biais, c’est la variable qui entraîne cette déviation.
En fait, un biais algorithmique se réfère à des situations où un algorithme, ou un système de traitement de données automatique, donne des résultats qui vont être systématiquement différents pour certains groupes de personnes. Ainsi, il y a donc une déviation pour une minorité de personnes par rapport à un comportement majoritaire.
France Charruyer : Mais, par définition, un système d’IA discrimine, c’est ce qu’on va lui demander.
Jean-Michel Loubes : Tout à fait et, en fait, on peut regarder les conséquences de ces biais. Le système doit discriminer, c’est-à-dire qu’il doit arriver à effectuer une tâche qui permet de classifier la population en sous-groupes, mais on attend que cette classification soit réalisée pour de bonnes raisons, des raisons qui ont du sens par rapport à la tâche que l’algorithme est censé couvrir.
Et justement, quand il y a des biais, peut-être qu’on en reparlera tout à l’heure, les raisons pour lesquelles la discrimination est faite sont des raisons qui sont totalement différentes des vraies raisons de cette tâche. On peut prendre un exemple : dans un système de recommandation où on cherche à prédire, à donner des conseils à une personne sur le métier qu’elle doit effectuer : à une personne qui a fait des études autour de la biologie ou médicales, on peut recommander d’être, par exemple, chirurgien. Lorsqu’on introduit la variable « genre » ou même lorsque l’algorithme détecte que la personne à qui il doit faire cette recommandation est une femme, l’algorithme peut souvent avoir tendance à recommander plutôt un métier d’infirmière que de chirurgien. C’est en ce sens que c’est un biais, puisqu’on s’attend à ce que deux personnes qui ont des CV similaires, avec les mêmes compétences, reçoivent la même recommandation, alors qu’ici la variable « genre », qui ne semble pas être causale, entraîne un changement de l’algorithme.
France Charruyer : Est-ce que vous pouvez nous donner un cas d’usage, au-delà des recrutements, sur des biais de genre ?
Jean-Michel Loubes : On peut, par exemple, penser à un algorithme de gestion du personnel qui essaie d’apprendre pourquoi les personnes sont malheureuses au travail. L’algorithme analyse un certain nombre de données et préconise un certain nombre d’actions. Les actions, ça peut être plus de temps libre, plus de responsabilités, des formations. On s’est aperçu que cet algorithme avait des comportements différents en fonction du genre, c’est-à-dire qu’il arrivait à beaucoup mieux détecter le mal-être au travail des hommes, il était beaucoup plus sensible aux indications de variables. Ça veut donc dire qu’il apprenait, dans les données qu’il observait, le mal-être au travail des hommes à travers les recommandations des supérieurs, les retours d’expérience des employés. Il était capable de prédire que ces personnes étaient malheureuses, donc il donnait des recommandations pour les rendre plus heureuses et surtout éviter qu’elles changent d’emploi. Les raisons étaient essentiellement masculines donc ça ne marchait pas du tout pour les femmes et il y avait deux conséquences très importantes pour les femmes : la première conséquence était, tout d’abord, une rupture d’équité entre le traitement des employés et, d’autre part, comme l’algorithme préconisait souvent, pour que les gens restent sur place, des augmentations de salaire, on avait des augmentations de salaire plus importantes préconisées pour les hommes que pour les femmes, ce qui aboutissait à un déséquilibre des salaires entre hommes et femmes dans l’entreprise.
France Charruyer : Pareil, je crois qu’on l’a vu également dans les algorithmes de recrutement, puisqu’en moyenne les femmes gagnent, semble-t-il, 24 %, en rémunération, de moins que les hommes, donc ça amenait statistiquement les algorithmes dans leur demande, dans leur approche de la rémunération des femmes, à sous-évaluer la rémunération qui pouvait être faite à une femme. On en avait beaucoup parlé, est-ce que vous avez travaillé sur ces sujets ?
Jean-Michel Loubes : Oui, tout à fait et ça me permet de redéfinir l’impact du biais. En fait, le biais algorithmique est essentiellement de deux natures.
La première nature du biais est un biais décisionnel : on a envie qu’une variable n’influe pas dans la décision, c’est-à-dire qu’on apprend un comportement optimal, une décision optimale, et on n’a pas envie que des variables qui, selon nous, n’ont pas un effet causal, entrent en jeu et changent la décision. Pour l’exemple, on n’a pas envie que dans un recrutement, pour une personne, on regarde au-delà des compétences, on pense que le genre n’influe pas sur les compétences, donc ce biais est un biais qui va contre le fait qu’on vote la même décision pour tous.
Il y a un autre type de biais, c’est un biais sur la performance de l’algorithme. Dans l’algorithme d’aide au management dont je vous ai parlé, c’est la performance de cet algorithme qui dépend du genre. Il marche très bien pour les hommes, mais il ne marche pas bien pour les femmes et c’est un autre type de biais, un peu plus compliqué que le premier, puisque, ici, on a envie que l’algorithme fonctionne de la même façon pour tout le monde, qu’il n’y ait pas de variable sous-groupe et qui soit impacté plus qu’un autre, non pas en termes de décision mais en termes de performance de l’algorithme.
France Charruyer : Nous avons tous des biais, on a des biais de confirmation, on a des biais d’adhésion, on a des biais culturels. Lorsqu’il programme, le développeur peut parfois transmettre aussi ses propres biais et nous avons également ceux qui vont commanditer le programme, qui vont aussi avoir leurs biais, donc on a deux écueils : les instructions qui vont être données et l’information aux développeurs, peut-être, dans la prévention des biais, et ensuite les instructions pour des questions évidentes de responsabilité qui doivent être données à ces dits développeurs parce qu’ils n’ont pas forcément la même logique. Si je suis dans une université, que je fais un tri des CV, qu’est-ce que j’attends, moi, de ce tri sélectif des CV ? Qu’est-ce que c’est qu’un bon CV ? On n’a pas tous la même définition du bon CV.
Jean-Michel Loubes : Nous avons vu que les biais sont des variables qui créent des déviations et, en fait, les difficultés c’est que, comme dit Cathy O’Neil [1] dans son livre Weapons of Math Destruction, en français ça marche moins bien, « Les maths comme arme de destruction massive ».
France Charruyer : On a un biais culturel.
Jean-Michel Loubes : Les biais sont partout et c’est justement le fait qu’il y ait des biais qui fait que les algorithmes fonctionnent et que les algorithmes peuvent apprendre. Il y aurait donc des mauvais biais et des bons biais. Qui détermine le mauvais biais du bon biais ? En fait, on a besoin d’éthique, on a besoin de morale et on a besoin de lois. La définition de ce qu’est un bon CV est quelque chose de compliqué, parce que, quand on veut identifier les biais dans les algorithmes, les biais peuvent venir de plein de choses. Ça peut venir des biais qui sont directement codés par le programmeur ; en science, ces bais-là sont des biais qu’on peut facilement vérifier parce que, si on a accès au code, on peut facilement regarder que le programmeur a choisi délibérément de favoriser une classe de la population plutôt qu’une autre.
France Charruyer : La fameuse logique de transparence, l’explicabilité.
Jean-Michel Loubes : Voilà et c’est pour cela que c’est important de demander au législateur, lorsqu’il fait l’audit des algorithmes, de pouvoir, à minima, regarder les instructions qui ont été données soit à l’algorithme soit le code qu’il a créé, quand c’est possible. Ce qui est plus compliqué c’est que les biais, dans des algorithmes d’IA, sont des biais que l’algorithme va lui-même détecter de deux manières : d’abord dans les données d’entraînement, c’est-à-dire que les données utilisées pour entraîner un algorithme comportent des biais. En fait, elles peuvent avoir des biais parce qu’elles ne sont pas représentatives de toute la population.
France Charruyer : Donc une sous-estimation.
Jean-Michel Loubes : Voilà. Ce sont des biais qui sont bien connus comme le biais de sélection. Par exemple, quand on crée des données d’apprentissage sur lesquelles l’algorithme va créer son modèle, on regarde une sous-partie et cette sous-partie de la population peut ne pas être représentative de la population globale et comporter des biais. Cela se produit également lorsqu’on essaie d’apprendre un comportement et que, de facto, apprendre ce comportement est plus délicat pour une sous-partie de la population que pour une autre. Ce sont des biais qui sont très proches des biais humains que nous avons tous lorsque nous raisonnons par stéréotypes.
France Charruyer : Les fameuses problématiques auxquelles on est confronté dans les algorithmes de traduction. Lorsque je dis infirmier/infirmière, en anglais nurse, que la traduction devient forcément UNE infirmière et que le médecin c’est UN médecin, j’ai cette problématique de genre, de biais automatique. Que peut-on faire pour lutter contre ça ? D’ailleurs, déjà, est-ce que c’est possible puisque là on a une sous-représentation ? Comment fait-on ?
Jean-Michel Loubes : Il faut comprendre que la problématique de biais, ce n’est pas simplement le biais dans les données, mais c’est aussi comment l’algorithme va apprendre ce biais, le propager et, parfois même, l’amplifier. Donc, même si les données sont biaisées, on peut essayer.
Tout d’abord, il faut évaluer ce biais ; évaluer, c’est-à-dire donner sa définition et c’est un travail pluridisciplinaire. Une fois qu’on a trouvé la bonne définition par rapport aussi aux impacts que va créer le biais, il va falloir arriver à mesurer et certifier la présence de biais dans les données, dans les sorties de l’algorithme et, ensuite, arriver à comprendre l’impact de l’algorithme sur le biais ambiant.
Une fois qu’on a évalué les performances de l’algorithme, si a identifié, par exemple, que l’algorithme fonctionnait moins bien pour certains groupes ou que des décisions étaient trop dépendantes de certaines variables dont on pense, pour des raisons morales, éthiques ou légales, qu’elles devraient être prises différemment, il va falloir corriger. Corriger le biais, c’est possible, à condition, d’abord, de le chercher, donc être conscient qu’il peut y avoir du biais et ne pas prendre les vérités algorithmiques pour des vérités plus importantes qu’elles ne sont. Il va donc falloir arriver à mesurer ce biais et on peut le corriger.
France Charruyer : Donc, on introduit une discrimination positive, par exemple on met un peu plus de CV de femmes puisqu’on est confronté à l’invisibilité des femmes, aussi dans le numérique, mais c’est aussi le fruit d’une réalité, donc on tord la réalité ; ça pose aussi des problèmes éthiques.
Jean-Michel Loubes : Non, je ne dirais pas ça. La réalité numérique que l’on tord n’est pas forcément la réalité des données et la réalité des données n’est pas la réalité du monde dans lequel on cherche à vivre. Par exemple, si je veux un algorithme de recommandation pour savoir si des femmes peuvent accéder à des grandes responsabilités dans les entreprises, si je prends les données numériques c’est-à-dire que je prends, par exemple, le nombre de femmes qui dirigent des entreprises du CAC 40, je pense que les données seront biaisées : il y a beaucoup plus d’hommes qui dirigent. En fait, quelle est la réalité des données de ce monde numérique par rapport au monde potentiel, au monde dans lequel on aimerait vivre ? Est-ce vraiment changer la réalité qu’essayer de reconstruire un monde où il y aurait une équité entre genres, par exemple ?
France Charruyer : Et entre couleurs de peau, puisqu’on a eu la problématique dans les algorithmes de reconnaissance faciale ?
Jean-Michel Loubes : Tout à fait, il y a beaucoup de biais. Au-delà du simple rééquilibrage des bases d’apprentissage, on peut aussi essayer de contraindre l’algorithme, de contraindre l’IA à apprendre des modèles plus justes. Ce sont des méthodologies informatiques et mathématiques qui permettent de contrôler toute la phase d’apprentissage et de pouvoir s’assurer que les biais ne vont pas jouer un rôle déterminant dans la construction du modèle.
France Charruyer : Comment peut-on contribuer à une meilleure interprétation et acceptation de l’IA avec ces travaux sur l’explicabilité et la détection des biais ?
Jean-Michel Loubes : Comprendre les biais, c’est une des phases de l’explicabilité des algorithmes.
France Charruyer : Ma fameuse première marche ! Je taquine !
Jean-Michel Loubes : Si vous voulez. Pour arriver à se prémunir des biais, la première chose à faire c’est d’arriver à les comprendre et d’arriver à les mesurer. Pour les mesurer il faut pouvoir se donner une définition, donc, la première chose, c’est expliciter ce qu’on cherche. Ensuite, lorsqu’on cherche les mesures dans les algorithmes, on essaie de comprendre ce qui est créé par l’algorithme, c’est donc l’explicabilité de l’algorithme. Mais l’explicabilité des algorithmes va bien au-delà. L’explicabilité c’est arriver à comprendre la décision, c’est-à-dire pouvoir expliquer aux usagers comment la décision a été prise. Cette explicabilité c’est quelque chose qui doit, in fine, permettre à la personne de reprendre du pouvoir sur l’algorithme. Donc, expliquer la décision ne suffit pas, il faut donner des raisons qui sont des raisons causales pour que la personne puisse, elle-même, être capable d’influer sur les décisions de l’algorithme, être capable de changer en modifiant certains paramètres. Cette explicabilité causale est un des thèmes principaux de la recherche scientifique actuelle en IA, c’est quelque chose qui est assez compliqué à obtenir puisque les algorithmes sont fondés plutôt sur des corrélations que sur des causalités, c’est comme cela qu’ils sont construits.
France Charruyer : Quels sont les défis concernant l’explicabilité dans les réseaux neuronaux profonds [2] ?
Jean-Michel Loubes : On est confronté à un dilemme : plus les réseaux de neurones sont gros, plus ils sont complexes, mieux ils prédisent. On a donc envie d’utiliser des réseaux qui sont très complexes avec un grand nombre de paramètres, on est à 300 milliards actuels pour les gros modèles de langage et plus ces modèles sont complexes, plus ils s’apparentent à ce qu’on appelle des boîtes noires, c’est-à-dire que lorsqu’on reçoit une décision, on n’arrive pas à comprendre les raisons pour lesquelles la décision a été prise. Cette boîte noire est très compliquée à disséquer, à ouvrir. Même si on avait accès à tout l’algorithme, on devrait comprendre 300 milliards de paramètres, c’est-à-dire que le réseau a appris des données en se créant lui-même une espèce d’alphabet de dimension 300 milliards, dont la logique est propre aux machines et n’est pas du tout compréhensible par les êtres humains.
L’explicabilité des algorithmes, ce n’est donc pas essayer de suivre tous les paramètres du réseau, mais essayer de comprendre comment se propage l’information et comment on arrive à expliquer dans notre logique, notre logique humaine, ces espaces de représentation qu’a construits l’algorithme, ces espaces de features ou embedding si on reprend les termes techniques, et arriver, nous, à leur donner du sens. Il y a beaucoup de recherches pour essayer d’arriver à redonner de la logique humaine à ces alphabets construits par les machines.
France Charruyer : Est-ce qu’il y a, pour un homme, cet aveu d’impuissance, pour une femme aussi d’ailleurs ?
Jean-Michel Loubes : Pas du tout ! C’est un challenge qu’on doit relever, à la fois les scientifiques qui travaillent sur ces algorithmes, essayer de donner du sens à ces espaces de représentation, de grande dimension, non seulement donner du sens, mais on voit que ces espaces, souvent, ne marchent pas puisqu’il y a beaucoup de problèmes : si on prend les modèles de langage, il y a toute cette problématique liée aux hallucinations de ces modèles de langage. On voit bien que même ces gros modèles manquent de logique. Donc, essayer de réduire cette dimensionnalité, essayer d’apporter de la logique extérieure, essayer d’hybrider l’IA avec des connaissances logiques, un petit peu comme ce qui se faisait dans des systèmes experts, c’est sans doute une des solutions pour essayer d’améliorer l’IA.
France Charruyer : L’hybridation ?
Jean-Michel Loubes : Tout à fait, l’hybridation avec des contraintes physiques, des contraintes logiques, c’est-à-dire ne plus laisser la machine apprendre toute seule avec des données, mais essayer de la guider lors de son apprentissage. Un petit peu comme lorsque vous avez des enfants, vous les envoyez à l’école et, à l’école, ils sont face à des experts qui vont essayer de guider leur apprentissage.
France Charruyer : Donc tout va bien. On va dépenser beaucoup d’argent pour envoyer les IA à l’école et on se pose beaucoup moins de questions pour tous ceux qui vont, je pense toujours à mes clients, payer deux dollars de l’heure, qui vont modestement, au mieux au Brésil, photographier des cacas de chiens, dans ce que j’ai appris, pour améliorer les algorithmes d’apprentissage profond et de reconnaissance faciale pour les aspirateurs ; les fameux Kényans qui vont trier, sans parfois comprendre, ces bases de données d’apprentissage et toujours plus d’investissement pour faire en sorte que les IA s’améliorent. Mais les humains vont-ils arriver à s’améliorer et suivre le rythme ?
Jean-Michel Loubes : Si on repart sur la problématique des biais, c’est un domaine qui est très intéressant, parce que, quand on essaie d’étudier les biais algorithmiques, en fait, ça révèle nos propres biais, ça révèle plusieurs aspects importants de notre intelligence, la manière avec laquelle nous pensons, nous traitons l’information. Quand on essaie de détecter et de corriger ces biais algorithmiques, ça nous apprend tout d’abord que, comme ces machines apprennent à partir des données que nous leur fournissons, ces données reflètent et amplifient nos stéréotypes.
Ensuite, bien que l’intelligence humaine soit capable de logique profonde, les biais analytiques révèlent que nous pouvons, nous aussi, échouer à anticiper les conséquences complexes et systémiques de nos propres créations intelligentes. En fait, si ces machines créent du biais, c’est aussi parce que nous avons choisi de mauvais objectifs, de mauvais indicateurs de performance et qu’on les amène à avoir des raisonnements biaisés.
Cette présence de biais peut aussi nous permettre de prendre conscience des efforts que notre société doit mettre en œuvre, justement, pour corriger ces biais. Le fait même qu’on puisse arriver à s’interroger sur la présence de biais est quelque chose qui révèle aussi, si on est optimiste, notre capacité, en tant qu’humains, d’essayer de réfléchir sur nos propres créations et de vouloir améliorer les algorithmes, donc la société.
France Charruyer : On peut s’interroger sur les investissements qui vont être consacrés pour faire en sorte que les IA aillent à l’école pour s’hybrider au mieux et le fait que le travail humain, les savoir-faire vont être, on va dire, ravalés à une portion congrue, qu’est-ce que cela dit de nous ?
Jean-Michel Loubes : D’abord, ça montre l’interaction étroite entre technologie et société. Ça démontre comment nos valeurs, nos normes, nos structures sociales sont intégrées dans la technologie que nous créons et ça montre, de la même façon, que ces technologies influent sur la société. Ça montre que, quand on crée ces algorithmes, il faut peut-être essayer d’encadrer ces processus de création ; ça montre aussi qu’on a besoin de surveillance, peut-être de textes de loi.
France Charruyer : Je n’aime pas trop le mot « surveillance ». On est en train de sombrer dans un capitalisme de surveillance avec une horizontalisation de cette surveillance. On va reprendre, on va faire attention aux mots et aux concepts qu’on est en train de déployer sur cette gouvernementalité algorithmique qui va nous dévorer, me semble-t-il ; ramener un peu, non pas de bon sens, mais d’équité, de robustesse, d’explicabilité dans les algorithmes c’est se poser la question, encore et toujours, de l’usage infine des systèmes d’IA. Ce n’est pas la même chose de savoir si j’ai envie de manger, grâce à un algorithme, un yaourt à la fraise ou à la framboise, l’impact n’est pas le même que celui qui va peser sur un algorithme de recrutement.
Jean-Michel Loubes : Tous ces débats montrent la complexité des conceptions de la morale et de l’éthique qui sont cruciaux dans le contexte de l’IA. Ça nous pousse à réfléchir sur ce que nous considérons comme juste, équitable et éthique dans un monde totalement automatisé. Parfois, le diable est dans les détails : on peut regarder un système de recommandation, on peut se dire que ce n’est pas grave d’avoir des recommandations sur un site de vente qui soit, par exemple, genré et où l’origine ethnique joue un rôle très important. Mais si ce même site est utilisé, par exemple, pour des annonces d’emploi, on va conditionner l’accès à l’emploi à des recommandations qui sont biaisées.
France Charruyer : Mais le droit régule toujours ces rapports de force. On arrive, justement, sur ces tentatives de régulation un peu partout dans le monde, avec des monopoles. Je pense aux grandes plateformes et aux gros opérateurs des Large Language Models qui se présentent comme des pompiers pyromanes, c’est-à-dire qu’ils allument un feu, puis, ensuite, ils s’érigent en sauveurs de l’humanité pour avoir une régulation sur mesure.
En Europe, nous avons fait le choix de l’IA Act [3] qui se veut la première régulation mondiale. Que pouvez-vous nous en dire ? Est-ce qu’on va s’en sortir avec la régulation ? Est-ce que ça suffira ? Qu’est-ce que des chercheurs, comme vous, peuvent nous apporter ?
Jean-Michel Loubes : Les chercheurs, comme moi, nous avons besoin de travailler en interaction avec, justement, d’autres chercheurs dans des champs comme le droit, l’éthique. Toute cette problématique, on le voit bien, est une problématique vraiment multidisciplinaire, puisque, quand on cherche simplement à apporter des solutions techniques, on échoue souvent dans notre ambition sociale.
Je pense que la régulation est quelque chose de nécessaire. Arriver à demander de l’explicabilité et de l’intelligibilité aux décisions algorithmiques lorsque ces décisions algorithmiques sont utilisées dans des systèmes à haut risque comme l’accès aux ressources publiques, l’accès, on le voit de plus en plus, à la santé, l’accès même aux transports, eh bien ces décisions impactent la vie de tous les jours.
France Charruyer : Pour rappel, l’IA Act adopte une régulation qui est fondée sur une approche à deux niveaux, une approche dite par les risques avec une granularité du risque – risque faible, risque minimal, risque élevé –, donc, les obligations vont être plus importantes pour les risques dits élevés. Mais est-ce que cette approche se suffit à elle-même puisqu’elle se double d’une autre régulation sur la puissance de calcul ? Est-ce que vous considérez que cela suffit ou ne faudrait-il pas, en plus, être plus pragmatique, introduire du droit souple et avoir une régulation par l’usage ?, parce que c’est compliqué de réguler de manière générale.
Jean-Michel Loubes : Je suis convaincu que la régulation de l’IA, en général, passe par l’étude des cas d’usage. C’est très compliqué d’établir des règles générales qui seraient valides pour tout système d’IA, ça pourrait, dans certains cas, freiner l’innovation technologique. Par contre, s’intéresser aux cas d’usage, arriver à encadrer et surtout à comprendre l’impact des décisions algorithmiques et, à partir de là, donner un sens à ce que devrait être un bon algorithme, me paraît une bonne voie à suivre.
Je ne connais pas le texte de l’IA Act, parce qu’il n’est pas encore disponible.
France Charruyer : On fera un podcast spécifique sur la question, rassurez-vous.
Jean-Michel Loubes : Il me semble qu’il définit justement, avec la granularité dont vous avez parlé, certains domaines d’application et, en fonction des risques de ces cas d’usage, les règlements vont changer. Je pense que c’est plutôt une bonne chose d’arriver à s’intéresser aux conséquences et à adapter la régulation en fonction de l’impact.
France Charruyer : Ce qui me trouble, c’est l’espèce de forum legal shopping auquel on est en train d’assister, c’est-à-dire que pour des raisons de croissance, de performance, de stimulation de l’innovation, chaque pays, ou chaque empire en fonction de la façon dont on les qualifie, est en train d’avoir sa propre régulation : l’approche anglaise est sur la notion des sandbox, c’est-à-dire des bacs à sable qui vont permettre de développer ces fameux cas d’usage ; c’est sur une approche beaucoup plus souple sur l’intérêt légitime, là où, en Europe, on a une approche beaucoup plus stricte que certains dénoncent au plus haut degré de l’État, au plus haut niveau de l’État. Est-ce que le fait de vouloir absolument notre champion a encore du sens, quand on sait que, capitalistiquement, ils s’appuient sur Google ? Est-ce que l’open source sur des modèles plus petits ? Vous disiez tout à l’heure que c’est très compliqué de pouvoir rendre explicable des grands modèles de langage qui fonctionnent sur 300 milliards de paramètres, est-ce qu’il ne faudrait pas être plus modeste, puisqu’ils hallucineraient moins si on était sur des modèles plus petits et ça serait peut-être moins énergivore ? Est-ce qu’on se pose sérieusement la question de l’impact environnemental ? Ça consomme énormément d’eau. Quand je parlais des cas d’usage, est-ce que l’IA ne doit pas être réservée, justement du fait de son impact, à des universités, à des chercheurs ? On l’avait vu sur Bloom [4], ils n’ont pas voulu faire un boom capitalistique alors qu’ils étaient déjà très avancés, estimant que leur création n’était pas suffisamment sûre encore. Ne doit-on pas être plus modeste ?
Jean-Michel Loubes : Si on parle d’impact écologique, c’est une vraie problématique, mais qui est double. D’un côté, vous avez l’utilisation d’algorithmes très compliqués sur des tâches qui, sans doute, ne sont pas intéressantes et, d’autre part, vous avez beaucoup de recherche de personnes qui essaient de créer des IA qui sont beaucoup plus frugales, qui consomment moins d’énergie. La problématique de cette recherche de frugalité, c’est l’effet rebond bien connu en science : quand vous essayez de créer une IA beaucoup plus frugale, beaucoup plus de personnes vont développer et, in fine, l’impact écologique est plutôt négatif.
Faut-il réserver l’IA à la recherche ? Je ne pense pas. Actuellement, les plus gros chercheurs en IA sont dans des entreprises américaines, c’est d’ailleurs une des problématiques principales qui est qu’en Europe on n’a pas réussi à créer un champion de l’IA même si, et c’est à souligner, la plupart des chercheurs qui ont créé ces IA sont des chercheurs européens, beaucoup français, qui sont partis en Amérique ou dans d’autres pays et ça peut permettre de s’interroger sur l’attractivité de l’Europe et de la France pour les chercheurs.
France Charruyer : Les chercheurs tels que vous, s’ils veulent rester en France, sont donc en recherche de laboratoires qui soient financés. La science a toujours été un savoir critique, mais on a besoin qu’il se construise toujours contre le savoir de la majorité.
Aujourd’hui, on peut aussi se poser la question de la rationalité, la rationalité inhérente au système d’IA et l’impossibilité de prévenir complètement les biais et puis, peut-être parfois, est-il nécessaire d’avoir des biais dans certains contextes ? Est-ce que ça ne va pas affecter notre approche de l’éthique et de la réglementation de l’IA ? Des chercheurs vous disent, aujourd’hui, qu’il faut essayer le Thinking, Fast and Slow [5]. Comment faire ? Je crois que c’est Daniel Kahneman [6] qui parle comme cela : comment, dans cette approche « modeste », entre guillemets, mais lucide, et je vous remercie vraiment d’être lucide non pas sur le fait de notre impuissance mais le constat que nous faisons face au monopole aujourd’hui américain et au risque de « McDonaldisation » de la pensée, qu’aimeriez-vous dire à ceux qui nous écoutent ? Qu’aimeriez-vous faire ? Quelle serait votre envie pour aller plus loin, au-delà de vos propres travaux et de ce que vous faites pour les organisations ?
Jean-Michel Loubes : France, on vous connaît, il y a trois questions et trois, dans cette dernière question, c’est peut-être encore faible !
Une des façons par laquelle j’ai envie de répondre c’est : pourquoi faire de l’IA ? Est-ce que l’IA, par ses progrès, va servir les hommes, va les éclairer, va les libérer de l’ignorance ? Est-ce qu’on peut créer une IA qui va peut-être contribuer à rendre les hommes meilleurs ? Dans un monde où nos actions sont dictées par le passé, où la volonté humaine est subordonnée aux prédictions d’hier, si on a une IA qui est la même pour tous – vous avez parlé de « McDonaldisation » de la pensée – notre avenir va s’assombrir avec cette espèce d’université menaçante, une IA qui arriverait à sortir les mêmes décisions pour tous, une espèce de vérité immuable, une réalité figée ; vous nous dépeignez un monde orwellien, quasiment dépourvu de liberté. Et, dans ce monde, il y aura peu de place à la singularité, peu de place à la créativité.
Je suis un peu plus optimiste parce qu’on a vu que les IA, elles-mêmes, peuvent faire preuve de créativité ; ce n’est pas une créativité débordante. En fait, ce qui est important, c’est que si on arrive à rendre l’IA explicable, à contrôler un petit peu les décisions au moyen de réglementations, on pourra imaginer un dialogue entre l’IA et l’homme. On est en train d’essayer d’avoir des IA apprenantes, mais si on arrive à mieux évaluer, mieux comprendre les décisions de l’IA, on peut imaginer un partenariat, que ce ne soit pas simplement le machine learning, mais que ce soit aussi le human learning, que l’homme puisse apprendre de la machine.
France Charruyer : Merci vraiment Jean-Michel.
Rejoignez-nous pour ces conversations, peut-être homme/machine demain, qui sont, à la fois, sérieusement informatives et agréablement divertissantes, vous le voyez, parce qu’en fin de compte, si on ne peut même pas rire de l’apocalypse des robots ou de la nôtre, de quoi peut-on rire ?
À bientôt dans l’arène des IA où Sam Altman [7] règne peut-être. Jardiniers de pixels qui sèment leurs graines, les machines s’éveillent, empruntent nos esprits lentement, n’ont plus qu’à s’éveiller.