Diverses voix off : Mesdames et Messieurs, bonjour. Je suis un superordinateur CARL, cerveau analytique de recherche et de liaison.
C’est une machine qui ressent les choses.
On nous raconte n’importe quoi sur l’IA ! Qu’est-ce que tu en dis ? — Moi, je n’en dis rien du tout.
La créativité, elle reste du côté humain.
Jean-Philippe Clément : Bonjour à toutes et à tous. Je suis Jean-Philippe Clément. Bienvenue sur Parlez-moi d’IA sur Cause Commune, la radio pour débattre, transmettre et comprendre.
Transmettre et comprendre, c’est aussi l’objectif que se fixe cette émission sur le sujet spécifique des data, des algorithmes et des intelligences artificielles. Nous avons 30 minutes pour essayer de mieux comprendre ces nouveaux outils.
Cause Commune, que vous pouvez retrouver sur le Web, cause-commune.fm, avec sa superbe app Android, également, qui est présente sur les stores, sur la bande FM 93.1 à Paris et le DAB+ et en podcast sur votre plateforme préférée. En parlant de podcast, si vous êtes dessus, merci de liker, de mettre des étoiles, de mettre des commentaires, tout cela manipule l’algorithme et c’est bon de manipuler un algorithme.
Merci beaucoup, Jérôme Sorel, de réaliser cette émission. Merci à Olivier Grieco, notre directeur d’antenne, de nous permettre de parler de data et d’IA ici.
Cette semaine, nous allons aborder la question des limites techniques de différents systèmes d’IA qui nous sont souvent présentés comme parfaitement matures et opérationnels, mais dont l’usage et les conséquences peuvent être gravissimes pour un pays, pour une société, surtout pour des individus et leur liberté : les systèmes de reconnaissance faciale. Ce sujet est particulièrement sensible. Jusqu’à son adoption définitive à l’Assemblée, en mars 2023, la loi relative aux JO 2024 [1] et à la sécurisation des événements a tourné autour de ce système pour, finalement, le rejeter. Au final, la loi prévoit quelques dérogations et expérimentations de la vidéosurveillance intelligente jusqu’au 31 mars 2025, c’est quand même très loin des JO ! D’ailleurs, le Conseil constitutionnel a un peu questionné ce délai. Les caméras seront capables de détecter, en temps réel, des événements prédéterminés comme des mouvements de foule, un sac abandonné, des comportements suspects dans les lieux accueillant des manifestations, à leurs abords ou dans les transports en commun. Tout ceci ne concerne pas la reconnaissance faciale, mais on voit bien que le législateur a manié ce sujet avec des pincettes et pour cause, c’est explosif pour nos libertés et certaines histoires d’erreurs techniques, dont on va reparler, font froid dans le dos.
C’est donc une question complexe, mais, heureusement, notre invité du jour va pouvoir nous guider. Il est journaliste spécialisé, reconnu avec ses articles détaillés, notamment depuis de nombreuses années sur InternetActu [2], sur différents blogs, le sien notamment, hubertguillaud.wordpress.com [3], et même, parfois, au micro de cette radio, il était encore là en septembre dernier. Il a aiguisé l’esprit critique sur le numérique de plusieurs générations depuis le début des années 2000.
Bonjour Hubert Guillaud.
Hubert Guillaud : Bonjour. Merci.
Jean-Philippe Clément : Merci d’être avec nous dans le studio de Cause Commune ce matin, en cette heure matinale et fraîche.
Hubert, je voulais tout d’abord vous adresser publiquement mes excuses et vous dire aussi, un peu, ma fierté. En effet, quand je vous ai contacté pour vous proposer cette émission, vous avez eu l’honnêteté, et c’est rare, de me dire que nous avions réussi à vous surprendre à l’écoute d’une émission précédente consacrée à l’intégration de l’IA dans Parcoursup [4]. J’en suis vraiment désolé, mais particulièrement fier, puisque l’on sait que vous préparez un essai sur le sujet. Nous y reviendrons peut-être juste après. Laissons ceux qui n’ont pas encore écouté cet épisode le découvrir, pour être aussi surpris que vous, potentiellement.
Hubert, Parlez-moi d’IA. Vous êtes revenu sur les limites de la reconnaissance faciale dans un article [5] récent, détaillé, que nous allons remettre en description de l’émission. Tout d’abord, peut-être nous expliquer comment fonctionne, finalement, la reconnaissance faciale avec l’IA telle que vous la comprenez.
Hubert Guillaud : Le problème de la reconnaissance faciale, c’est qu’on pense qu’on est dans un épisode de NCIS, alors, qu’en fait, on est dans un épisode de Derrick. On pense que ça fonctionne vraiment magnifiquement, qu’il suffit de mettre une photo dans un système et qu’on va avoir le matching parfait qui va nous sortir, un pour un, la personne qui correspond exactement à la photo qu’on a intégrée dans le système.
Jean-Philippe Clément : Et cela marche vraiment chez Derrick ?
Hubert Guillaud : Chez Derrick il n’y en a pas, donc ça ne fonctionne pas. En fait, c’est ça le problème. On pense, aujourd’hui, que tous nos systèmes techniques sont extrêmement fiables, extrêmement précis et, en fait, ce n’est pas le cas du tou, la plupart du temps ils sont défaillants. C’est ce qu’on va essayer de regarder, justement, avec la reconnaissance faciale : pourquoi sont-ils défaillants et comment ça fonctionne ?
Jean-Philippe Clément : Du coup, on peut peut-être partir, dans le fonctionnement, sur les sources de données. Aux USA par exemple, ou ailleurs, quelles sont les sources de données principales de la reconnaissance faciale ? Sur quels fichiers s’appuie-t-on ?
Hubert Guillaud : Les sources de données peuvent être multiples.
Aux États-Unis, l’une des plus grosses sources c’est la base de données des permis de conduire, avec des millions d’Américains dont on a pris la photo d’identité, sur leur permis, et qui sont mises dans cette base de données. Bien évidemment, ces photos d’identité sur ces permis sont des photos souvent anciennes : c’est au moment où vous avez votre permis que la photo est prise et intégrée dans cette base.
C’est l’une des bases les plus utilisées aux États-Unis. Il y en a plein d’autres : les polices municipales ont aussi leurs propres bases, les agences fédérales ont également des bases qu’elles utilisent, il y en a qui récupèrent des choses via des systèmes sur Internet, donc des données et des photos qui viennent de tout et de n’importe où.
Il y a donc des tas de bases de données différentes qu’on peut interroger via ces systèmes.
Jean-Philippe Clément : D’accord. Du coup on lance une requête, une recherche sur ces bases à partir d’une photo ?
Hubert Guillaud : Prenons les choses du départ. D’abord, vous avez une photo qui vient souvent, en fait, d’un système de vidéosurveillance.
Jean-Philippe Clément : Généralement pas de très bonne qualité !
Hubert Guillaud : Généralement, justement, de très mauvaise qualité, avec des angles [de prise de vue, NdT] qui sont très problématiques : vous avez des gens vus du dessus, vus de côté, etc. Vous avez déjà ce premier flux de photos qui sont souvent de mauvaise qualité, pixelisées, floues, dans l’ombre, en noir et blanc, donc, déjà, rien ne va, dont on va extraire une ou deux photos pour les intégrer dans cette base. Le problème, quand on fait le choix d’intégrer cette photo, c’est : quelle est la qualité, quel est l’angle, qu’elle est la pose, quel est le flou qui est donné ? Est-ce qu’on voit bien le visage, ou pas ? Quand on vous propose d’intégrer cette photo dans les systèmes, assez souvent on vous propose aussi de la corriger, ce qui est très surprenant. Il y a des fonctionnalités d’édition, un peu comme dans Photoshop, où le système va se dire « on va détourer la photo, on ne va prendre que le visage, on va la recadrer » ou, il y a une partie manquante parce qu’elle est cachée, donc le système va la ré-imaginer d’une certaine manière.
Jean-Philippe Clément : Finalement, c’est comme si on retouchait une empreinte digitale !
Hubert Guillaud : Exactement, c’est comme si on retouchait une empreinte digitale, avant de la mettre dans le système. C’est déjà le premier point : quelle est la qualité de la photo, etc. ? Très souvent les qualités sont très mauvaises et on a une photo qu’il faut donc faire reconnaître par ce système.
Ensuite, une fois que vous mettez cette photo dans le système, vous allez devoir choisir les bases de données que vous allez interroger. Donc, à nouveau, prenons la base des permis de conduire, vous avez bien compris, par exemple, que l’âge de la personne qui est en photo ne va pas correspondre du tout avec l’âge des personnes qui sont dans les bases.
Jean-Philippe Clément : Il y a forcément un décalage.
Hubert Guillaud : Forcément des décalages, donc forcément des problèmes d’appréciation autour de ça.
Le système est censé fonctionner, normalement, on le dit, à partir des traits du visage, c’est-à-dire qu’il va essayer de regarder une sorte de modélisation des traits du visage, qui est problématique en soi, ça rappelle des vieilles choses comme la physiognomonie, si je ne me trompe pas, c’est-à-dire qu’on va regarder les écarts entre la largeur du nez, sa longueur, etc., ces choses-là.
Mais il n’y a pas que ça qui rentre en compte, bien évidemment. Comme vous le voyez aujourd’hui dans les systèmes de reconnaissance d’image qu’on peut utiliser par ailleurs, on sait très bien que les questions de luminosité, d’ombre, la profondeur, la qualité de la photo, etc., vont favoriser, ou pas, certains types de reconnaissance, vont mettre en valeur des profondeurs, comme vous-même quand vous prenez une photo, même de vous, vous avez des tas de photos différentes où vous dites « je ne me ressemble pas du tout d’une photo à l’autre ».
Jean-Philippe Clément : Donc la source est biaisée et la base de données qui va être interrogée est aussi pleine de biais potentiels.
Hubert Guillaud : Elle est pleine de biais potentiels, bien évidemment. Par exemple, sur ces systèmes, des difficultés pour reconnaître des personnes âgées, des enfants, des femmes qui sont souvent moins nombreuses dans les bases de données.
Une fois que cette photo est rentrée, que la base de données est sélectionnée, on lance la recherche et là on a des résultats, un matching comme on dit. Le système définit qu’il y a 85 % de chances, que cette photo matche à 85 % ou elle matche à 90 %.
Jean-Philippe Clément : Vous dites qu’il n’y a pas une proposition.
Hubert Guillaud : Non, il n’y a pas une proposition : une fois que vous rentrez la photo, vous avez une liste de propositions qui sont faites, avec des scores, qui peuvent être des pourcentages ou un chiffre aléatoire qui vous donne une concordance, un matching, mais sans qu’on comprenne vraiment sur quoi est fait ce matching.
Jean-Philippe Clément : On ne sait pas expliquer.
Hubert Guillaud : Est-ce que ce sont vraiment les traits du visage, la couleur de peau qui est prise en compte, etc. ? Non, vous avez juste un chiffre, les raisons de cette concordance ne sont pas expliquées. Vous avez donc une liste avec une personne qui est à 95 %, une autre qui est à 87 %, etc., sans qu’on comprenne. La difficulté c’est de se dire « laquelle est la bonne ? », en fait.
Jean-Philippe Clément : Qui fait ce choix, du coup ?
Hubert Guillaud : En fait c’est l’opérateur, c’est l’agent qui a mis cette photo dans le système, qui l’a fait matcher avec une base de données, qui regarde les résultats qui lui sont apportés.
Jean-Philippe Clément : C’est Derrick qui fait le choix, à savoir quelle est la photo qui a la meilleure correspondance par rapport à ce qu’il recherche !
Hubert Guillaud : C’est derrick ! Voilà ! Et là, d’autres indications sont données en plus dans beaucoup de ces systèmes, par exemple les antécédents criminels des gens de la base de données, s’il y en a.
Jean-Philippe Clément : Il y a un lien, en plus, potentiellement, avec des infos qu’on aurait déjà sur cette personne qui matche pas mal avec le profil qu’on recherche.
Hubert Guillaud : Tout à fait. Non seulement on a vu qu’il y avait des vrais problèmes techniques pour essayer d’identifier une photo avec une autre, mais il y a également un vrai problème d’utilisateur qui est face à des concordances dans lesquelles il va devoir apprécier quelque chose. Donc, bien évidemment, s’il cherche un voleur, son regard va se porter, il va avoir tendance à regarder les antécédents de ceux qui ont déjà commis des vols, s’il cherche quelqu’un de tel État, il va éliminer, assez automatiquement, ceux qui ne sont pas du même État, par exemple. Il y a donc une appréciation qui est vraiment faite par l’agent qui consulte ces résultats.
Jean-Philippe Clément : Dans ces cas-là, il documente ? Lui-même, à un moment donné, est-il obligé de dire pourquoi il a fait ce choix-là ? On a le problème de la documentation d’algorithmes, on ne sait pas pourquoi, tout d’un coup, ça matche à 80, à 85 ou à 90 %, mais est-ce que l’opérateur dit « je fais choix-là parce que… » ?
Hubert Guillaud : Visiblement, on n’a pas cette documentation qui va avec. C’est lui qui va apprécier, d’une manière un peu personnelle, avec son expérience, parce que c’est un agent qui est un peu dédié à ce genre de chose, ou pas, ça peut être aussi de simples policiers qui peuvent faire ce matching via ces outils. C’est donc lui qui va dire « voilà la personne que j’ai rentrée, voilà les concordances que j’ai, à priori ce serait celle-ci plutôt que telle autre, etc. » Il va en éliminer plein parce que, en fait, le traitement fait plein de propositions, on a une liste de 10,15 ou 20 personnes qui sont sorties et on en choisit une parmi les 20. Donc, le reste, ce sont des faux positifs et la personne qu’on a choisie est peut-être, aussi, un faux positif.
Jean-Philippe Clément : D’accord. On a déjà bien posé la situation. Je propose qu’on fasse une petite pause pour digérer toutes ces belles propositions techniques.
Aujourd’hui, je fais un peu une infidélité à la Garlaban, notre programmateur musical, car je suis tombé sur une merveilleuse balade que je voulais vous faire partager comme ça, le matin, un peu tôt. Ça va nous faire sortir, ça va nous faire voyager. Je vous propose d’écouter Moon Boy de Inès Damaris, ça vient juste de sortir, c’est en ligne, c’est une jeune chanteuse. On écoute Inès tamaris.
Pause musicale : Moon Boy de Inès Damaris.
Jean-Philippe Clément : Merci Inès Damaris pour ce voyage. Si vous voulez découvrir cette artiste, elle a une chaîne YouTube et je vous conseille un autre titre qui s’appelle No One’s Monkey.
Vous êtes toujours sur Cause Commune en FM 93.1 à Paris, toujours Parlez moi d’IA, toujours l’épisode consacré aux limites de la reconnaissance faciale via l’IA avec Hubert Guillaud journaliste, spécialiste de ces questions numériques.
Hubert, on a fait un peu le point sur la façon dont ça fonctionne. Est-ce que, aujourd’hui, tout cela est quand même un peu encadré ? Comment est-ce encadré ? Comment est-ce réglementé ? Aux États-Unis ou en France, comment marche la réglementation autour de tout cela ?
Hubert Guillaud : En fait, il n’y en a pas !
Jean-Philippe Clément : Carrément !
Hubert Guillaud : Aux États-Unis, il n’y a pas de réglementation sur les usages de la reconnaissance faciale, à part les dispositions que peuvent prendre certains États, villes ou certaines polices. Il n’y a pas de réglementation unifiée, il y a des tas de collectifs qui appellent à sa non-utilisation, à son bannissement parce que, évidemment, vous avez compris que ça génère énormément de problèmes.
Jean-Philippe Clément : Parlons des problèmes qui ont été mis en avant, notamment par une chercheuse qui s’appelle Clare Garvie [6], qui a beaucoup étudié le sujet, beaucoup étudié les erreurs du sujet, pourquoi les erreurs finissaient par arriver. À un moment donné, Clare Garvie a notamment fait une découverte.
Hubert Guillaud : Oui, assez simple. Grosso modo, elle a fait un test : elle a pris une photo et elle a interrogé depuis deux algorithmes de reconnaissance faciale différents...
Jean-Philippe Clément : Reconnus et soi-disant matures.
Hubert Guillaud : Soi-disant matures, et sur des mêmes bases de données. Elle a utilisé deux fois les mêmes sources. Les deux propositions ont sorti des réponses qui ne correspondaient absolument pas : dans la première base, on vous renvoie 10 réponses, dans la deuxième base on vous renvoie 10 autres réponses et ce ne sont pas les mêmes personnes, alors qu’on interroge la même base de données. Ce qui veut dire que les deux logiciels de reconnaissance faciale, depuis les mêmes bases de données, à partir d’une photo identique, ne reconnaissent pas du tout les mêmes personnes.
Jean-Philippe Clément : Ça pose effectivement un petit problème.
Hubert Guillaud : C’est un énorme problème, pas un petit, c’est vraiment un énorme problème ! On voit ici le manque de fiabilité de ces technologies qui nous sont présentées comme sûres, fiables, efficaces, etc. Non ! Quand vous les regardez très concrètement, les résultats qu’elles renvoient ne sont pas les mêmes. Donc, bien évidemment, il y a un vrai problème démocratique derrière. Selon le logiciel que vous utilisez, vous n’avez pas la même réponse, donc vous n’avez pas les mêmes coupables potentiels !
Jean-Philippe Clément : Il faut quand même savoir qu’en France, depuis 2015 à priori, la police nationale et 200 polices municipales utilisent un logiciel d’analyse de vidéosurveillance, qui fait un peu ce que va faire le logiciel pendant les JO, c’est-à-dire repérer les événements un peu impromptus. Il a potentiellement une fonctionnalité de reconnaissance faciale, qui s’appelle Video synopsis [7], et qui, soi-disant, n’est pas activée, alors que le logiciel est complet quand il est livré. Ça dit quoi sur la situation ? Comment peut-on être sûr qu’un client, à qui on livre un logiciel, n’utilise pas la fonctionnalité qu’on lui propose ?
Hubert Guillaud : On n’est pas sûr, en fait, aussi simple que ça !
Aujourd’hui, en France, les systèmes de reconnaissance faciale sont effectivement accessibles à la police. Il y a une polémique récente sur Briefcam [8] , justement l’un de ces logiciels qui est utilisé par la police, qui est déclaré à la CNIL. On le sait par d’autres enquêtes, je pense à celle de StreetPress [9], par exemple, qui nous montrait que les policiers utilisaient assez régulièrement ce genre de système pour identifier des gens alors que normalement c’est interdit. Et, bien évidemment, la vidéosurveillance automatisée, c’est-à-dire le fait non pas de reconnaître des visages, mais de reconnaître des situations, des couleurs de vêtement, des gens qui passent d’un écran à un autre pour suivre des individus est également tout à fait problématique. Une enquête de Mediapart, de la semaine dernière ou de la semaine d’avant, montre, justement, les tests qu’a fait la SNCF sur ces systèmes et, bien souvent, montre que ça ne fonctionne pas très bien non plus.
Jean-Philippe Clément : D’accord. Ils n’arrivent pas à suivre quelqu’un dans une gare !
Hubert Guillaud : Contrairement à ce qu’on nous raconte, ça ne marche pas si bien, on n’arrive pas à suivre quelqu’un d’un écran à un autre. Il suffit que la couleur de son vêtement change avec la luminosité pour qu’on le perde, etc., donc tous ces événements. Tout cela nous est raconté avec une sorte d’efficience absolue, alors que ce n’est vraiment pas le cas.
Jean-Philippe Clément : Quelles seraient les pistes d’encadrement ? Qu’est-ce qu’on devrait graver dans le marbre ?, à part, potentiellement, dire « jamais ». On a reçu Quentin Barenne, de Wintics, qui fait de la reconnaissance vidéo, justement, de comptage de flux et qui a dit : « Même si on mettait de meilleures caméras, on ne fera jamais de reconnaissance faciale ». Il y a quand même des gens qui s’engagent à ne pas…
Hubert Guillaud : Oui. Il y a des entreprises qui s’engagent à ne pas faire de reconnaissance faciale, je pense qu’elles ont assez raison vu les défaillances des systèmes. Le problème c’est qu’aujourd’hui on achète des solutions sans savoir ce qu’elles permettent, ce qu’elles ne permettent pas, leur taux d’efficacité qui est très faible. Il y a un vrai problème. En fait, ces outils ne sont pas sérieux et on les vend comme étant des outils extrêmement sérieux. Je pense qu’il y a là un vrai problème démocratique.
Jean-Philippe Clément : C’est vrai que dans d’autres situations d’IA, de fonctionnalités, quand vous avez 85 % ou 90 % de concordance, ça peut bien se passer, quand c’est pour une recommandation d’itinéraire. Mais quand il s’agit, potentiellement, de votre implication dans une situation criminelle – on mettra le lien vers votre article -, il y a des dizaines des situations catastrophiques. Des gens se retrouvent impliqués dans des procédures, ne savent même pas qu’ils sont impliqués dans la procédure parce que, initialement, un système de reconnaissance faciale les avait fait matcher et se retrouvent, comme ça, complètement embarqués. On parle souvent de concordance avec l’IA, mais on n’a pas la même conséquence.
Hubert Guillaud : Tout à fait. Cette concordance est vraiment problématique. Dans des situations très graves comme celles-ci, où on essaye d’identifier un criminel potentiel, derrière ça va déclencher une enquête, une correspondance, on va aller chercher cette personne pour l’arrêter, sans qu’elle sache nécessairement qu’elle a été reconnue par un système de reconnaissance faciale, sans qu’on fasse toujours l’enquête nécessaire pour dire qu’elle était bien là au bon moment, ou pas, etc. Des tas de cas comme ça sont documentés et il y a aussi des tas de cas sur lesquels on ne sait pas si ça a matché vraiment ou pas, etc.
Jean-Philippe Clément : On a donc bien compris : pour l’instant on n’y est pas du tout, en France, même en Europe globalement, en tout cas ce n’est pas autorisé officiellement et ce n’est dans les mœurs des services de sécurité ou autres. Il va falloir continuer à être vigilants sur ce sujet.
Hubert Guillaud : Il faut être extrêmement vigilants et surtout, ce dont on a besoin, c’est de se dire que ces systèmes ne sont pas aussi infaillibles qu’on le pense. La télévision, la culture générale, les experts NCIS... nous ont montré un peu l’inverse. On pense que tout cela est magique, qu’il suffit de cliquer sur un bouton pour avoir la correspondance, en fait non ! Ce n’est vraiment pas le cas, ce n’est pas magique, ça ne fonctionne pas ça, fonctionne mal, c’est extrêmement défaillant, donc extrêmement problématique.
Jean-Philippe Clément : Merci beaucoup pour ce point. Je pense que c’est important d’en parler pour bien comprendre.
Vous êtes à ce micro, j’en profite, est-ce qu’on peut revenir un petit peu sur Parcoursup ? Vous allez bientôt sortir cet essai sur Parcoursup, est-ce que vous pouvez nous en dire un peu plus sur ce que vous avez découvert ?
Hubert Guillaud : On est sur la même chose en fait, on pense, encore une fois, avoir des systèmes infaillibles alors que, encore une fois, ils ne le sont pas. Pour moi, c’est le vrai problème du numérique : on a vraiment tendance à penser que ces systèmes sont parfaits et arrivent à distinguer, discriminer, préciser les choses, alors que non !
Dans Parcoursup, par exemple, on est censé distinguer les élèves, les lycéens, selon le niveau de leurs notes. Chaque commission locale va recevoir des tas de dossiers d’élèves et va essayer de les distinguer les uns des autres en faisant une sorte de matching, encore une fois, ce matching va prendre les notes, etc. Le problème de la prise en compte, par exemple, des notes, c’est qu’on va avoir des tas d’élèves qui sont candidats, on va essayer de voir le nombre de points qu’ils ont, leur moyenne, etc., et on va essayer de les distinguer tellement qu’au final on a deux élèves qui ont l’un 11,25 et l’autre 11,26 et on va dire qu’entre eux il y a une différence, c’est-à-dire qu’entre eux, un va être pris dans cette formation et l’autre ne va pas l’être. Si vous êtes un tantinet responsable, vous savez très bien, en tant que prof ou parent d’élève, qu’entre un élève qui a 11,25 et un élève qui a 11,26, il n’y a pas de différence, il n’y en a aucune !
Jean-Philippe Clément : Cela va provoquer des drames, du coup.
Hubert Guillaud : Voilà ! En fait, on a un système qui renforce la précision du calcul, mais qui ne renforce pas les différenciations.
Jean-Philippe Clément : Quelle serait l’idée ? Continuer à l’utiliser mais en n’ayant pas forcément quelque chose d’aussi tranché en termes de résultats ? Ou complètement l’abandonner, faire autrement, imaginer d’autres choses ?
Hubert Guillaud : Je pense qu’on peut tout à fait faire autrement et d’autres choses. Par exemple, il y a un grand problème aujourd’hui dans Parcoursup, c’est que la motivation des élèves n’est pas prise en compte par le système. Grosso modo, ce qu’on regarde principalement ce sont ses notes, ses moyennes, etc., avec lesquelles on va faire un classement et la motivation est juste dans la lettre de motivation, mais cette motivation n’est pas scorée.
Jean-Philippe Clément : 1500 signes.
Hubert Guillaud : Et n’oubliez pas, quand vous avez 5000 élèves, que ces lettres de motivation sont toutes les mêmes, grosso modo. On peut en distinguer certaines, mais très peu. Donc la motivation n’est pas prise en compte. On fait un système où on promet aux élèves « on va prendre en compte votre motivation pour vous affecter aux endroits où vous voulez aller » et, en fait, c’est une fausse promesse, encore une fois, parce que la motivation n’est pas prise en compte par le système.
Jean-Philippe Clément : Il faudrait peut-être améliorer les choses, peut-être, aussi, avoir plus de diversité dans la manière de présenter la motivation ?
Hubert Guillaud : Certainement. Derrière Parcoursup, en fait, c’est le système de l’Éducation nationale. Aujourd’hui, la difficulté c’est le manque de places dans des tas de formations, trop de places dans certaines comme les grandes licences générales et, à l’inverse, pas assez de places dans certains BTS, parce que, en fait, il n’y en a pas assez. C’est la grande difficulté de Parcoursup : Parcoursup organise un matching entre tous les candidats et le nombre de places disponibles. Il le fait assez bien, tout le monde remplit les places, le problème c’est qu’il y a plein d’insatisfaction. Selon les méthodes qu’on prend, c’est entre 10, 20 voire 40 % d’élèves qui sont insatisfaits par les résultats de Parcoursup. C’est un très mauvais résultat !
Jean-Philippe Clément : Et 30 %, à minima, quittent le premier cycle qu’ils ont choisi initialement. C’est quand même un des drames de l’orientation et d’années perdues, on pourrait dire ça comme ça.
Hubert Guillaud : Tout à fait. D’autant plus que quand vous avez perdu une année perdu, la deuxième année vous repassez dans Parcoursup et, la plupart du temps, vous n’avez pas une meilleure affectation.
On délègue à nos systèmes techniques des choix, des décisions, mais la vraie problématique c’est ce sur quoi ils se fondent.
Jean-Philippe Clément : Vous ferez quelques préconisations dans votre essai ?
Hubert Guillaud : Oui, on va essayer, bien sûr. Pour moi, aujourd’hui, la principale c’est de rouvrir les systèmes techniques et, surtout, de faire que les profs, les élèves, les étudiants, les formations puissent venir corriger les défauts du système. Aujourd’hui il est trop fermé sur lui-même, il faut rouvrir la discussion autour de ce que produit Parcoursup.
Jean-Philippe Clément : On a hâte. Quand sort-il ?
Hubert Guillaud : Cette année.
Jean-Philippe Clément : D’accord. Très bien.
Plus globalement, je voulais profiter que vous soyez à ce micro pour faire un peu un tour d’horizon. Vous suivez cette actualité au jour le jour, à l’heure près, vous voyez tout ce qui se passe, avant même d’ailleurs la sortie de ChatGPT en novembre dernier, encore plus avec cette espèce d’explosion depuis fin 2022. Comment voyez-vous toutes ces explosions-là, numériques et IA globalement ?
Hubert Guillaud : Pour moi, c’est un peu la même chose. Jusqu’à présent, le logiciel c’était un peu comme une calculatrice : vous faisiez un calcul, vous aviez un résultat et, en fait, il était fiable.
Avec des systèmes comme le matching et le scoring, vous avez aussi des calculs. Vous avez 98 % de résultats, vous avez 2 % de perte, vous savez, grosso modo, que vous pouvez en faire quelque chose. Le problème avec les systèmes comme les LLM [Large Language Models], ces modèles génératifs, c’est que les résultats ne sont pas reproductibles et là, d’un coup, ça change tout, parce que vous n’avez plus aucune fiabilité possible.
Jean-Philippe Clément : Une première réponse d’un côté et puis, si vous relancez la même chose, vous avez peut-être une autre réponse. C’est cela qui vous questionne le plus.
Hubert Guillaud : C’est comme si vous lanciez une reconnaissance faciale et, à chaque fois, vous aviez une réponse complètement différente !
Jean-Philippe Clément : Merci beaucoup pour ce partage. Merci pour votre éclairage sur la reconnaissance faciale, pour votre alerte aussi, je pense que c’est important de l’entendre. Merci d’être venu à ce micro, vous êtes ici chez vous, Hubert, vous pouvez revenir quand vous voulez pour parler d’un sujet, n’hésitez pas.
Hubert Guillaud : À très vite, alors !
Jean-Philippe Clément : Si vous faites un peu de vélo on peut aussi vous vous conseiller d’aller sur l’émission de Jérôme Sorel, Rayons libres, une autre émission.
Juste pour vous dire, en conclusion, qu’on est en train de lancer une petite expérimentation en parallèle de la radio et de l’émission Parlez-moi d’IA sur WhatsApp. Il s’agit d’une chaîne WhatsApp et l’idée c’est de diffuser au maximum une info, une astuce, une réponse à une question par jour dans ce canal-là et, dans ce canal-là, vous pourrez aussi trouver le moyen de nous poser des questions sur les choses de l’IA qui vous intéressent. Tout cela est anonyme, on ne verra pas que vous êtes sur cette chaîne-là, on ne verra pas que vous avez posé des questions, c’est juste entre nous, ça restera entre nous, mais vous pourrez profiter des infos des autres. Il faut juste activer la notification quand vous êtes la nouvelle chaîne.
Merci encore, Hubert, d’être venu ici. À une prochaine, sans aucun problème.
Hubert Guillaud : Merci à vous.
Jean-Philippe Clément : Restez sur 93.1 FM sur Cause Commune. Je vous laisse entre de bonnes mains, celles des émissions de Cause Commune, nous venons de parler de Rayons libres pour le vélo, on ne passe pas une journée sans pédaler.
Jérôme Sorel : Parce qu’après, elle est gâchée.
Jean-Philippe Clément : Parce qu’après elle est gâchée, merci Jérôme.
Libre à vous !, pour le logiciel libre, que vous pouvez retrouver. Vous pouvez retrouver l’émission dans laquelle Hubert est intervenu en septembre dernier, je vous mets aussi le lien, et maintenant ça devrait être Sous les lapsus de l’actu.
À bientôt.