Diverses voix off : Parlez-moi d’IA.
Mesdames et Messieurs, bonjour. Je suis un superordinateur CARL, cerveau analytique de recherche et de liaison.
C’est une machine qui ressent les choses.
On nous raconte n’importe quoi sur l’IA !
Qu’est-ce que tu en dis ? — Moi, je n’en dis rien du tout.
La créativité, elle reste du côté humain.
Jean-Philippe Clément : Bonjour à toutes et à tous. Je suis Jean-Philippe Clément. Bienvenue sur Parlez-moi d’IA sur Cause Commune, la radio pour débattre, transmettre et comprendre. Transmettre et comprendre, c’est aussi l’objectif que se fixe cette émission sur le sujet spécifique des data, des algorithmes et des intelligences artificielles. Nous avons 30 minutes pour essayer de mieux comprendre ces nouveaux outils.
Cause Commune, que vous pouvez retrouver sur le Web, cause-commune.fm, sur la bande FM 93.1 à Paris et le DAB+ et en podcast sur votre plateforme préférée, bien sûr.
Merci, d’être de plus en plus nombreux à nous écouter, nous vous le redisons à chaque fois, vos likes, vos étoiles, vos commentaires, sont nos seules récompenses. N’hésitez pas et pourquoi ne le feriez-vous pas maintenant ?, ce n’est pas mal ça !
Cette semaine, j’ai pris plaisir à écouter la table ronde proposée par l’Académie des sciences, intitulée « L’intelligence artificielle est-elle intelligente ? » [1] dont vous retrouverez, bien sûr, le lien, comme d’habitude, en description de cet épisode. Si vous l’écoutez, vous allez y recroiser Serge Abiteboul, Laurence Devillers, Gilles Dowek, les trois grands scientifiques, mais aussi auteurs de la pièce de théâtre qui met en scène une IA, intitulée Qui a hacké Garoutzia ?, que nous avions reçus ici dans l’épisode 10 de Parlez-moi d’IA [2] et que vous aviez particulièrement appréciés. Les trois spécialistes discutent également avec Anne Alombert, philosophe et auteur de Schizophrénie numérique et Daniel Andler, mathématicien et philosophe. Je vous recommande l’écoute de cette conférence, elle est très abordable et progressive. Elle débute sur la fameuse question de la définition de l’intelligence, un grand classique, fait un détour sur le décryptage des aspects techniques, toujours intéressant, et elle n’oublie pas d’aborder les questions sociales et sociétales. La parole est ensuite donnée au public qui pose quelques questions. Il est assez significatif d’entendre que la plupart des questions concernent des questions de société, des questions parfois anxieuses, des questions qui, justement, interrogent la notion de responsabilité individuelle et collective vis-à-vis de l’IA. C’est vrai que cette question de la responsabilité est cruciale, cruciale mais aussi multiforme et complexe, pas facile à aborder dans un contexte numérique.
Cela tombe bien, car notre invité du jour travaille la question depuis un petit moment maintenant. Il est ingénieur, maître de conférences en informatique à l’Université de La Rochelle depuis 15 ans. Depuis 10 ans, il est spécialisé dans le numérique responsable. Depuis 2018, il a créé l’Institut du Numérique Responsable [3] et il se focalise tout particulièrement, en ce moment, sur l’IA responsable.
Bonjour Vincent Courboulay.
Vincent Courboulay : Bonjour.
Jean-Philippe Clément : Merci d’être avec nous à distance.
Vincent Courboulay : C’est un plaisir !
Jean-Philippe Clément : Vincent, parlez-moi d’IA, mais, peut-être avant, parlez-moi de numérique. On peut peut-être commencer par se demander ce qu’est, finalement, le numérique responsable dans les grandes lignes ?
Vincent Courboulay : Dans les grandes lignes, déjà c’est un objectif, parce que, aujourd’hui, ce n’est pas une réalité. L’objectif d’un numérique responsable, ce sont des choix qu’on a faits à une époque pour trouver des mots qui étaient le plus représentatifs possible, finalement, de ce qu’on voulait faire. Ce n’était pas un numérique bio, ce n’était pas un numérique éthique, c’était un numérique dont les objectifs étaient beaucoup plus larges. À une époque ça s’appelait le green IT, le verdissement du numérique.
Le numérique responsable c’est une trajectoire, c’est un objectif, c’est une volonté pour atteindre deux choses :
ce sont tous les procédés qui permettent d’améliorer l’empreinte économique, sociale et environnementale du numérique, parce que le numérique a des impacts sociaux, environnementaux, économiques, on commence de plus en plus à le savoir, on pourra éventuellement parler de quelques chiffres plus tard ;
mais, en même temps, c’est aussi utiliser le numérique pour améliorer les processus économiques, sociaux et environnementaux dans d’autres secteurs d’activité.
C’est ce qu’on appelle en anglais le green IT et le IT for green, ce sont deux échos, c’est considérer le numérique pour ce qu’il est, à la fois problème, mais aussi solution et c’est tout cela le numérique responsable.
Jean-Philippe Clément : Rechercher aussi l’impact positif.
Vous êtes professeur d’informatique à l’université de La Rochelle depuis 15 ans et puis, il y a dix ans, tout d’un coup, vous commencez à vous intéresser au numérique responsable, j’imagine que c’est plus progressif que ça. Quel est, pour vous, l’élément déclencheur ? Qu’est-ce qui fait que, tout d’un coup, vous vous dites « là, il y a une question à creuser » ?
Vincent Courboulay : Il y a deux choses.
La première c’est une demande. À l’époque, on avait un président d’université qui a dit : « Écoutez les gars, les filles, vous êtes gentils. Tous autant que vous êtes, dans vos départements respectifs, je voudrais qu’en troisième année de licence vous montiez un cours : le nom de votre département et développement durable », donc mathématiques et développement durable, chimie et développement durable, droit et développement durable et, évidemment, il y a eu informatique et développement durable. Et là, globalement, tout le monde a fait un pas en arrière et je n’étais pas préparé à ça. Bien sûr, le sujet intéressé, j’ai toujours eu, je lâche le mot, une fibre écolo. J’ai profité de cette demande, de ce défi, pour monter un cours qui, au début, était clairement orienté plutôt green IT. Et quand on met le doigt dedans, on met la main, le bras, on met tout et, après, on met ses jours et ses nuits et puis, au final, quelques années plus tard, ce qui était juste un engagement pédagogique est devenu aussi un engagement en termes de recherche, parce qu’il y a de vraies questions qui se posent sur pourquoi, comment.
Jean-Philippe Clément : L’idée, c’est d’essayer d’ouvrir cette question, cette problématique du numérique responsable, au-delà de l’université, au-delà des cours auprès de vos étudiants, vers le monde extérieur, notamment le monde des entreprises mais pas que, d’ailleurs, le monde des acteurs publics également.
Vincent Courboulay : Exactement. Tout à fait.
Jean-Philippe Clément : Si on pouvait résumer les grands objectifs de l’institut aujourd’hui, quand vous on vous demande quelles sont vos cibles.
Vincent Courboulay : Ce sont quatre objectifs précis : comprendre, mesurer, décider, agir. Dans ces quatre thématiques-là, on se retrouve avec la volonté d’aider, d’outiller, de faire monter en compétences le plus possible de personnes qu’elles soient grandes, petites, publiques, privées, établissements, même à l’étranger, c’est ça qui est intéressant. On essaye d’apporter les éléments de compréhension, les outils de mesure, les démarches intellectuelles pour décider de faire et les guides pour mieux faire.
Jean-Philippe Clément : Vous proposez de commencer, j’imagine, à beaucoup de ces entreprises publiques et privées, par signer notamment une charte numérique responsable. C’est finalement leur premier engagement sur le chemin ?
Vincent Courboulay : Ça pourrait. Déjà on n’est pas du tout obligé d’être adhérent à l’association pour signer la charte. Ça a été une commande de l’État en 2017/2018. On était en train de travailler sur un label numérique responsable et puis, à un moment donné de la réunion, des membres du ministère de la Transition écologique se retournent et disent : « Au fait, vous pourriez nous écrire une charte ? — Oui bien sûr ! ». Je me suis rendu compte, après, à quel point c’était galère d’écrire une charte.
Cette charte [4] est non engageante, mais, quand on veut prendre le chemin, on a besoin de bonnes chaussures, on a besoin de cartes, on a besoin de routes pavées, on a besoin d’objectifs, ou pas, d’ailleurs. Cette charte est gratuite. Globalement, on y a mis vraiment toutes les bonnes pratiques, le bon mindset pour aller vers un numérique plus responsable. D’ailleurs, en 2024, je suis content de l’annoncer sur votre antenne, c’est une petite nouveauté, on va travailler sur une v2, parce que, depuis, il y a un truc bizarre qui s’appelle l’IA générative qui est arrivé et qui a un peu rebattu les cartes de ce que doit être, finalement, le panier global d’une charte. Si elle n’inclut pas l’IA, les données, les algorithmes, en fait, on passe un peu à côté du nouvel ADN d’un numérique responsable.
Jean-Philippe Clément : Du coup, combien y a-t-il de signataires de cette charte aujourd’hui ?
Vincent Courboulay : Ça change tout le temps. La dernière fois que j’y suis allé, la semaine dernière, on était sur plus de 600 signataires.
Jean-Philippe Clément : 600 organismes publics et privés.
Vincent Courboulay : Des gros, des petits. Un des premiers signataires, c’est une grande banque internationale rouge et noir.
Jean-Philippe Clément : Qui aime bien le rugby ?
Vincent Courboulay : Oui, c’est ça, absolument. On a eu peur parce que, tout de suite, elle a fait tourner toute sa batterie d’avocats pour être sûre de pas signer n’importe quoi ou signer des trucs trop engageants. On a eu l’excellente, vraiment la très bonne surprise du fait que cette batterie d’avocats ne nous a demandé aucune modification.
Jean-Philippe Clément : Aucune modification, parfait.
Vincent Courboulay : Ils ont signé la charte au niveau mondial en l’état.
Jean-Philippe Clément : Du coup, on peut devenir aussi adhérent de l’institut. Ça ouvre quelles particularités de devenir adhérent ?
Vincent Courboulay : Ça ouvre des particularités de participer à des groupes de travail, d’être un peu en avance de phase.
Jean-Philippe Clément : Y a-t-il aussi des formations ?
Vincent Courboulay : Des formations, non.
Jean-Philippe Clément : Ce n’est pas votre manière de travailler.
Vincent Courboulay : On ne forme pas, parce que chacun son métier. Par contre, on a proposé des MOOC, des Massive Open Online Courses, acronyme barbare pour dire des cours en ligne gratuits. Sur le site academie-nr.org [5] vous trouvez plusieurs heures de formation autour du numérique responsable qui, on l’espère, en 2024 vont s’enrichir d’un certain nombre d’autres cours qui peuvent être proposés par n’importe qui à partir du moment où on trouve le budget et que c’est validé ; il y a un comité éditorial.
Le MOOC fait partie du pôle comprendre.
La charte fait partie du pôle décider.
Après, on a des guides d’achats, on a des guides de bonnes pratiques qui font partie, eux, plutôt du pôle agir.
Et puis on a des beaux outils de mesure pour mesurer l’impact environnemental du numérique et, évidemment, ça fait partie du pôle mesurer.
Si vous tapez sur votre moteur de recherche préféré, qui n’est pas forcément Google, « WeNR », comme « Nous Numérique Responsable » [6], vous trouverez des outils gratuits, soit des outils pour avoir directement l’empreinte environnementale de son organisation, soit des outils un petit peu plus volumineux, on va dire. Là, il faut faire partie de campagnes de mesure annuelles, on en fait deux par an, et on a vraiment une évaluation quantitative et qualitative des impacts du numérique de son organisation et tout ça, évidemment, c’est gratuit.
Jean-Philippe Clément : Dans les outils, il y a aussi les guides de bonnes pratiques, notamment celui que vous avez coréalisé ou réalisé, d’ailleurs, pour le compte du ministère, encore une fois, qui date de 2023, donc il est assez récent, mais bizarrement, et vous l’avez déjà évoqué, ce guide ne parle pas trop d’IA pour le moment. On s’aperçoit que cette IA, qui a surgi fin 2022, a surpris tout le monde dans les travaux qui étaient en cours. Comment gérez-vous les choses, du coup ?
Vincent Courboulay : On les gère de façon assez simple. Si un guide sort en 2023 et qu’il est validé par le ministère, au vu de la réactivité de tous les acteurs, ça veut dire, globalement, qu’il a été préparé en 2021 ! Donc effectivement, aujourd’hui, une des premières questions des membres qui rentrent à l’INR c’est : « Vous êtes gentils, mais comment pouvez-vous nous aider au niveau de l’IA ? ». On leur dit que nous sommes une association dont la force ce sont ses membres, nous ne sommes pas une espèce de caste de quatre/cinq personnes qui ont la science infuse et qui étendent leurs mains sur la société en disant « prenez, ceci est mon corps, buvez, ceci est mon sang ». C’est vraiment la volonté de tout le monde de dire : là il y a un sujet, il faut l’approprier. Il y a des associations qui font le job un peu en amont et qui le font très bien. Par exemple, pour l’éthique, on va aller pointer vers ces associations ; l’Union européenne fait bien les choses aussi.
En 2018, quand on a fait l’asso, nous n’étions pas nombreux et nous avions le temps d’arriver avec des outils. Aujourd’hui, en fait, on a répondu à un besoin, on répond toujours et, au vu des enjeux du numérique, on va encore répondre longtemps à des besoins, mais, à la limite, on vient nous voir en nous disant : « Qu’est-ce que vous avez sur ce sujet-là ? — Laissez-nous travailler. Nous sommes quasiment tous des bénévoles. C’est en cours, venez jouer avec nous, venez nous aider, venez avec votre recul, vos expertises, venez avec vos problèmes, venez avec vos cas concrets, cas concrets de territoire, cas concrets de grandes entreprises et, une fois qu’on a ça, on le met au centre de la table et on réfléchit ensemble à apporter des solutions. » Et, si jamais il y a des sujets un peu trop complexes, on fait comme on a déjà fait plusieurs fois, c’est-à-dire qu’on lance des thèses, on sollicite des laboratoires, tout à l’heure vous avez parlé des tables rondes avec les trois pontes du domaine.
Aujourd’hui le problème de l’IA, et on viendra peut-être sur ce sujet-là, c’est qu’en fait le temps de la recherche, au niveau numérique, a été doublé il y a une dizaine d’années par le temps des start-ups et des laboratoires internes aux entreprises, ce qui fait qu’en fait, aujourd’hui, quand on commence à avoir un problème, par exemple se dire « l’explicabilité de l’IA c’est un vrai problème, on va creuser », un mois plus tard on a déjà une start-up qui nous dit « regardez, j’ai le dernier outil qui va vous permettre de comprendre l’explicabilité des IA génératives » et, en plus, c’est plutôt du bon boulot. Il y a donc cette espèce de confrontation de temps.
Jean-Philippe Clément : On va en reparler.
Vincent Courboulay : Je me doute.
Jean-Philippe Clément : C’est important de comprendre les conditions d’un numérique et d’une IA responsables, on va essayer de creuser.
Je vous propose, puisqu’on a déjà fait la première partie de l’émission, de faire une petite pause musicale. Garlaban, notre propre programmateur musical, nous a encore déniché un son bien planant, je vous conseille d’aller le voir dans la version live sur YouTube, les musiciens ont tous un masque des Mille et Une Nuits, c’est pourtant sorti un morceau sorti en 2021. On écoute Mirage des Glass Beams.
Pause musicale : Mirage par le groupe Glass Beams.
Jean-Philippe Clément : Vous êtes toujours sur Cause Commune en FM 93.1 à Paris, toujours Parlez-moi d’IA, toujours l’épisode consacré aux conditions d’un numérique et d’une IA responsables avec Vincent Courboulay, professeur d’informatique à l’Université de La Rochelle et cocréateur de l’Institut du Numérique Responsable [3].
On a commencé à aborder les questions, juste avant la pause.
Donc aujourd’hui, Vincent, des gens viennent vous voir et vous demandent : « Comment je fais de l’IA responsable ? Quelles sont les premières conditions, finalement aujourd’hui, pour faire de l’IA responsable ? Quelles questions doit-on se poser ? »
Vincent Courboulay : Déjà, on doit comprendre les enjeux. En fait, ce que je vous ai expliqué avant l’excellente pause musicale, ce sont toujours les mêmes : comprendre, mesurer, décider et agir. Si on ne comprend pas où sont les problèmes de l’IA et pourquoi l’IA, par définition doit, ou pas, être responsable, en fait on passe à côté. Une fois qu’on a compris les problématiques, il y en a vraiment plusieurs, c’est comment on évalue la criticité de ces problèmes-là, donc on est plutôt dans une phase de mesure et puis, après, on décide de faire des choses.
Si vous voulez faire un régime, je considère que le régime c’est l’action. Mais si vous ne décidez pas de faire un régime – vous pouvez prendre tous les exemples, arrêter de fumer, etc. – ça ne sert à rien. Si vous n’avez pas une volonté ancrée de faire, ça ne sert à rien. Pour avoir une volonté ancrée de faire il faut avoir des chiffres qui vous disent « là, je suis allé trop loin, etc. », la situation de départ, et après dire OK. Admettons que je décide de faire un régime parce que je suis en surpoids et si je ne suis pas capable de comprendre que ça vient de ma consommation de six litres de Coca par jour, en fait la chaîne ne tient pas.
En tout début d’émission, je vous parlais de ce chemin, de cette trajectoire, eh bien un chemin ça a un début, un milieu et une fin. C’est exactement pareil pour l’IA : où sont les enjeux ? Comment on peut-on les quantifier, voire les qualifier ? Est-ce qu’on veut vraiment agir et, si oui, comment ?
Jean-Philippe Clément : Du coup aujourd’hui, concrètement, les premières questions que les organisations se posent c’est dans la conception de l’algorithme ? C’est comment faire pour être un concepteur responsable ? Quelles sont les questions à se poser à ce moment-là, par exemple ?
Vincent Courboulay : C’est ça. En fait, souvent les entreprises savent qu’elles ne peuvent pas passer à côté de ce virage de l’IA générative ; très souvent, elles ne savent pas pourquoi, mais elles savent qu’elles ne doivent pas passer à côté. Pour éviter d’avoir affaire à des mouvements qui sont fatigants, qui peuvent mettre en cause leur crédibilité dans un moment où, effectivement, les années 2020 vont vraiment être des années de mutation, de transition vers le fameux monde d’après, je pense que les années 2020 vont vraiment être des marqueurs historiques de cette transition, donc elles veulent, à la fois, ne pas louper le virage de l’IA, mais elles ne veulent pas, non plus, louper le virage des problématiques du monde d’après. Ça servirait à quoi de laisser dire, par exemple, que les services de développement durable d’une boîte vont aller vers de la neutralité carbone, vont aller vers plus de respect, vont aller vers de la durabilité et, dans le même temps, qu’un service plutôt tech ou marketing veut faire de l’IA à tout crin et va faire exploser leur empreinte carbone, faire exploser leur consommation ou faire des fuites de données qui vont lui coûter 10 % de son chiffre d’affaires sur des pénalités suite à des procès juridiques. En fait, c’est un petit peu cette volonté de faire, mais, dès le début, ne pas mal faire.
Jean-Philippe Clément : En fait, on voit bien cette tension dont vous parlez.
Je reviens sur l’avis numéro 7 [7] du Comité national pilote d’éthique du numérique qui, dans son introduction, décrit bien cette tension. Cette tension-là est en rapport avec ce que le philosophe Hans Jonas, celui qui a inspiré le principe de précaution, disait, « le décalage entre les deux vitesses » — ce que vous ditesv—, la vitesse de l’action technologique. Aujourd’hui, il y a beaucoup de choses possibles, la technologie va très vite, des choses sortent très rapidement et puis la capacité qu’on a à prévoir les conséquences, à se demander ce que ça va pouvoir avoir comme conséquences individuelles, sur la société, sur les organisations, dans nos vies. Il y a donc un décalage qui fait qu’on est pris par certaines questions, notamment éthiques mais pas que, auxquelles il faut se référer et qu’il faut se poser. Vous en parliez tout à l’heure. Il est vrai que c’est fulgurant. On se dit « je ne peux pas être en dehors du mouvement, mais, en même temps, il faut quand même que je me pose les bonnes questions et c’est le moment de le faire. »
Vincent Courboulay : Si je devais prendre une analogie : imaginez que vous êtes sur une voiture et, qu’à un moment donné, vous avez les pneus sur la gauche qui, par exemple, rentrent sur une plaque de verglas, mais vous avez les pneus à droite qui, eux, sont toujours bien ancrés, sécurisés. Que fait la voiture ? Si vous n’êtes pas habitué à gérer ce cas, si vous allez trop vite, trop fort, si vous freinez, si vous donnez un coup de volant, vous savez ce qui se passe. Eh bien là, aujourd’hui, c’est ce qui est en train de se passer. Sociétalement parlant, individuellement parlant, territorialement parlant, on est au volant, finalement, de nos écosystèmes respectifs, qui sont plus ou moins gros, et on a des pneus qui commencent à déraper sur ce verglas d’IA générative. Nous sommes tous conducteurs à se dire « là il est en train de se passer un truc, on perd de l’adhérence d’un côté, qu’est-ce que je dois faire pour ne pas aller dans le mur et amener tous les gens, qui sont passagers avec moi, dans un mur ou faire une sortie de route ? ». Cette tension est là.
Jean-Philippe Clément : Du coup, comment vous organisez-vous à l’institut, aujourd’hui, pour répondre à cette tension ? Comment envisagez-vous les futurs travaux ?
Vincent Courboulay : Déjà, en tant que chercheur, je n’ai jamais vu autant de publications scientifiques sortir aussi vite sur les impacts. Autant on voit bien que les applications n’ont pas besoin de la recherche pour sortir et montrer à quel point l’IA est absolument transformatrice de la société. Je n’ai jamais vu autant de papiers sortir, je n’ai jamais vu aussi vite autant de textes de loi ou de volonté de légiférer. Donc, aujourd’hui c’est ça : c’est se dire que personne n’a la vérité absolue et on va aller piocher les papiers scientifiques, les textes de loi, les expérimentations qui sont faites dans d’autres pays ou au niveau de l’Union européenne pour essayer de mettre tout cela en résonance sans s’arrêter, sans tirer le frein à main, sans enclencher la marche arrière, parce qu’on sait très bien que freiner c’est dangereux, si je reprends l’analogie routière de tout à l’heure. Mais on sait qu’on doit ralentir, on sait qu’on doit maîtriser, et aujourd’hui c’est ce qu’on fait.
On essaye déjà de comprendre où sont les enjeux. Vous parliez d’éthique, mais on peut aussi parler de la partie énergétique, environnementale, on peut parler de l’épuisement des ressources, on peut parler de où se situent les datacenters.
Encore cette semaine, je lisais, dans un scénario pessimiste, que l’IA de Google, d’ici la fin de la décennie, consommerait autant d’énergie qu’un pays comme l’Irlande. Alors attention, dans un scénario pessimiste ! Mais, aujourd’hui, ces scénarios-là existent et le pool de comprendre doit être fondamental pour éviter de dire des bêtises.
Jean-Philippe Clément : Donc, aujourd’hui, vous recommandez de se focaliser sur la compréhension et regarder comment ça fonctionne.
Vincent Courboulay : La compréhension globale. Vraiment quels sont tous les enjeux. On met sur la table les enjeux environnementaux, sociaux, économiques, les enjeux d’innovation, je n’aime pas le terme de souveraineté – la souveraineté ça fait un peu trop repli sur soi –, les enjeux européens, les enjeux démocratiques, les enjeux de respect de la vie privée, et aujourd’hui c’est tout cela qu’il faut prendre en compte. Et puis, là on parle des problématiques, mais, à côté de cela, il n’a jamais été autant question de solutions apportées par l’IA : des solutions de traitement, des solutions de problématiques industrielles, de problématiques médicales, de problématiques mathématiques. Je ne serais pas étonné qu’un jour la grande loi universelle de la physique, qui va regrouper les quatre forces, nous soit apportée, potentiellement, par une IA, ce ne serait pas complètement déconnant.
Jean-Philippe Clément : Et, en même temps, il faut faire attention à ce que tous les gens qui s’engagent dans cette IA responsable ne fassent pas de la responsabilité washing, en se disant « je vais faire ça, mais ça, à côté, je ne vais pas trop le faire ». On voit bien que les grands acteurs ne sont pas tous prêts à vouloir être responsables, notamment en termes de transparence, en termes de publication de code.
Dans l’épisode 11 de Parlez-moi d’IA, on a fait un épisode spécial sur l’IA dans Parcoursup [8], je ne vais pas vous spoiler l’épisode parce qu’il est particulier, mais la créatrice du dispositif nous dit « moi, je fais de l’IA responsable, je fais de la diversité des données, je fais de la diversité des profils de développeurs », mais ça ne s’arrête pas là, en fait. C’est surtout, aussi, qu’est-ce qui est derrière, quel est l’objectif derrière votre dispositif qui peut être discuté et discutable ? On a parlé aussi d’enjeux environnementaux, il y a des annonces complètement folles, quand on pense qu’Apple vient d’annoncer qu’ils sont en train de faire des chipsets spécifiques pour que l’IA puisse tourner en local dans les téléphones. Ça veut dire que, demain, on va tous changer de téléphone parce que, sinon, l’IA ne pourra pas tourner sur nos téléphones !
Vincent Courboulay : On avait aussi eu cette crainte avec l’arrivée de la 5G en disant « il va y avoir des dizaines de millions... ».
Oui, il y a un renouvellement des matériels qui est beaucoup trop rapide, on le sait tous, on surconsomme du numérique. Il n’empêche, peut-être, que ce qu’Apple est en train de faire va arriver d’abord dans des téléphones qui vont coûter 2000 euros et puis, petit à petit, ça va se répandre. Nous sommes habitués à ce mouvement technologique qui est d’abord un mouvement de niche et puis un renouvellement. Je n’ai pas vu de mouvement majeur et massif de « je jette mon téléphone qui marche pour acheter un téléphone 5G », je ne l’ai pas vu !
Jean-Philippe Clément : Heureusement !
Vincent Courboulay : Je n’ai pas vu, aujourd’hui, des milliards d’ordinateurs qui partent à la poubelle pour faire tourner Windows 11. Ils sont en train de dire la même chose sur la sortie de Windows 12 qui mettrait Windows 11 à la poubelle. Il faut aussi se méfier un tout petit peu de ces annonces-là.
Pour revenir sur votre problématique de Parcoursup, c’est bien beau de faire de la diversité, mais si c’est pour flécher des formations ! C’est là, en fait, où on est sur la problématique qui est aujourd’hui énorme et elle est presque même, parfois, désarmante tellement on se retrouve devant une problématique avec des enjeux et une capillarité de problèmes qui est hallucinante, on a juste envie de dire « je ne sais pas par où commencer ! »
Jean-Philippe Clément : On compte quand même sur vous !
Vincent Courboulay : Le temps ne respecte pas ce qui se fait sans lui. Donc, aujourd’hui, nous sommes en train d’essayer de poser les problèmes. Par contre, c’est vrai, l’IA, elle, ne nous attend pas. C’est pour cela qu’il faut être à la hauteur. Après, il y a un vrai problème qui est celui de l’alignement de ce que l’État dit et de ce que l’État fait. Quand on dit, et on a encore des gouvernements qui sont assez friands dans le domaine, « il faut rester dans la course », c’est le truc !
Jean-Philippe Clément : Appuyons sur l’accélérateur.
Vincent Courboulay : La course de quoi ? La course pourquoi ? Je n’ai pas dit qu’il faut arrêter, mais il faut aussi se poser des bonnes questions et, aujourd’hui, l’État est tellement angoissé de passer à côté, voir Mistral [9], pour dire « bon, on a perdu la bataille de l’Internet, on a perdu la bataille de la recherche sur Internet, on a perdu la bataille de machin, on a perdu la bataille de truc, celle-là on ne va pas la perdre ! ». Je ne veux pas spoiler non plus, mais il y a de très fortes chances qu’on la perde aussi, parce que ce n’est pas dans une vision guerrière et de bataille qu’on arrivera à s’en sortir.
Jean-Philippe Clément : On va rester sur cette conclusion : se dire qu’il faut le temps de la réflexion, notamment avec l’Institut du Numérique Responsable [3].
C’est déjà le temps de conclure, Vincent, ça passe très vite.
Vincent Courboulay : Le temps passe vite, c’est vrai.
Jean-Philippe Clément : Merci beaucoup pour ce riche échange sur l’IA responsable.
Vincent Courboulay : Merci à vous de l’invitation.
Jean-Philippe Clément : On vous retrouve en suivant l’actualité de l’Institut du Numérique Responsable et on a bien compris que vous preniez à bras-le-corps, désormais, la question de l’IA responsable et, encore une fois, merci beaucoup pour notre échange.
N’oubliez pas, chers amis, de liker cet épisode, ça manipule l’algorithme et c’est cool de manipuler un algorithme. Restez sur 93.1 FM sur Cause Commune, je vous laisse entre de bonnes mains, ce sont les émissions de Cause Commune. À bientôt.