C’est moi le gars avec la chemise hawaïenne, je vois que j’ai fait quelques émules aujourd’hui, ce n’est pas mal, vous y viendrez, je vous assure.
On va parler d’intelligence artificielle ce matin et, en fait, j’ai une mauvaise nouvelle parce que je vais vous raconter que l’intelligence artificielle n’existe pas. C’est dommage ! J’en fais depuis plus de 30 ans, c’est un peu embêtant ! Celle qui n’existe pas c’est celle dont on nous rebat les oreilles depuis une petite dizaine d’années, mais surtout depuis six mois avec ChatGPT [1], cette intelligence artificielle qu’on présente dans les médias comme quelque chose de magique ou qui fait peur, ou qui fait rêver, ça dépend, j’appelle ça l’intelligence artificielle de Hollywood. Celle qui est dans les films comme Terminator, là ça fait plutôt peur, ou celle des films comme Her, il y en a à qui ça fait envie, pas à moi ! C’est cette intelligence artificielle-là, qu’on nous présente, qui n’existe pas. D’ailleurs, ce n’est pas une intelligence, il ne faudrait pas parler d’une intelligence artificielle, je pense que je vais vous expliquer ça ce matin, il faut parler d’intelligences artificielles au pluriel, parce qu’elles sont multiples et variées, il y en a plein.
Si j’ai vraiment à donner une définition d’UNE intelligence artificielle, je vais dire qu’UNE intelligence artificielle c’est une boîte à outils dans laquelle vous avez plein d’outils divers et variés et ce sont ça les intelligences artificielles, ce sont ces outils, le marteau, la scie, le tournevis, etc. Chacune de ces intelligences artificielles est très spécialisée, elle est très forte dans le domaine particulier pour lequel elle a été fabriquée et, par définition même de l’outil, elle est utile, c’est-à-dire que ça marche très bien, ça marche mieux que nous. Un marteau, ça marche mieux que nous pour planter un clou.
Ces intelligences artificielles sont effectivement puissantes et, on va y revenir, utiles et/ou dangereuses.
Je vais commencer par 1956, quand on a inventé le mot, on va dire l’expression « intelligence artificielle » [2], donc ça ne date pas d’hier, ça ne date pas d’il y a dix ans, ça ne date pas s’il y a six mois. 1956 c’est quand une tripotée de scientifiques américains se sont réunis à l’université de Dartmouth pour donner un nom au domaine sur lequel ils étaient en train de travailler. Ils avaient défini mathématiquement un neurone, c’est-à-dire qu’ils avaient défini une fonction, ils avaient dit « ça, ça a la capacité d’un neurone » donc on est capable, en mathématiques, de modéliser un neurone. Si on a un neurone, on peut modéliser un réseau de neurones ; si on a un réseau de neurones, on peut modéliser le cerveau ; si on a le cerveau, on peut modéliser l’intelligence. Le raisonnement que je viens de faire ici est évidemment complètement stupide et ça n’a pas marché, je vais y revenir, mais c’est là que ça a démarré.
Si on réfléchit bien, on fait ça depuis la nuit des temps. On essaye de trouver des outils, de faire des machines ou de faire des systèmes qui vont faire des choses qui ressemblent à ce que nous faisons : on essaye d’automatiser depuis la nuit des temps. On peut certainement aller aux Grecs, aux Égyptiens, même peut-être avant.
Comme je suis franchouillard de base, je vais faire démarrer l’intelligence artificielle, ou ce qu’on peut appeler comme ça, en 1642. Qu’est-ce qui s’est passé en 1642 ? En 1642, le mathématicien et philosophe français, Pascal, a inventé la pascaline [3]. La pascaline c’est quoi ? C’est la première machine à calculer, c’est une machine à calculer qui faisait des additions et des soustractions. Vous allez me dire que ce n’est pas très intelligent de faire des additions et des soustractions, mais si je vous demande combien fait « 649 + 1884 » [Attente, NdT]. D’accord ! Il y a deux solutions : ou vous êtes complètement idiots, c’est possible, on peut le dire comme ça, ou alors ce n’est pas intelligent de faire ça, je ne sais pas. En tout cas la machine, la pascaline, aurait eu ce résultat en moins de quatre secondes, parce qu’il suffit de tourner les mollettes. En plus de ça, la machine aurait eu juste, parce que, là, personne n’a donné de réponse, mais si vous aviez donné une réponse, il y avait à peu près 60 % de chances qu’elle soit fausse.
Ceci dit, c’est pour cela que ça fait très longtemps qu’on essaie de créer des machines qui ont l’air intelligentes, qui font des trucs qui ont l’air intellectuel.
Je reviens à mes amis de 1956. Je disais tout à l’heure que le raisonnement est stupide et c’est embêtant parce que non seulement ils ont donné le mauvais nom, « intelligence artificielle », à ce domaine, mais, en plus de ça, ils se sont attaqués au problème qui est certainement le problème le plus compliqué auquel on puisse s’attaquer puisqu’ils ont essayé de résoudre le langage naturel [4]. Langage naturel c’est quoi ? C’est ce qu’on fait ensemble : il y a un gars qui parle, il y a des mots, vous attrapez les mots et vous essayez de comprendre le sens. Les mots c’est relativement facile, le sens c’est compliqué. En 1956, avec les méthodes qu’on utilisait à l’époque, qui étaient ces méthodes statistiques, évidemment ils ont complètement échoué, ça n’a pas marché et on est entré dans ce qui s’appelle le premier hiver de l’IA. C’est quoi l’hiver de l’IA ? C’est un moment où on arrête de faire de l’IA parce qu’on ne donne plus de sous, parce qu’on nous a menti. On nous a menti, on nous a promis plein de choses, on ne les a pas faites, etc. Il y a eu plein d’hivers de l’IA après et il y a en un autre qui nous pend au nez si on continue à faire notre Laurent Alexandre [5] et à raconter n’importe quoi, on peut très bien arrêter l’IA. On a peur, c’est ce qui se passe en ce moment avec ChatGPT [1], on a peur, vous avez peur ! D’accord ! On nous dit n’importe quoi, Laurent Alexandre, ou alors on nous fait rêver et ça n’arrive pas.
Là nous sommes dans une période où il est très possible, à cause d’une de ces trois, quatre ou cinq raisons, qu’on arrête de travailler sur l’intelligence artificielle et ce serait dommage, parce que dans LES intelligences artificielles dont je parlais tout à l’heure, il y en a plein qui sont excessivement utiles, qui sont très utiles et il faut surtout continuer, il ne faut pas s’arrêter, mais il faut comprendre, il faut s’éduquer, donc il faut venir ici.
Dans les années 60, début des années 60, il n’y a donc plus d’intelligence artificielle, du moins il n’y a plus d’intelligence artificielle que je vais appeler statistique, celle qui essaie de modéliser les neurones, mais un autre type apparaît, c’est ce qu’on va appeler, ce que je vais appeler les intelligences artificielles logiques, vous en avez entendu parler, c’est ce qu’on appelle les systèmes experts [6]. Les systèmes experts c’est très à la mode dans les années 60/70/80/90 et ça arrive à son apothéose en 1997, quand le champion du monde d’échecs, Garry Kasparov, est battu par la machine Deep Blue, une machine d’IBM, qui bat effectivement Kasparov aux échecs et c’est super impressionnant parce que quand on joue aux échecs on est intelligent. Non ! En fait non. Les échecs c’est rigolo, c’est un jeu, il y a des règles. Ça tombe bien parce quand on parle des systèmes experts, ce sont des bases de règles, donc on rentre les règles du jeu dans la base, c’est relativement simple et, en plus de ça, il se trouve qu’aux échecs on sait exactement combien il y a de coups, 1049 coups et on est capable de rentrer pas mal de coups dans la machine. En 1997, il y a pas mal de mémoire, on est donc capable de calculer relativement facilement, parce qu’on a assez de puissance de calcul, n’importe quelle position à n’importe quelle position gagnante, très facilement. Kasparov, lui, n’est pas capable, Kasparov a 20 coups d’avance, il est fort, moi je n’ai que deux coups d’avance. Ce qui se passe est relativement simple, je ne sais pas si c’est de l’intelligence, en tout cas c’est impressionnant, c’est sûr.
Là on est dans les années 90 et dans les années 90 il se passe quelque chose d’autre qui fait que les intelligences artificielles statistiques, qu’on avait abandonnées 30 ans plus tôt, reviennent à la charge. Pourquoi reviennent-elles à la charge ? Parce que ce sont des statistiques, et pourquoi ce sont des statistiques, je vais vous dire cela juste après. On change quand même de nom, on appelle maintenant ça du machine learning [7], c’est la machine qui va apprendre des trucs, ça va être sympa. Pourquoi ce machine learning arrive-t-il en force ? Il arrive en force parce qu’en 1990, vous vous souvenez peut-être, au milieu des années 90 un truc arrive qui s’appelle Internet. Et Internet arrive avec beaucoup de données et, pour faire des statistiques, il faut beaucoup de données.
Là on est dans les années 2000, on fait maintenant même du deep learning [8], on ne se contente pas du machine learning, on fait du deep learning. Deep learning, ça veut dire quoi ? C’est exactement pareil sauf qu’il y a encore plus de données, de plus en plus de données. Vous allez voir, on va parler de ChatGPT [1], tout à l’heure, il y a beaucoup de données.
Au début des années Internet, parmi les gros montants de données qu’il y a, il y a beaucoup d’images de chats sur Internet. Vous allez vous dire « il a pété une durite le gars ! ». Non, il y a vraiment beaucoup d’images de chats, et puis les images de chats sont intéressantes pour les gens qui veulent faire des statistiques parce qu’elles sont annotées, c’est-à-dire que les gens mettent des images de chats sur Internet et disent « c’est mon minou, c’est mon kiki, c’est mon chaton, gnagnagna », donc on a une base de données d’images de chats relativement intéressante et on dit « on va utiliser cette base de données de chats pour faire le premier reconnaisseur de chats », un truc super intelligent !
On se rend compte qu’avec seulement 100 000 images de chats, on peut faire un reconnaisseur de chats qui reconnaît les chats à 98 %. Waouh ! Là, on arrive quand même au top de l’intelligence artificielle. On se rend compte qu’on est vraiment capable de faire des machines intelligentes, si on est capable de faire des machines qui reconnaissent les chats.
Là on se demande si ce machin est vraiment un truc intelligent parce qu’il lui faut quand même 100 000 images de chats, 100 000 images de chats c’est beaucoup. Surtout quand on se pose des questions et la question que j’ai posée à des gens, à des psychologues en l’occurrence, je leur ai demandé : « Combien d’images de chats faut-il à ma fille de deux ans pour reconnaître les chats ? ». La réponse des psychologues c’est « deux » ! D’accord. Donc, à ma fille de deux ans qui n’est pas forcément très intelligente, d’après moi elle est complètement con, il faut deux images de chats pour reconnaître les chats à 100 % quand même ! Et la machine qu’on est en train de fabriquer, l’intelligence artificielle, il lui faut 100 000 images de chats.
On est en donc train de fabriquer des trucs qui n’ont strictement rien à voir avec notre cerveau. C’est pour cela qu’il va falloir se calmer un tout petit peu quand on va dire, à un moment donné, « attention, ça va nous remplacer, tout ça », ça n’a strictement rien à voir.
En plus, je l’ai dit, cette machine qu’on a créée reconnaît les chats à 98 %. Vous savez pourquoi ce n’est qu’à 98 % ? Ma fille, elle, reconnaît à 100 % parce qu’elle reconnaît même les chats dans la pénombre, mais les chats dans la pénombre, il n’y a pas dans la database, parce que personne m’a posté d’images de chats dans la pénombre, on ne les voit pas, donc ça ne sert à rien. Si on ne les voit pas, ils n’existent pas. S’ils n’existent pas, on ne les reconnaît pas.
Ces systèmes ont donc aussi des limites de data, de données qui sont disponibles pour pouvoir reconnaître ce qu’ils sont censés faire.
Ça c’est réglé. On a parlé des données, on a parlé des systèmes qui sont idiots, qui ont besoin de beaucoup de données et qui n’ont strictement rien à voir avec notre cerveau. Pour amplifier encore là-dessus, on va passer en 2016 maintenant, et on va aller, cette fois-ci, à la machine qui a battu le champion du monde de go. Le go c’est rigolo, c’est un peu plus compliqué que les échecs, je disais tout à l’heure 1049 coups aux échecs ; si vous demandez aux mathématiciens combien il y a de coups au go, ils vont vous dire qu’il y en a entre 10200 et 10600 donc, en gros, je suis en train de dire qu’on n’en sait rien, mais on sait que c’est beaucoup. Récemment, j’ai donné cette conférence dans un lycée et un gars m’a dit « finalement, 10200 c’est seulement quatre fois plus que 1049 ! », c’est beaucoup plus, on est d’accord ! Il y a beaucoup de zéros derrière. OK.
C’est donc impossible d’utiliser les méthodes de logique qu’on avait utilisées en 1997, là on va effectivement utiliser des méthodes statistiques, on va utiliser du deep learning, c’est DeepMind, une boîte de Google qui fait ça. On ne va pas s’intéresser à l’algorithme, on s’en fiche, on va s’intéresser à la machine de DeepMind, qui fait tourner AlphaGo, le programme qui joue au go.
Cette machine n’est pas vraiment comme ça, c’est un dessin que j’ai fait – on ne sait jamais ! –, on va donc ouvrir ses entrailles et, quand on ouvre ses entrailles, on va voir qu’il y a à l’intérieur 1500 CPU, les CPU ce sont les chips, les puces d’ordinateur, donc 1500 puces d’ordinateur ; il y a 300 GPU, les GPU ce sont d’autres puces qui font du Graphics Processing Unit, ce sont des machins qui font du calcul matriciel, très intéressant pour faire du machine learning ; il y a encre un autre type de puces qui est nouveau à ce moment-là, qui s’appelle les TPU, Tensor Processing Unit, c’est pour faire des TensorFlow, TensorFlow, c’est une méthode de deep learning. Très bien ! Donc, le machin, ce sont 2000 ordinateurs ! 2000 ordinateurs pour jouer au go. 2000 ordinateurs c’est un petit datacenter. Un petit datacenter qui fait 440 kilowatts, 440 kilowatts pour jouer au go !
Là, il faut se poser une autre question. Le petit Coréen de 18 ans – d’ailleurs c’est bien fait pour sa gueule qu’il se soit fait ratatiner parce qu’il est infect – il a ça [Son cerveau, NdT] et ça [le cerveau], en watts, est-ce que vous avez une idée de ce que c’est ? Pas tous et surtout ce matin ! En général, c’est à peu près 20 watts. OK ! Là on est donc en train de créer une machine qui pète 440 kilowatts pour jouer à un jeu auquel le champion du monde est capable de jouer avec 20 watts ! Le gars est champion du monde, il n’était pas loin de battre la machine, il l’a battue quelquefois, elle l’a battu plus.
Encore une fois, on est en train de créer des trucs qui n’ont strictement rien à voir avec notre intelligence, avec notre cerveau, qui utilisent beaucoup plus d’énergie, beaucoup plus de données. Concernant l’énergie, ce qui est marrant aussi, c’est que cette machine, AlphaGo, elle ne fait que jouer au go. Le petit Coréen, lui, il sait faire la cuisine, il sait parler le langage naturel, vous savez, le truc compliqué, il sait faire plein de trucs avec ces 20 watts ; ça, ça ne fait que jouer au go. Si je veux que ça joue aux dames, il faut tout refaire ! OK !
Encore une fois, respirons, ces machines n’ont strictement rien à voir avec notre cerveau, avec notre intelligence. On n’aurait jamais dû appeler ça intelligence artificielle.
Comme je l’ai dit, il y a beaucoup de données dans ces systèmes, il faut utiliser énormément de données, on en utilise de plus en plus, ce sont des statistiques. ChatGPT, aujourd’hui, ce ne sont pas 100 000 morceaux de données comme c’était pour les premiers reconnaisseurs de chats dans les années 90/2000. On parle de 175 milliards de morceaux de données. On parle entre 1000 et 2000 milliards de mots qui sont ingurgités par la machine. C’est beaucoup ! En gros c’est Internet.
Malheureusement, quand il y en a beaucoup comme ça, ces données sont souvent, sont toujours biaisées. Je ne sais pas si on vous a dit que sur Internet il n’y a pas que des trucs vrais. Du coup, comme la machine a ingurgité des trucs qui ne sont pas vrais, pas vrais selon certains standards, par exemple la Terre n’est pas plate, à priori, mais, sur Internet on trouve des fois que la Terre est plate. Du coup ChatGPT [1], si vous insistez vraiment, il va vous dire que la Terre est plate, parce qu’il va vous rendre des données qui sont sur internet.
Donc les données sont biaisées, les données sont fausses et, malheureusement, ça donne de temps en temps des systèmes dans lesquels ça va se voir, enfin ça se voit tout le temps, ça se voit de plus en plus. Sur ChatGPT, puisque tout le monde l’utilise n’importe comment, on peut effectivement dire de grosses bêtises.
Je vais prendre un exemple de 2016, qui est l’exemple d’un chatbot, déjà, ce n’était pas ChatGPT, c’était un chatbot de Microsoft qui s’appelait Tay. Tay est sorti en 2016, c’était un chatbot qui était censé interagir avec les gens, sur Twitter, pour promouvoir les produits de Microsoft, l’idée était certainement très bonne ! Ils ont mis des mois à développer le machin et ils ont été obligés de le débrancher au bout de 16 heures de mise en service. Au bout de 16 heures de mise en service, Tay était devenu le chatbot le plus raciste et sexiste de l’humanité. Il n’y en avait pas beaucoup à l’époque, mais c’était quand même assez grave, donc ils l’ont débranché. Ils ne voulaient pas le débrancher, évidemment, ils n’avaient pas fait tout ce travail pour rien, il y avait quelque chose qui n’allait pas. Les scientifiques se sont penchés sur le problème, ils se sont demandés pourquoi ? Que s’est-il passé ? Ça n’a strictement aucun sens, on n’a pas créé ce truc pour le débrancher juste après.
Deux bugs ont été identifiés. Un premier bug qu’on va appeler un bug de logique, qui n’a rien à voir avec l’intelligence artificielle mais qui m’amuse donc je vais vous le dire.
Quand on crée un système d’interaction, on a petit slider, un petit curseur qu’on va adapter, c’est un slider d’adaptabilité au public auquel on s’adresse. Là, le slider était un peu trop haut, il s’est adapté au public auquel il s’adressait et le public, ici, c’était Twitter et, comme vous le savez certainement, au bout de deux/trois interactions sur Twitter on s’insulte. Eh bien là le truc, au bout de deux/trois interactions, il insultait les gens. La bonne nouvelle c’est que c’est assez facile à fixer : vous descendez le slider, vous récupérez la façon dont vous interagissez avec les gens et vous contrôlez le dialogue globalement, donc ce problème disparaît. Fastoche !
L’autre bug était beaucoup plus insidieux, beaucoup plus compliqué, c’était un bug de data. Ça veut dire quoi un bug de data ? Ça veut dire que les data étaient mauvaises.
Quand on fait un système d’interaction, ce sont des dialogues, il faut donc trouver des dialogues. On ne trouve pas des dialogues sur Internet comme on trouve des chats, il faut donc aller les chercher ailleurs. Il y a des systèmes, il y a des bases de données de dialogues, il y en a une qui s’appelle Switchboard, qui est très connue, qui est une énorme base de données avec des millions et des millions de conversations, des conversations qui sont enregistrées, retranscrites, on retranscrit les mots, et qui sont annotées. On dit « le gars a téléphoné pour sa machine à laver, il n’était pas content, etc. » C’est donc une énorme base de données qui est magnifique pour les gens qui font des systèmes d’interaction, qui permet de comprendre un peu les structures des dialogues.
J’imagine le gars de chez Microsoft à qui on dit : « Il faut que tu fasses le système Tay. Tu te débrouilles, tu prends Switchboard et tu nous fais un système ». Le gars dit : « OK, d’accord, il y a des millions de conversations, je ne vais pas pouvoir tout prendre, je vais prendre un sous-ensemble, je n’ai besoin que de quelques milliers de trucs pour créer mon modèle, je vais prendre le début de la base, Alabama années 50 ». Alabama années 50, vous imaginez que c’était un peu biaisé, je pense que les Blacks étaient dans une situation un peu délicate, un peu plus délicate que celle d’aujourd’hui, peut-être. Du coup, la base de données étant biaisée, le modèle était biaisé et il a fallu une petite étincelle pour qu’elle devienne complètement raciste et qu’elle détruise les Noirs dans les interactions de dialogues.
Il faut donc faire super attention. Je n’ai pas forcément la solution. Vous allez me dire que c’est fastoche, il suffit de bien regarder toutes les données et d’enlever les trucs qui sont un peu limite. Il y a deux problèmes avec ça.
Le premier problème, c’est que quand on a 100 000 images de chats, on peut peut-être trouver deux/trois images de chiens et les enlever. Fastoche ! Mais quand on a 175 milliards de morceaux de données, ça commence à être un peu plus délicat d’aller chercher les machins qui ne vont pas, parce qu’il y en a beaucoup.
L’autre truc c’est que quand on va commencer à balancer les data, à dire « je vais choisir les data », ce que je viens de dire ici « choisir les data », ça veut dire, quelque part, que je rentre mon propre biais et, quand je rentre mon propre biais, qui dit que éthiquement c’est moi qui ai raison ? Je ne sais pas. C’est donc un problème excessivement délicat : dès qu’on commence à faire des statistiques, il y a des choses qui sont certainement fausses et moi je vous dis que toutes les bases de données sont fausses. Il faut donc douter de ces systèmes. J’espère que cette population ici en est persuadée.
Bref, ça c’était mon ami chatbot sur Twitter qui a vécu 16 heures.
Un autre truc, on dit souvent « de toute façon il faut douter, il faut faire attention, ces intelligences artificielles sont des boîtes noires, c’est trop compliqué, on ne peut pas comprendre ce que ça fait. Ce sont des boîtes noires, il ne faut pas leur faire confiance. » Je vais modérer un tout petit peu, je ne vais pas dire exactement ça. Je vais dire que oui, il faut douter, je vais le répéter tout le temps, par contre, de temps en temps on peut faire confiance à ces boîtes noires parce que ce ne sont pas des boîtes noires ; en fait, ce sont des boîtes transparentes si on prend le temps de les expliquer. Il n’y a pas d’inexplicabilité en IA. Souvent on dit « inexplicabilité », on dit que c’est inexplicable, blablabla.
Comme toutes les sciences nouvelles, comme tous les trucs nouveaux qui arrivent, c’est compliqué, ça a l’air compliqué, mais, des fois, il suffit de quelques petites choses pour expliquer correctement pour que tout le monde comprenne.
Pour cela, je vais vous raconter une histoire qui est une histoire familiale. Je parlais tout à l’heure de ce brave Gaston Julia [9], qui n’est d’ailleurs pas mon grand-père, qui est un grand-oncle, ce n’est pas très grave. Ce brave Gaston a effectivement inventé les fractales, il a découvert une équation particulière qu’on a appelée les fractales, qui est un logarithme, bref ! Il a fait ça en 1914, le papier est publié en 1915. La communauté mathématique regarde cette équation, est absolument surprise par le machin, c’est super, mais, pour le commun des mortels, c’est une équation mathématique complètement incompréhensible. C’est un log, machin, blabla, on ne comprend que dalle, c’est une boîte noire pour la plupart des gens. Mais c’est une boîte transparente pour Julia lui-même qui a inventé le truc, qui a découvert le truc, il est donc capable d’expliquer ce que c’est, il est capable d’expliquer à ses collègues qui, eux, comprennent, les mathématiciens comprennent, mais c’est vrai que la plupart des gens ne comprennent pas forcément la mathématique qui est derrière cette équation.
1955, Julia est prof à Polytechnique, 40 ans plus tard et il a comme élève un garçon qui s’appelle Benoît Mandelbrot [10]. Benoît Mandelbrot part aux États-Unis, chez IBM, il a un des premiers ordinateurs à sa disposition. Il rentre l’équation de Julia dans l’ordinateur, il en profite pour l’appeler équation de Mandelbrot, on ne va pas se gêner ! Quand il affiche cette équation, apparaît à l’écran cette magnifique fougère, pour ceux qui savaient ce qu’était une fractale, et, quand on la regarde, on voit qu’à chaque niveau de la fougère c’est la même fougère, et la même fougère, et la même fougère. Cette propriété exceptionnelle qu’ont les fractales s’appelle la récursivité [11]. La récursivité devient complètement transparente pour n’importe qui : juste en regardant l’image, n’importe qui est capable de comprendre, la boîte noire est donc devenue une boîte transparente grâce à cette image. Pour ceux qui n’ont toujours pas compris, la récursivité c’est comme La vache qui rit !
Tant que je suis dans les trucs qui m’énervent, je vais vous parler de la voiture autonome. La voiture autonome, Elon Musk. 2015, Elon Musk nous dit : « La voiture autonome, c’est pour demain ». Super. Très bien ! 2018, « La voiture autonome, c’est pour demain ». 2021, « La voiture autonome, c’est pour demain ». 2023, « La voiture autonome, c’est pour demain ». Bon ! Elon Musk raconte n’importe quoi, je pense que vous le savez maintenant. Quand il parle de voiture autonome et quand je parle de voiture autonome, on parle de voiture autonome niveau 5, donc le niveau ultime de l’autonomie. Il y a évidemment 0, 1, 2, 3, 4 avant. Aujourd’hui, on est à peu près à 2,5, les Tesla sont à 2,5. Certains déclarent qu’elles sont presque à 3, je pense qu’on est effectivement presque à 3, mais on est loin de 4 et on est très loin de 5, on est d’autant plus loin de 5 qu’aujourd’hui je vous annonce officiellement que 5 n’existera jamais, comme dans « ja » et « mais », jamais ; je ne vais pas juste vous le dire, je vais vous le prouver.
Du coup, quand ces voitures autonomes seront au niveau 4, elles vont nous permettre d’être beaucoup plus sûrs dans les voitures, ça va être absolument extraordinaire et on y arrivera. On va arriver au niveau 4, mais on ne peut pas dire qu’on aura un jour la full autonomie. Pour cela, je vais donner deux exemples, un exemple qui est pour les Français, qui s’appelle la place de l‘Étoile à 18 heures.
Place de l’Étoile à 18 heures. Vous collez une voiture autonome sur une des avenues qui est là, la voiture autonome va être comme ça [Immobile, NdT], parce que la voiture autonome a une propriété extraordinaire, elle respecte le Code de la route !, ce que vous, quand vous êtes sur la place de l’Étoile, vous ne faites pas. Vous avez un truc en plus qui s’appelle le pouvoir de négociation [Pouce levé, NdT] ou le pouvoir de négociation [Doigt d’honneur, NdT], et ça, c’est un peu compliqué à expliquer aux voitures, à expliquer au système autonome. C’était pour les Français.
La version officielle, pour les Américains et les autres, c’est une voiture qui roule dans les rues de Mountain View, là où est Google, d’ailleurs ces vidéos ont été données par une compagnie qui s’appelle Waymo, une compagnie de Google, qui travaille depuis dix ans sur l’autonomie et le CEO [Chief Executive Officer] a dit « j’en ai marre d’entendre ce que j’entends, je vais faire don de toutes les data que j’ai depuis dix ans, je donne dix millions de miles de vidéos de routes, qui ont été prises en vidéo, pour pouvoir faire apprendre au système ». Il a donc donné ça et des gens comme moi sont allés voir les vidéos, évidemment. Il m’a fallu à peu près une heure pour trouver une pépite, après j’en ai trouvé plein, ce que j’appelle une pépite c’est un truc qui dit que j’ai raison.
Donc cette pépite : on voit une voiture qui roule dans les rues de Mountain View – Mountain View c’est chiant comme la mort, il ne se passe rien – et là d’un coup, au milieu de rien, la voiture s’arrête ; elle attend deux/trois secondes, la voiture fait deux/trois mètres, elle s’arrête ; deux/trois secondes, la voiture fait deux/trois mètres, elle s’arrête. Elle fait ça cinq/six fois et on voit, sur la caméra, des mains sur le volant parce qu’il y a toujours quelqu’un dans la voiture, on voit que le safety driver qui prend le volant, démarre et s’en va, parce que le mec derrière commençait à s’énerver, il disait « qu’est-ce qu’il fout le gars à s’arrêter tous les deux/trois mètres ?, ça n’a aucun sens ». Ça n’a aucun sens jusqu’à ce qu’on regarde la vidéo d’un peu plus près : on voit deux gars qui marchent sur le trottoir dans la même direction que la voiture. Le gars qui est le plus près de la route, qui marche dans la même direction avec son pote, a lui, sur son épaule, un panneau stop. Vous tous, là, vous voyez un connard sur le bord de la route avec un panneau stop sur l’épaule qui marche dans la même direction que la voiture, vous ne vous arrêtez pas, parce que vous avez dit « il y a un connard qui marche sur le bord de la voiture avec un panneau stop ! ». Voilà ! La voiture autonome voit un panneau stop, [elle s’arrête, puis repart], et puis elle voit un panneau stop [elle s’arrête, puis repart] et puis elle voit un panneau stop [elle s’arrête, puis repart].
Ce cas n’existe pas, ce n’est pas possible, c’est un truc qu’on n’avait jamais vu, on ne l’a même pas imaginé. D’accord ! Nous humains, quand nous voyons un truc comme ça, on fait un truc extraordinaire que les IA sont incapables de faire, on invente, on s’adapte, on crée.
Quand on vous parle aujourd’hui des IA génératives, ChatGPT [1], et tout ça, il y a une chose qui est bien dans ces choses-là, c’est qu’on ne s’est pas trompé de nom, on n’a pas appelé ça « IA créatives », on a bien appelé ça « IA génératives ». Ça génère des trucs qui arrivent de ces 175 milliards de données, mais ça ne crée rien. C’est vous qui avez le pouvoir de création, c’est vous qui le gardez, c’est vous qui avez la possibilité de créer à travers le prompt, c’est-à-dire que c’est vous qui allez dire à la machine « dessine-moi une vache verte sur la tour Eiffel ». La créativité est là, elle est dans l’image mentale que vous avez de la vache verte sur la tour Eiffel. Oui, ça va vous générer plein de vaches vertes sur la tour Eiffel, mais c’est vous qui avez l’idée, c’est toujours vous qui avez la main.
D’ailleurs, en parlant de main, je vais passer vite fait sur le fait que j’appelle ça « intelligence augmentée », IA, au lieu d’appeler ça « intelligence artificielle », parce que ces outils nous augmentent, ils augmentent notre intelligence. On se sert de ces outils comme de tous les outils de la boîte à outils dont je parlais tout à l’heure et j’adore comparer une intelligence artificielle avec un marteau, parce que c’est exactement la même chose. Un marteau ça va planter un clou bien mieux que mon poing, donc c’est hyper-utile, c’est hyper-puissant. Si j’utilise un marteau à bon escient, c’est super ; je peux l’utiliser à mauvais escient pour taper sur la tête du monsieur et, collectivement, on a décidé que ce n’est pas bien. On l’a décidé collectivement, on a dit « ce n’est pas bien de taper sur la tête du monsieur ». À la fin, celui qui tient le manche du marteau c’est moi, à la fin c’est moi qui décide, c’est nous qui décidons. Pour les IA c’est exactement la même chose : c’est nous qui tenons le manche du marteau, c’est nous qui décidons de comment on les utilise et c’est nous qui décidons de réguler ou pas. On va dire que c’est hors la loi de taper sur la tête du monsieur avec le marteau, parfois il y en a qui vont le faire, évidemment qu’il y en a qui vont le faire, mais on décide collectivement que ce n’est pas bien et après on agit comme on peut. Ces outils sont excessivement puissants, ils sont très puissants, comme le marteau est très puissant.
Je vais vous faire un truc extraordinaire, vous allez ressortir de là, vous allez être illuminés, je ne sais pas si on dit ça. Je vais vous faire une démonstration de ce qu’est l’intelligence, j’ai beaucoup parlé d’intelligence, je vais vous montrer l’intelligence humaine en mathématiques. Ce n’est peut-être pas votre tasse de thé, mais vous allez voir que ce n’est pas très compliqué. Je vais projeter en deux dimensions les intelligences, il y a plein de gens qui définissent l’intelligence, il y a les philosophes, il y a les psychologues qui définissent l’intelligence. Je vais vous la définir mathématiquement, vous allez tout comprendre et vous allez comprendre pourquoi l’intelligence artificielle n’a strictement rien à voir avec l’intelligence humaine.
Je vais projeter l’intelligence humaine sur ce graphe en deux dimensions : en ordonnée, vous avez le niveau d’intelligence de 0 – Donald Trump – jusqu’à 100, un génie. Très bien ! En abscisse, on va avoir les domaines d’intelligence, tout, n’importe quoi. On projette tout ça, dans toutes les dimensions qu’il y a, on projette ça sur ces deux dimensions. Ça c’est nous, l’intelligence humaine, continue. Dans n’importe quel domaine on est capable de dire quelque chose, surtout nous les Français ; nous ne sommes pas des génies, nous ne sommes pas complètement idiots. Ça c’est l’intelligence humaine, continue, mathématiquement parlant continue et infinie. On voit un connard sur le bord de la route avec un panneau stop, on est capable de s’adapter, on invente. Continue et infinie, l’intelligence humaine.
L’intelligence artificielle. Les échecs, ce n’est pas mal, ça marche. Si vous jouez aux échecs avec une machine et que vous gagnez c’est que vous l’avez mise au niveau 2, vous n’avez strictement aucune chance, les échecs, c’est un génie. Go c’est plus qu’un génie parce qu’il y a tellement de coups possibles et imaginables qu’il dépasse l’humanité, on ne va pas rentrer dans l’infini, on s’en fout. La voiture autonome, niveau 4, bien mieux que nous. J’ai dessiné mon fils, il boit un petit coup, il joue un peu sur son téléphone pendant qu’il conduit, pas bon ! La voiture sera meilleure que nous, mais, des fois, il faudra l’aider.
N’importe quoi, n’importe quel domaine, n’importe quel truc que vous pouvez imaginer, des trucs en médecine, des trucs en ressources humaines, n’importe quoi, on peut, si on a envie, avoir un outil qui soit meilleur que nous dans ce domaine particulier ; si on veut. parfois, on peut décider de ne pas utiliser l’outil parce qu’il n’est pas utile, à ce moment-là ce n’est pas un outil. Ça ce sont les intelligences artificielles.
C’est quoi en mathématiques ce que je viens de faire ? Ce sont des lignes discrètes. La question qui tue : combien de lignes discrètes nous faut-il pour atteindre la continuité ? L’infini. Je ne sais pas si vous savez, mais l’infini c’est compliqué, c’est beaucoup. Du coup, pour pouvoir matcher l’intelligence humaine, il faudrait avoir une infinité d’intelligences artificielles, mais ce n’est pas possible parce que c’est beaucoup.
Un petit truc vite fait, on finit là-dessus. Des fois on dit « en fait il y a des trucs qui se ressemblent, il y a des trucs qui sont contigus, on peut faire du transfer learning entre deux domaines et, par capillarité, on pourrait imaginer qu’on va pouvoir couvrir tout le domaine, tout le spectre de l’intelligence humaine ». Ce n’est pas une mauvaise idée de faire ça, ça permet de ne pas avoir à refaire des bases de données. Le problème c’est : qu’y a-t-il entre deux lignes contiguës ? L’infini. Purée, encore ce truc-là, l’infini. Encore une fois, l’infini c’est compliqué. Bref ! Ce n’est pas possible.
Et puis un truc qu’on a inventé, où est-elle l’intelligence artificielle ? L’intelligence artificielle n’est nulle part, parce qu’elle n’a pas eu le temps d’avoir les données, elle n’a pas eu le temps d’avoir les règles, donc on n’a pas encore eu le temps de la faire. L’intelligence artificielle est toujours derrière nous, c’est nous qui décidons, c’est nous qui avons le manche. Merci.
[Applaudissements]
Samuel Paccoud : On s’informe beaucoup sur Twitter pour l’IA.
Luc Julia : Ça commence mal !
Samuel Paccoud : On n’a pas le choix ! Ça change tous les jours.
Luc Julia : L’Encyclopædia Universalis aussi ce n’est pas mal.
Samuel Paccoud : Du coup, on essaye de comprendre. D’un côté on a ceux qui nous disent « il y a l’émergence, on va augmenter le nombre de paramètres, on va allumer tout ça, ça va faire des Chocapic » ; de l’autre côté on a ceux qui nous disent « en fait, on a juste modélisé le langage, mais ce n’est pas grave, on va rajouter une vision du monde, on va rajouter la planification », je pense que vous voyez de qui je parle dans les deux cas. Il y a sûrement plein de choses entre les deux. Quelle est la situation ?
Luc Julia : Ce que je vous ai raconté aujourd’hui c’est qu’on est très loin de l’intelligence humaine, en fait on n’y arrivera jamais. Rajouter des trucs, c’est un peu de la capillarité dont je parlais ici. Déjà est-ce qu’on a modélisé le langage humain ?, je ne suis pas sûr qu’on ait encore réussi.
Si on parle spécifiquement de ces IA génératives qui ont l’air de faire des trucs intelligents, c’est basé sur la complétion de trous. Qu’est-ce que ça veut dire ? Ça veut dire que toutes ces IA génératives sont basées sur la complétion de ce qui a déjà été fait avant. Par exemple, quand vous posez une question comme « donne-moi la biographie de Marie Curie », en fait la biographie de Marie Curie est quelque part. Il y a une certaine variabilité qui fait que je ne vais pas toujours aller chercher au même endroit, mais je vais aller sortir ces données qui sont quelque part ; encore une fois, dans 175 milliards de données, il y a beaucoup de données. Ces machins-là ça va donc générer, ça va remplir les trous : vous rentrez des machins et ça va aller compléter ce qu’il y a autour. Vraiment simplifiée, c’est la logique de ces IA génératives.
Ça veut dire que quelqu’un qui, un jour, a parlé, qui a dit un truc comme ça, on le sait, donc on va le remettre, on va vous le montrer. Ça a donc l’air d’être humain, parce que c’est humain, parce que ça a déjà été dit.
Il y a deux petits problèmes dans ces IA génératives. Le premier problème c’est qu’elles sont programmées pour vous donner une réponse, de toute façon. Des fois elles ne trouvent pas le truc et, si elles ne le trouvent pas, elles l’inventent, c‘est ce qu’on appelle les hallucinations. Le truc va statistiquement trouver des trucs qui pourraient être à peu près ça, il va donc vous pondre n’importe quoi, surtout des références, en général. Quand vous allez dire « écris-moi un papier scientifique avec ça », il va vous pondre un tas de références de bouquins qui n’ont jamais existé, avec des pages qui n’ont jamais existé. Ce sont des trucs qui sont embêtants, ce sont effectivement les hallucinations. C’est le premier problème.
Samuel Paccoud : C’est encore plus embêtant si on ne le sait pas, si on n’est pas préparé.
Luc Julia : Oui, c’est pour cela qu’il faut s’éduquer suffisamment pour comprendre que ces hallucinations sont possibles.
Le deuxième problème, c’est le problème dont je parlais tout à l’heure, qui est le problème des trucs faux. Dans les 175 milliards de trucs, il y a de trucs faux. Du coup, si vous lui dites « écris-moi un papier sur le fait que la Terre est plate », il va vous écrire un papier qui est parfait, qui existe déjà d’ailleurs, il va pondre le machin, en plus de ça, il va prendre l’IP [Intellectual Property, propriété intellectuelle] de quelqu’un, il va copier, donc copyright-wise, en matière de droit d’auteur, ce n’est pas terrible, ça va donc vous pondre un papier. Il peut vous pondre des trucs faux, il peut vous pondre des trucs inventés.
Le vrai chiffre qu’il faut donner, la chose qu’il faut dire ici c’est : quelle est la pertinence de ChatGPT ? Nulle part dans les médias on vous dit quelle est la pertinence de ChatGPT, parce qu’il faut un petit peu de temps pour faire l’étude. Cette étude a été faite trois mois plus tard. ChatGPT est sorti en novembre 2022, en février 2023 l’Université de Hong Kong a sorti un papier sur la pertinence de ChatGPT, sur 24 bases de millions de faits, de faits vrais – je ne sais pas ce que ça veut dire, mais c’est comme ça –, donc sur des millions de faits, à la fin du papier de 24 pages, il y a le chiffre de 64 %, c’est pertinent à 64 %. C’est bien, ce n’est pas bien, vous le décidez, mais il faut le savoir : 64 % ça veut dire qu’il y a 36 % de merde !
Samuel Paccoud : Oui ! mais ça peut quand même servir à quelque chose. Ça peut aider si on est au courant.
Luc Julia : Évidemment !
Samuel Paccoud : Vous utilisez au quotidien ChatGPT [1], ?
Luc Julia : Évidement que je l’utilise au quotidien, je l’utilise tous les jours. ChatGPT, Midjourney [12], tous les machins. Je suis nul en dessin, midjourney m’aide beaucoup. C’est super ! La vache verte sur la tour Eiffel c’est moi qui l’ai faite.
Évidemment qu’il faut utiliser l’outil, évidemment qu’il ne faut pas faire ce qu’a fait Sciences Po, interdire l’outil.
Samuel Paccoud : Je ne voulais pas les nommer.
Luc Julia : Évidemment qu’il ne faut pas faire ça, c’est une bêtise incommensurable. C’est exactement comme si, en 1842 vous aviez interdit l’Encyclopædia Universalis, c’est la même chose. Il faut juste comprendre l’outil et l’utiliser à bon escient. Il faut, en fait, enseigner l’outil, il faut expliquer « les gars, regardez ! »
Samuel Paccoud : Il faut déjà le comprendre soi-même, c’est aussi pour cela qu’on est là.
Luc Julia : On est là pour ça. Il y a justement un exercice qui est super à faire pour les enseignants en général, pour comprendre comment on va enseigner l’outil. Le truc à faire c’est de dire aux élèves « on va écrire un papier avec ChatGPT ». On va donner un prompt, on va dire « écris-moi un papier sur le premier homme sur la Lune ». Le machin va générer le papier, on lui demande un papier de cinq pages, il génère un papier de cinq pages avec des références. Après nous, enseignants, nous allons étudier ce papier, parce que ce papier est extraordinaire, il y aura au moins une ou deux erreurs factuelles, il y aura au moins une ou deux hallucinations dedans. On va donc dire « regarde : ça hallucination, ça erreur et le reste ce n’est pas mal ».
Samuel Paccoud : Ce qui est vraiment énorme. Je ne sais pas si vous avez vu la différence : moi j’ai des ados à la maison, ils sont bien plus préparés que les adultes pour ça. Quand ma fille faisait une rédaction, je lui disais « pourquoi tu ne t’aides pas de ChatGPT ? », je me suis dit « c’est l’occasion de lui montrer ». Elle m’a dit OK. Elle le fait et elle demande du rewording, elle demande des idées. J’ai été surpris. Quand, dans une grande université parisienne, le directeur de l’université qui faisait le mot d’introduction dit : « J’ai tapé mon nom, c’est de la merde ! J’ai tapé avec GPT-4 c’est encore plus de la merde ! ». Est-ce que finalement la nouvelle génération... ?
Luc Julia : Je n’en sais rien, je ne la connais pas assez. C’est évident qu’il y a de toute façon quelque chose à apprendre et il y a, de toute façon, quelque chose pour utiliser des outils.
Il y a franchement deux directions pour ces outils dans l’avenir : il y a la première direction où il y a zéro régulation, il ne se passe rien, on laisse les outils vivre. Comme ils vont générer de plus en plus de caca, ils vont s’alimenter avec du caca, du coup ils vont devenir de plus en plus non pertinents, donc ils vont mourir de leur belle mort. On peut considérer qu’aujourd’hui on est en train de monter ou on est en haut de la courbe de Gartner [13].
Samuel Paccoud : Combien de temps ?
Luc Julia : Je ne sais pas, je ne suis pas Elon Musk, je ne donne pas de date. À un moment, ça va arriver en haut de la courbe de Gartner et ça va retomber d’un coup. Ça va retomber d’un coup pour deux choses : soit parce que ce n’est plus pertinent du tout, soit parce qu’il y a tellement de problèmes avec le copyright qu’on va s’apercevoir que le machin vole un peu des trucs.
En tout cas ce qui est sûr, c’est qu’il y a ce premier chemin où ça va se nourrir de tellement de caca que ça va être complètement du caca.
Samuel Paccoud : J’espère que ça ne sera pas la deuxième raison qui fera qu’on arrête.
Luc Julia : On verra. En tout cas, ça c’est s’il n’y a pas de régulation.
Deuxième chemin : il y aura un peu de régulation – la vérité c’est que le vrai chemin sera celui du milieu, ce sera l’hybride. On va dire « tout ce qui est généré par les IA génératives, on va le marquer au fer rouge d’une manière ou d’une autre. On ne va pas l’utiliser dans les modèles qu’on va créer après, on ne va utiliser que des « faits vrais » – encore une fois avec tous les guillemets qui vont bien –, du coup ça va devenir de plus en plus pertinent ». C‘est possible, c’est un chemin possible.
Par contre, je crois que c’est le chemin du milieu : on va utiliser de plus en plus ces IA génératives dans des domaines particuliers, comme j’ai fait ici. Les IA aujourd’hui sont, de toute façon, de plus en plus pertinentes dans des domaines particuliers.
Mais ce qu’on appelle une IA générale, artificial general intelligence, qui va couvrir n’importe quoi, n’importe quel domaine, ça ne va pas être possible.
Samuel Paccoud : On voit les effets des réseaux sociaux 20 ans plus tard. Pour l’IA, finalement, est-ce que ce n’est pas cela le plus gros risque, que les gens ne se rendent pas compte ? Vous parlez du marteau, on va réguler le marteau. Le marteau ça a donné des maillets, ça a donné des trucs pour jouer au polo, ce n’est pas un potentiel de disruption massif.
Luc Julia : Quand même, ça fait mal !
Samuel Paccoud : Ça peut faire mal. L’IA c’est plus sournois. Est-ce qu’on est capable de réguler si on ne voit pas le truc ? On parle depuis récemment des dangers des réseaux sociaux, c’est 2007.
Luc Julia : C’est un excellent parallèle. On a commencé à réguler les réseaux sociaux il y a exactement cinq ans, avec le RGPD [14], mai 2018. C’était trop tard, mais la régulation a toujours du retard sur l’innovation. On a commencé à réguler avec le RGPD et les gens ont commencé à comprendre. Le RGPD n’a servi strictement à rien pour les réseaux sociaux eux-mêmes, mais a servi pour éduquer les gens, la régulation a parfois des vertus éducatives. Ça a permis aux gens de comprendre : ils se sont demandés pourquoi il y a une régulation. Ils se sont dit « se foutre à poil sur Internet, c’est comme se foutre à poil ». Il y en a qui ont compris. La régulation est quand même importante, c’est vrai qu’elle arrive un peu en retard.
Aujourd’hui, l’IA Act [15] est en train d’être fait à Bruxelles pour réguler les IA, ça va prendre un petit peu de temps, surtout qu’il n’y avait pas les IA génératives dans les premiers brouillons, elles n’étaient pas là. Encore une fois, la chose essentielle c’est l’éducation. Si on ne s’éduque pas, on ne peut pas réguler. Si je ne comprends pas le truc, je ne peux pas réguler.
Samuel Paccoud : Est-ce qu’il n’y a pas un danger avec la régulation, justement que l’Europe passe à côté. J’ai vu une interview de Jean-Paul Smets sur B Smart [16] où il dit que l’IA Act est une catastrophe, on ne peut plus faire d’open source.
Luc Julia : C’est pour cela qu’il faut maintenant que les spécialistes arrivent et expliquent, parce que, malheureusement le régulateur, parfois, n’est pas informé, il a une vision théorique du machin et pas pratique, donc il fait des petites bêtises dans la régulation. C’est là où les spécialistes, c’est là où les gens qui sont éduqués, par des conférences comme aujourd’hui, doivent aller demander à leurs représentants de faire en sorte qu’on puisse utiliser le machin. C’est là où les élèves de Science Po doivent aller voir leur directeur en disant « c’est complètement idiot de ne pas pouvoir utiliser ça ».
Samuel Paccoud : Ils le font quand même !
Luc Julia : Évidemment qu’ils le font, c’est pour cela que c’est impossible, de toute façon, d’interdire. Il faut que les gens s’approprient le machin à un moment donné et se disent « je suis éduqué, je m’éduque de plus en plus ». Quand je dis éduqué, je ne dis pas qu’il faut que chacun devienne un data scientist, que les gens deviennent spécialistes en intelligence artificielle. Il faut s’éduquer sur les applications et quelles sont leurs conséquences. Être assez ouvert d’esprit pour pouvoir comprendre ça et pour pouvoir, après, en discuter et discuter et disputer.
Samuel Paccoud : On peut en parler pendant une heure, mais je crois que vous avez un agenda serré, du coup je propose qu’on prenne les questions de la salle s’il y en a. Levez la main si vous voulez un micro.
Public : Bonjour. Béatrice de l’Université de Lille. En fait, le problème de ChatGPT [1], qui se soulève depuis sa parution, c’est que ChatGPT est arrivé comme si on mettait des voitures à disposition de tout citoyen, sans permis de conduire.
Luc Julia : Exactement.
Public : On n’a pas non plus de moniteurs auto-école qui se sont formés puisqu’ils le découvrent en même temps. Du coup, on ne peut pas l’interdire parce qu’on mesure tout de suite le potentiel et, en termes d’éducation, les jeunes générations en savent beaucoup plus que leurs enseignants. Du coup, quelles recommandations ? Est-ce qu’on doit vraiment le réguler ou est-ce que ce n’est pas une obligation de changer nos pédagogies en même temps que le système ?
Luc Julia : Réguler, c’est oui. Il faut le réguler, il va falloir le réguler, mais pour réguler, comme j’ai dit tout à l’heure, il va déjà falloir le comprendre, il va donc falloir que les gens qui régulent écoutent un peu les gens qui savent, il y en a quand même quelques-uns.
Il faut aussi être agile dans les méthodes d’éducation, donc ne pas faire un programme qui va être appliqué dans cinq ans, ni un programme qui est appliqué il y a dix ans. En gros, je dis qu’il faut être super agile, ne pas hésiter à prendre les connaissances qu’on a et les distribuer dans l’immédiat. On est plus dans l’immédiateté, ce n’est peut-être pas formaté comme il faut, ça ne suit pas tous les machins qui vont bien et ça n’a pas été tamponné au ministère par 18 personnes. Parfois il faut respirer un peu et faire, en tant qu’enseignant, ce qu’on pense être le meilleur pour nos progénitures.
Public : Bonjour. Anna. J’ai une question sur tous les outils qui émergent, notamment les outils type Copilot de Microsoft et d’autres à qui on pourra sous-traiter plein de tâches chronophages dans nos vies professionnelles. Beaucoup de chiffres circulent sur l’optimisation de productivité = optimisation de rentabilité, donc toutes les questions éthiques, philosophiques que les entreprises doivent se poser. Est-ce que vous pensez qu’il faut réagir très rapidement, revoir les organisations et les systèmes de métiers, les compétences, ou est-ce qu’il faut laisser faire de manière organique ?
Luc Julia : Un peu des deux. De toute façon, c’est toujours hybride, tout est toujours hybride, c’est toujours un peu entre les deux.
En l’occurrence on dit beaucoup « ça y est, ChatGPT ou les IA génératives vont nous remplacer, vont remplacer des métiers ». Déjà c’est très compliqué de dire ça, il ne faut pas vraiment dire ça, il faut plus parler en termes de tâches qu’en termes de métiers. Dans les métiers il y a plein de tâches. Il y a effectivement des tâches qui vont être remplacées, les tâches les plus répétitives, les moins intéressantes et tout ça, ça va être remplacé par ces outils qui sont très puissants pour ça. Mais il y a toujours une tâche qui est rajoutée, c’est la tâche de l’utilisation de l’outil. Après, évidemment, il faut regarder la balance : si l’utilisation de l’outil prend plus de temps que ce que je faisais avant sans l’outil, l’outil ne sert à rien, donc je l’enlève. Il y a certains métiers dans lesquels ces outils ne vont pas être intéressants, mais il y a plein de métiers dans lesquels ils vont être intéressants.
Les remplacements de tâches existent depuis toujours parce que c’est le but du jeu, nous sommes fondamentalement feignants, nous voulons essayer de faire en sorte que quelqu’un d’autre fasse le boulot à notre place. Ce qui est intéressant c’est que dans les métiers, les tâches qui vont être les plus difficiles à remplacer, les tâches qui sont fondamentalement humaines, vont être encore plus valorisées. Du coup, parce que je suis optimiste de base, je pense qu’il y a beaucoup de tâches à l’intérieur des métiers qui vont être remplacées. Il y a très peu de métiers qui vont être complètement remplacés, ça va être très rare, on voit ça depuis le début de l’humanité, mais il y en qui vont être remplacés. Je ne sais pas si vous savez ce que c’est qu’un charron, il n’y a plus de charrons depuis 1890, c’est comme ça, mais c’est rare.
Je parle donc de tâches qui vont être remplacées, mais je parle aussi de tâches qui vont être glorifiées. Les tâches glorifiées, ça va être la substance même de l’humanité qui va faire en sorte que, en gros, tous, petit à petit nous allons être encore plus valorisés dans nos métiers parce que ce qu’on peut faire c’est ce que ne peuvent pas faire les machines : trouver que le panneau stop ce n’est qu’un panneau stop sur l’épaule d’un gars. Je pense vraiment que ça va se passer comme ça.
Par contre il faut que les RH, les ressources humaines, nous préparent, c’est-à-dire qu’il faut anticiper un tout petit peu le machin. On peut le faire un peu à l’arrache, comme on a dit tout à l’heure, ou le faire très agile. Ce n’est pas compliqué non plus d’anticiper l’arrivée de ces outils, surtout dans les entreprises aujourd’hui quand on parle Copilot ou d’autres choses comme ça. Aujourd’hui, dans les entreprises, il ne faut surtout pas utiliser Copilot parce que ça veut dire qu’on donne tout à monsieur OpenIA, il faut donc faire super attention à comment les choses sont faites ; le jour où ça sera plus sécurisé, on pourra l’utiliser. D’ici là, on a le temps de comprendre comment ça peut être utilisé, on a aussi le temps de former les collaborateurs aux tâches d’utilisation de l’outil et à d’autres tâches qui vont être les tâches spécifiques dans lesquelles on va pouvoir les glorifier, justement.
Samuel Paccoud : Est-ce qu’il faut un LLM français ?
Luc Julia : Est-ce qu’il faut un LLM, large language model , c’est ce qu’on appelle aussi les IA génératives. Oui, il faut un LLM européen, il faut des balances. On parlait d’open source rapidement tout à l’heure. L’open source est important pour pouvoir vérifier les sources, d’une part, ce n’est pas une mauvaise idée, mais vérifier ça veut dire quoi ?, on a vu que c’est compliqué parce qu’il y en a beaucoup. Avoir des balances au niveau du monde, avoir différentes versions, visions du monde ce n’est pas mal non plus.
Samuel Paccoud : Est-ce qu’on a les moyens de le faire ?
Luc Julia : Oui, on a les moyens de le faire. Déjà, pour commencer, il faut arrêter de se flageller, surtout nous, ici en France. Il faut se dire que nous sommes les meilleurs du monde, on ne le dit pas assez, moi je le répète tout le temps : nous sommes les meilleurs du monde. En mathématiques nous sommes les meilleurs du monde, c’est comme ça et c’est prouvé, il y a ce qui s’appelle la médaille Fields qui le montre, nous sommes les meilleurs du monde depuis 300 ans.
Samuel Paccoud : Encore cette année ?
Luc Julia : Tout le temps, nous sommes tout le temps dans les meilleurs. Donc nous sommes les meilleurs, il faut arrêter de se flageller. Une des preuves : dans la Silicon Valley, vous allez me dire ils sont dans la Silicon Valley, tous les chefs de l’IA sont Français. Dans toutes les grosses boîtes que vous pouvez imaginer, Facebook, Google, machin. OK. Nous sommes donc les meilleurs. Par contre, nous ne sommes pas les meilleurs en business. On pourrait certainement se valoriser plus et c’est d’ailleurs une des raisons pour lesquelles on se flagelle, c’est un cercle vicieux. Il faut donc apprendre à dire que nous sommes bons et il faut apprendre à se vendre un peu mieux et après on est OK.
Samuel Paccoud : Est-ce qu’on a les moyens financiers.
Luc Julia : On a les moyens. Les moyens financiers y sont si on a vraiment envie. Si on a vraiment envie on les a. La vérité c’est qu’aujourd’hui dans les venture capitalists, les gens qui donnent des sous par exemple aux startups, on n’a pas de vrais venture capitalists qui sont des capital-risqueurs, mais ça, c’est nous aussi, on n’aime pas le risque.
Samuel Paccoud : On le fait porter par la BPI [Banque publique d’investissement].
Luc Julia : Oui, mais la BPI c’est juste au début, c’est super la BPI. Mais au lieu de un million il faut passer à 100 millions et nous en Europe, nous en France en particulier, on déteste le risque, on déteste l’échec. L’échec est une partie importante du risque et l’échec doit être glorifié. J’habite dans la Silicon Valley, dans la Silicon Valley, le risque est glorifié, l’échec est glorifié. Si on s’est planté, ça veut dire que la prochaine fois on ne fera pas la même erreur qu’on a faite quand on s’est planté. Ces cicatrices sont importantes et nous, ici, on stigmatise l’échec, on dit « tu as échoué, tu es nul, dehors ! »
Merci beaucoup.
Samuel Paccoud : Merci à vous.
[Applaudissements]