Voix off : Bonjour et bienvenue sur Les dessous de l’IA, le podcast qui explore les enjeux de pouvoir autour de l’intelligence artificielle. L’intention de ce podcast est double : mieux comprendre les infrastructures et les forces qui façonnent le développement de l’IA, identifier les tendances de fond qui se dessinent et se projeter sur ce que cela signifie pour le futur de nos sociétés. Bonne écoute.
Clément Durand : Bonjour Yann, et bienvenue sur ce premier épisode du podcast, Les dessous de l’IA.
Aujourd’hui, on va parler d’IA, bien sûr, mais aussi de souveraineté, d’open source ou encore de GPU [Graphics Processing Unit]. Pour commencer, est-ce que tu pourrais te présenter, présenter ton parcours, ce qui t’a amené à fonder une entreprise dans l’IA et plus spécifiquement dans la science des données ?
Yann Lechelle : Bonjour, Clément. Merci de me recevoir.
Je suis technophile et technologue. J’ai un parcours d’informaticien hobbyiste depuis l’âge de dix ans, puis je suis devenu professionnel de cette industrie logicielle, en tant qu’ingénieur logiciel, dans des structures différentes, toujours passionné par le produit. J’ai travaillé en France, en Angleterre, aux États-Unis. Je suis installé à Paris depuis 25 ans et je suis entrepreneur dans la tech depuis.
Pourquoi l’IA ? Je me suis intéressé au connexionnisme [1] au début des années 90. Il y a plusieurs écoles, l’IA symbolique et l’IA connexionniste, le deep learning, qui existe depuis des dizaines et des dizaines d’années sous forme très théorique. Je m’y suis intéressé parce que c’était une science émergente, mystérieuse, opaque, d’ailleurs les modèles sont toujours un peu opaques lorsqu’il s’agit de deep learning, mais ça m’intéressait. Donc, début des années 90, j’ai commencé à jouer avec ces technologies à l’époque où ça ne marchait pas très bien, on était en plein hiver de l’IA. J’ai fait ma thèse de fin d’études sur les réseaux de neurones en appliquant les algorithmes de backward propagation. C’était fastidieux, il n’y avait pas vraiment d’Internet, en tout cas on n’était pas connecté comme aujourd’hui, il n’y avait pas tous les outils, il fallait tout écrire à la main, en C, et attendre de longues journées, prendre beaucoup de pauses café pour voir quoi que ce soit, voire constater que ça ne marchait pas très bien. Ça, c’était les années 90.
J’ai évidemment utilisé l’IA dans toutes mes startups depuis que je suis entrepreneur, dans les années 2000, pour faire de l’analyse de texte, analyse de sentiments, analyse comportementale des utilisateurs, des moteurs de recommandation, traitement du langage naturel, reconnaissance vocale et, plus tard aussi, dans le cloud évidemment, fournisseur d’infrastructures pour l’IA.
Donc l’IA fait partie de la boîte à outils informatique. J’aurais même tendance à dire que l’IA, c’est du software qui s’appuie sur du hardware. C’est-à-dire qu’on est dans cette même grande dynamique où, finalement, le software c’est ce qui gère à la fois les données et l’algorithmie, et certaines technologies sont plus ou moins exponentielles que d’autres, on pourra y revenir.
Je m’intéresse à cette dimension logicielle, c’est ma sensibilité, c’est mon parcours qui me transforme en expert en la matière, en tout cas dans la lecture aussi, la capacité de décrypter ce qui se passe et de choisir les prochains défis et les prochains projets qui m’animent. C’est comme cela que je suis retombé dans l’entrepreneuriat, puisque j’ai fait un petit aparté en entreprise, une entreprise qui existait déjà, Scaleway, et j’ai décidé de replonger dans l’IA et, cette fois-ci, moins l’IA dont on parle aujourd’hui, la boring AI, celle qui se caractérise par une IA maîtrisée, qui n’est pas nécessairement du deep learning, qui est frugale, qui ne dépend pas de GPU, on en parlera.
Ce sont toutes ces notions qui me motivent à une époque où, finalement, nous sommes en face d’une déferlante exponentielle où les données, l’infrastructure, les logiciels sont chamboulés. À travers ces trois vecteurs cumulés, on est sur une espèce de convergence qui va probablement redéfinir la manière dont on traite l’information, qui va donc probablement impacter tous les métiers col blanc.
Clément Durand : Merci pour cette présentation. Justement, comme ça fait quand même longtemps que tu es dans le monde de l’IA, on va dire, quel regard portes-tu aujourd’hui sur le marché de l’IA, notamment sur l’impact de l’arrivée des outils d’IA générative type ChatGPT ou autres ? Tu as parlé d’IA symbolique et autres, je veux bien que tu en profites pour reposer peut-être une ou deux définitions sur IA, IA générative. Finalement, quel impact et quelles différences ?
Yann Lechelle : La grande famille de l’IA présente différentes techniques d’apprentissage. On peut dessiner un grand cercle et dire que l’IA contient le machine learning qui contient le deep learning qui contient la generative AI et qui contiendra peut-être la version qui supplantera l’ensemble, c’est-à-dire l’IA généralisée, l’AGI [2]. Ces technologies couvrent différents secteurs de l’industrie. L’IA symbolique était une autre forme d’IA qui, elle, dépendait de règles. Il y a une approche un peu top-down et une approche bottom-up par rapport à l’apprentissage, différents types d’apprentissage – apprentissage supervisé, non supervisé. L’IA symbolique était une autre forme d’IA qui, elle, partait de la connaissance humaine encodée sous forme de logiciel. C’est là où l’ingénieur partait d’ontologie, partait d’une maîtrise très particulière, alors que si on prend le deep learning et l’apprentissage non supervisé, c’est parfaitement symétrique, c’est le contraire, c’est la machine qui s’auto-organise pour faire du sens de l’information.
Il y a donc une très grande famille d’IA. Il n’y a pas une IA et il faut faire attention avec l’IA fantasmée, celle que nous présente Hollywood, mais qui peut-être, en effet, correspond, dans le fantasme, à ce que OpenAI nous promet, l’AGI qui pointe son nez, en tout cas dans les concepts émergents.
Clément Durand : À un moment tu as utilisé le mot de boring AI. Vu de ma fenêtre, avec Probabl, vous vous êtes lancé dans un projet qui se base sur une bibliothèque open source en Python qui s’appelle Scikit-learn [3], et je me dis que ça correspond peut-être à ce que tu définis comme de la boring AI. Pourrais-tu présenter un peu ce projet, dire ce qu’est Scikit-learn et pourquoi c’est hyper important dans la chaîne de valeur IA ?, parce que tu as a commencé à parler d’infrastructure software. Probabl est une entreprise à mission, j’ai noté comme mission, tu me corrigeras peut-être, c’est que vous voulez travailler notamment à renforcer la résilience technologique de la France et de l’Europe. Donc, pourquoi être rentrés par le logiciel, par une bibliothèque open source et pas par un autre biais ?
Yann Lechelle : Il me faut répondre à cette question par la séquence. C’est une séquence qui s’inscrit sur une bonne décennie. L’ère des data scientists correspond à l’avènement du big data, c’est-à-dire cette mise à disposition, grâce à l’infrastructure, grâce au stockage, grâce au cloud, d’une quantité très importante d’informations. Donc cette information, évidemment, contient potentiellement une valeur ajoutée supplémentaire, c’est-à-dire que si l’on fait du data mining, si on a accès à de l’information brute, alors on peut masser cette donnée et lui faire dire d’autres choses. Par exemple, si on prend un moteur de recherche, on peut découvrir des informations plus rapidement. C’est une manière de traiter la donnée. Maintenant, il y a des messages cachés dans certaines données. Par exemple, imaginons un flux bancaire ; si ce flux bancaire a été correctement tagué par des experts, on peut très bien dire que telle transaction est justifiée, telle transaction est frauduleuse. Dès que l’on prend un flux qui a été correctement tagué, alors on peut demander à l’algorithme de faire une inférence et de créer un moteur de détection de fraude à partir de ce flux qui a été tagué, parce qu’on retrouve des comportements types, par exemple des sommes qui sortent de la norme pour une personne donnée, etc.
Clément Durand : Est-ce que tu peux juste définir « inférence » ?
Yann Lechelle : L’inférence c’est une déduction, en quelque sorte. L’humain est une machine à inférer. C’est déjà une machine à comparer et une machine à inférer, c’est-à-dire décider que finalement, selon une trame donnée, selon un phénomène récurrent, on peut déduire que la suite est logique, en tout cas statistiquement probable, et on retrouve d’ailleurs le mot « probable », puisque l’IA est largement probabiliste, en tout cas l’IA moderne qui n’est pas symbolique.
Donc, cette manière de traiter l’information, à la suite de l’avènement du big data, permet à l’algorithme de traiter un grand nombre de points d’entrée pour en faire ensuite des déductions, c’est ce que l’on appelle l’IA en quelque sorte, c’est-à-dire que dans un environnement donné, l’IA va automatiquement, on est dans l’automatisation, un petit peu comme l’homme le fait, décider de ce qui va suivre. Et on le retrouve jusqu’aux LLM [Large Language Models] et au ChatGPT, c’est-à-dire qu’est-ce qui va suivre à partir d’un prompt ?, eh bien une réponse qui mimique, quelque part, ce que l’humain pourrait dire suite à un prompt donné et on le retrouve, évidemment, dans les données tabulaires. C’est là où je dis, avec un clin d’œil, qu’on travaille le sujet de la boring AI, ce n’est pas du tout boring, ce n’est pas du tout ennuyeux, au contraire, c’est extrêmement passionnant, on est dans les mathématiques appliquées et on fait ressortir de la donnée une lecture, une compréhension, des intuitions qui se trouvent cachées dans la donnée et que l’humain ne saurait pas traiter manuellement, puisqu’il y en a trop.
C’est donc cette notion-là qui émerge, et Scikit-learn, scientific toolkit for machine learning, est une brique logicielle développée par un collectif dont le barycentre était à L’INRIA, sur le plateau de Saclay. Cette technologie a été développée parce que, justement, il fallait apporter une réponse logicielle universelle pour traiter ces données qui devenaient de plus en plus massives. Cette équipe-là a développé pendant une dizaine d’années une technologie open source, c’est-à-dire disponible à tous, qui s’appelle Scikit-learn, et nous sommes devant une espèce de joyau national, patrimonial, parce que c’est une technologie qui est largement développée en France, à Saclay, à L’INRIA, même si, évidemment, des collaborateurs du projet existent à travers le monde. On est sur un projet communautaire collaboratif, mais le barycentre est bel et bien français et cette technologie est utilisée par tous les data scientists de la planète justement parce que la licence open source qui a été choisie pour cette technologie est extrêmement permissive, il n’y a donc aucune limite pour l’adoption et l’usage, voire la modification de cette technologie open source. C’est ce qui a fait son succès, donc, elle a été téléchargée 1,5 milliard de fois sur une décennie, des dizaines de millions de fois par mois. Aujourd’hui cette technologie est numéro 1 dans les briques logicielles de machine learning devant toutes les autres. C’est donc un succès français peu connu en dehors des data scientists, puisque, encore une fois, tous les data scientists ont fait leurs classes sur Scikit-learn, ont appris la data science grâce à Scikit-learn et l’utilisent aussi en production dans un grand nombre de cas d’usage dont tout ce qui concerne les données tabulaires quantitatives. Je dirais donc que Scikit-learn traite des données tabulaires, l’IA des matheux, là où les LLM, qui traitent le langage naturel, c’est l’IA des littéraires, pour caricaturer un peu le débat.
Pour la deuxième partie de ta question, ce projet-là a été identifié dans le cadre de la stratégie nationale pour l’intelligence artificielle et le SGPI, le Secrétariat général pour l’investissement, qui est doté d’un budget quinquennal de plusieurs dizaines de milliards d’euros, a décidé de participer au financement d’un ensemble de briques logicielles open source dont Scikit-learn, ils ont donc mis le doigt dessus, ce qui une très bonne chose. Nos administrations font ce travail de fond d’identifier nos actifs, nos forces et ici, ils ont décidé d’allouer un budget pour développer de l’open source, donc du patrimoine open source, au bénéfice de notre société, donc pour de la souveraineté. Ce projet-là a été à la base d’une première copie, qui s’est traduite par une initiative de spin-off, c’est-à-dire qu’on est allé extraire l’équipe et les actifs de l’INRIA pour créer une startup en bonne et due forme, qui sera donc cofinancée par cet investissement qui vient du SGPI et dont je m’occupe. Ça c’est fait comme cela. Cette équipe est venue me chercher après s’être dit que, finalement, il fallait que l’on crée une entreprise de droit privé pour traiter un sujet très dynamique, parce que le marché est très dynamique autour des sujets logiciels et de la science des données.
Clément Durand : Merci pour ta réponse, Yann.
Je sais que le sujet te tient à cœur et j’avais plein de questions sur l’open source. Avant de plonger là-dedans, je sais qu’avant de travailler chez Probabl tu étais notamment chez Scaleway dans le domaine du cloud, aujourd’hui tu es dans le logiciel, même si j’ai entendu dire que, pour toi, le cloud, c’est aussi du logiciel. Si on prend la chaîne de valeur de l’IA que tu évoquais avec les infrastructures logicielles, tu parlais de souveraineté à l’instant, selon toi, quelles sont les principales technologies ou les compétences critiques qu’il faut absolument maîtriser si on veut pouvoir parler de souveraineté en matière d’IA ? On peut le prendre au niveau français, peut-être que ça a plus de sens au niveau européen. Toi qui connais le cloud, qui connais le logiciel et qui connais bien l’IA depuis de nombreuses années, si tu prends la chaîne de valeur de l’IA, ce qui permet de faire de l’IA aujourd’hui, si on veut pouvoir se dire souverain au niveau européen, quelles sont les technos, les compétences qu’il faut absolument maîtriser ?
Yann Lechelle : J’ai une mauvaise nouvelle, c’est que la souveraineté se mesure par rapport à un mille-feuille, donc notre niveau de souveraineté sur le numérique est proche de zéro, c’est-à-dire que nous n’avons pas une grande maîtrise de l’ensemble de la stack, si on est rigoureux dans l’analyse. Le numérique ce sont des terres rares, puis des microprocesseurs, puis un assemblage de machines. Donc là, déjà, on a couvert un terrain de jeu que la France ne couvre pas du tout, l’Europe pas beaucoup non plus, même si on a des champions comme ASML aux Pays-Bas dont tous les constructeurs de puces dépendent. On a tout de même des acteurs européens qui sont essentiels dans la chaîne de valeur, mais si on ne prend que les composants et la partie infrastructure matérielle, alors nous ne sommes pas leaders.
Ensuite, le cloud, qui est la partie infrastructure, c’est-à-dire les datacenters qui contiennent les machines, avec la partie énergétique, nous avons quelques acteurs qui peuvent répondre aux premiers besoins avec du bare metal, c’est-à-dire des machines nues, mais nos acteurs sont en deuxième division en ce qui concerne la partie logicielle, parce que le cloud c’est aussi beaucoup d’orchestration de ressources, de fragmentation de machines virtuelles.
Certaines technologies sont maîtrisées, d’autres utilisent de l’open source qui, lui aussi, est plus ou moins bien maîtrisé, mais force est de constater que la première division est trustée par des hyperscalers américains. Et même en Europe, si on ajoute nos hyperscalers nationaux plus Deutsche Telekom, ça ne correspond qu’à 2 % de parts de marché.
En fait, il faut bien distinguer la maîtrise du déploiement.
Pour l’infrastructure, nous sommes un peu en reste et je passe les détails de tout ce qui est connectivité, notamment à travers les continents.
Donc tout est une question de mille-feuille, de couches, et si on rajoute par-dessus toute la partie cloud, il y a la partie logicielle qui correspond éventuellement à une application en B to B ou en B to C.
Les acteurs les plus dominants sont ceux qui ont la maîtrise d’un maximum d’éléments de cette pile, de ce mille-feuille. J’ai nommé Microsoft et Google, même si Apple fait aussi partie de ce lot-là sans être un fournisseur de cloud et de datacenter. Les acteurs que sont Microsoft avec Azure jusqu’à Office, les acteurs que sont Google avec le cloud de Google jusqu’à Google Search et Android, et Apple, évidemment, qui maîtrise un grand nombre de ces couches-là, sont ceux qui sont les plus à même de capitaliser sur l’ensemble, y compris l’IA, parce qu’ils ont accès à cinq milliards d’utilisateurs collectivement, c’est-à-dire la quasi-totalité de la planète équipée d’une informatique connectée au réseau.
Les acteurs français sont collectivement, évidemment, capables de faire plein de choses, mais n’ont pas du tout accès à la même distribution, c’est donc la difficulté. Nous n’avons pas de terres rares, très peu, nous n’avons pas la capacité de créer des puces en trois nanomètres ou deux nanomètres. STMicroelectronics était notre champion européen, français, mais a été finalement balayé par une avancée très forte des autres acteurs. Les dominants, aujourd’hui, sont donc les Intel, AMD et, bien sûr, Nvidia en GPU, avec ARM qui propose aussi un autre modèle, et ces acteurs-là ne sont ni français ni européens. Et enfin, nous avons toute la partie logicielle et, si on regarde les hyperscalers, ils ont des dizaines de milliers de développeurs qui créent ces plateformes as a service, ces plateformes qui permettent aux développeurs de facilement déployer.
Donc notre souveraineté est proche de zéro en numérique, mais on se soigne parce que, récemment, nous avons eu une séquence qui, je pense, fait que nous avons dû nous réveiller et prendre conscience. Cette séquence infernale, c’est la séquence Trump America first, c’est la séquence Covid où on se rend compte qu’on n’a pas non plus de souveraineté en matière de masques, c’est-à-dire que si on ne sait pas faire de masques, alors on ne peut pas se protéger ; se pose la question ensuite des vaccins. Ensuite, nous avons eu la guerre en Ukraine, à nos portes, on se rend compte que oui, effectivement, nous avons une souveraineté dans la capacité de créer des Rafales. La France a cette capacité militaire, industrielle, de créer des avions de chasse, c’est ça la vraie souveraineté, mais elle se mesure sur un gradient également, c’est-à-dire qu’il faut du métal. Sommes-nous en capacité de produire ce métal ? C’est très complexe, donc la vraie question que l’on doit se poser au niveau français et européen, c’est quelle est la tendance ? Cette souveraineté est au ras des pâquerettes, est-ce que nous améliorons notre souveraineté ? Ou à l’inverse, on peut dire différemment, est-ce que nous diminuons nos dépendances ? Cette volonté industrielle existe aujourd’hui. On pourra donc ajouter un phénomène dans la séquence terrible, qui va jusqu’à la guerre en Ukraine, malheureusement, mais qui continue de nous saisir parce que l’IA est très boulimique en capitaux et en données. Et, évidemment, les Américains sont de nouveau largement en avance sur ces différents vecteurs. Il suffit de regarder Nvidia qui vaut 3000 milliards aujourd’hui, Nvidia est le grand gagnant et, encore une fois, Nvidia n’est ni français ni européen.
Il faut donc qu’on prenne conscience de notre faiblesse, sans détour : nous sommes proches de zéro. Donc, ma question concerne notre volonté de passer de zéro à un, de un à deux. Ce n’est pas une question de souveraineté totale, ça n’existe pas, même les Américains n’ont pas une souveraineté totale. Dans un monde globalisé aujourd’hui, les États dépendent un peu de tout le monde, mais certains sont plus souverains que d’autres selon les sujets. En matière de luxe, nous sommes assez souverains. En agroalimentaire, nous sommes assez souverains.
Clément Durand : Tu parles de souveraineté, tu dresses un tableau assez sombre, tu parlais de la guerre en Ukraine, du Covid. C’est vrai que nous nous sommes rendu compte que, globalement, nous étions quand même très dépendants et assez peu indépendants, que ce soit pour faire des vaccins, pour faire des masques. Dans l’IA, c’est pareil. On entend quand même pas mal, en tout cas pas on entendait mal de politiques dire qu’ils s’occupaient du sujet, que la souveraineté est importante, qu’il fallait réindustrialiser le pays. J’ai quand même l’impression qu’entre les paroles et les actes, il y a un décalage. Comment perçois-tu le sujet une fois que tu as fait ce constat que, en gros, globalement nous sommes à zéro en termes de souveraineté ? Est-ce que tu as le sentiment qu’il y a des choses qui bougent ou est-ce qu’on reste un peu dans l’incantatoire et il y a finalement assez peu de choses qui changent ?
Yann Lechelle : Je suis tout à fait positif parce que nous avons la chance d’avoir un gouvernement qui s’intéresse au sujet plus que d’autres. Il y a d’autres choses qui ne vont pas très bien, mais, en tout cas en ce qui concerne le numérique et l’IA, ce gouvernement a été plutôt très bénéfique, il ne faut donc pas se plaindre. Par contre, il faut regarder le miroir en face et constater qu’on a beaucoup de talents, on se félicite souvent d’avoir des talents, notamment autour des mathématiques appliquées. Il ne faut pas baisser notre garde parce que la prochaine génération semble moins intéressée par les mathématiques. Si nous sommes capables d’avoir une école qui produit le plus grand nombre de médaillés Fields, la question, pour le futur, c’est : est-ce que nous allons réussir à garder ce leadership sur les mathématiques appliquées ? Tout cela est probablement lié à l’excellence de notre école scientifique, mais, d’un point de vue très concret, on part de tellement loin ! C’est là où il ne faut pas se voiler la face, notre niveau de souveraineté numérique est proche de zéro. C’est un sujet de société, c’est un sujet d’adoption de la technologie, de transformation numérique, des choses qui sont un peu banales, mais c’est très important. Il faut que la société se numérise, adopte la technologie sans aggraver notre manque de souveraineté, donc que tout se structure.
C’est naïf de penser que l’on peut acheter à 50 % des technologies françaises parce que nous n’avons pas l’offre en face. En revanche, nous avons évidemment des acteurs cloud qui peuvent apporter des réponses, donc la question, c’est : comment est-ce qu’on double le chiffre d’affaires de ces acteurs sans dépendre des subventions ?, parce que les subventions ne sont pas l’économie réelle. Il faut rentrer dans cette économie réelle qui fait que les grands acheteurs, les grands groupes, les institutions publiques achètent un peu plus localement, un petit peu comme dans l’agroalimentaire, le circuit court. C’est-à-dire qu’il faut changer la tendance et je pense que ce gouvernement fait beaucoup de choses. Ce n’est pas simple parce que l’Europe est construite de manière un petit peu idéaliste et naïve : nous nous interdisons de faire du protectionnisme alors que les Américains, les Chinois ne s’en empêchent pas.
Donc le marché libre au sein de l’Europe, oui, le marché libre au niveau mondial est cassé, donc l’Europe doit prendre ce sujet pleinement pour permettre à l’Europe d’émerger et de protéger. Ce n’est pas du protectionnisme bêta, c’est du protectionnisme intelligent qu’il faut mettre en place, c’est-à-dire qu’il faut protéger nos plus petits acteurs pour qu’ils deviennent des acteurs émergents. La pire forme de protectionnisme, c’est celle qui protège les acteurs à tendance monopolistique, ça, c’est du protectionnisme qui est mal venu, même aux États-Unis. Mais le protectionnisme qui permet de faire émerger des acteurs sur des sujets d’infrastructure et des acteurs sur des sujets d’autonomie stratégique, tels que le numérique, c’est un sujet qui se traite de manière très particulière, notamment parce que nous avons des faiblesses au niveau européen sur ce sujet.
Clément Durand : Tu parles de faiblesses, j’aimerais bien qu’on creuse le sujet open source puisque je sais que ça te tient à cœur et, si j’ai bien compris, pour toi ça fait partie des réponses justement au manque de souveraineté, aux faiblesses, cette question de l’open source. Déjà, est-ce que tu peux nous faire un rappel de ce qu’est l’open source, d’où ça vient, et peut-être ce que ça change un petit peu par rapport aux logiciels classiques, même si je sais que l’open source ça peut être aussi dans autre chose que du logiciel ?
Yann Lechelle : Merci pour la question, parce que c’est un sujet épineux et parfois mal compris.
Si on reprend un petit peu l’historique de l’open source, il prend ses racines très certainement dans la science, dans l’open science, c’est-à-dire que les scientifiques ont tendance à publier leurs papiers et à s’assurer que, finalement, tout le monde a la possibilité de relire toute découverte ou avancée pour valider ou invalider. Il y a cette culture dans le monde scientifique.
Maintenant, l’open source prend ses racines plus précisément dans un premier mouvement qui s’appelle le mouvement free software [4]. Le terme free est particulier, parce que, en anglais, il signifie deux choses : il signifie libre et gratuit. Le free software est quelque chose qui a été poussé par quelqu’un qui s’appelle Richard Stallman [5] qui est le fondateur de la Free Software Foundation et du mouvement qui a plus tard permis de faire émerger les licences GNU, GNU’s Not UNIX ; c’est un terme récursif.
Richard Stallman était un personnage haut en couleur, très idéaliste aussi. Il pensait que le logiciel devait être parfaitement libre, comme la connaissance, probablement en réaction aux acteurs dominants qui créaient des logiciels propriétaires, fermés, qui bloquaient donc l’accès à cette nouvelle forme de connaissance qu’était le logiciel. C’était une réaction, un contre-pouvoir et aussi une approche orthogonale à ce qui se faisait. On peut imaginer IBM, acteur dominant de l’époque, qui, grâce à ses logiciels propriétaires, bloquait le marché. Et on se souvient de l’adage : personne n’a jamais été licencié pour avoir choisi IBM. C’est un peu la même chose aujourd’hui : si on choisit un GAFAM, personne ne peut nous le reprocher, parce qu’ils sont sur-dominants et c’est comme ça.
Il y a toujours ce mouvement de respiration entre le propriétaire, le modèle fermé, et le modèle ouvert qui émerge il y a une quarantaine d’années, c’était dans les années 80.
C’est le moment où le mouvement free software a évolué parce que certaines personnes, au sein de ce mouvement, ont trouvé que l’adoption du terme free software était problématique dans le monde du business, que le terme free software était, quelque part, anti-business. Et surtout que les licences issues de la Free Software Foundation, donc GNU [6], étaient très contagieuses, avec des contraintes particulières, étaient, quelque part, anti-business.
Finalement la terminologie a évolué, le terme open source a gagné, quelque part, et a signifié la possibilité d’avoir accès au code source. C’est donc une espèce de transparence sur le logiciel qui ne dit pas nécessairement que l’on ne peut pas faire de business et qu’on ne peut pas avoir des licences subtiles au-delà du logiciel.
Le terme open source est né. Ensuite, une structure qui s’appelle l’Open Source Initiative [7] a été le garant de la définition de ce que c’est que l’open source, avec toute une sorte de gradations et de paramètres, sachant que issues de la Free Software Foundation, il y avait des libertés fondamentales qui devaient venir avec une licence open source, c’est-à-dire :
- la possibilité d’utiliser le logiciel pour toute raison, sans avoir à demander la permission, c’est l’accès libre au logiciel ;
- l’étudier, pour inspecter ses composants ;
- modifier le système, y compris l’entrée et la sortie ;
- et le partager, avec ou sans modification.
Cette notion d’ouverture permettait des produits dérivés, etc.
Tout cela a été capté par l’Open Source Initiative qui est une entité très active aujourd’hui sur la nouvelle définition de l’open source AI [8].
Clément Durand : Justement, par rapport à ce que tu disais sur cette notion de transparence, de capacité à réutiliser, pour avoir entendu pas mal de personnes, autour de moi, qui disent « l’open source, c’est bien, mais, finalement, comment est-ce que je fais du business ? On va me piquer mon idée. » J’ai une question là-dessus, on pourra y revenir plus tard, mais en quelques mots, il y a d’un côté le logiciel propriétaire, en face l’open source, et pourtant, avec Probabl vous en êtes l’incarnation, on peut faire du business sur de l’open source. N’est-ce pas un peu antinomique et comment expliques-tu ça à des gens qui se disent que l’open source ce n’est pas bien ou que ça empêche de faire du business ?
Yann Lechelle : L’open source est plutôt mal compris en Europe, dans le business. Nous avons évidemment des experts, nous avons une profondeur d’expertise de contributeurs open source, mais plutôt mal-aimés. Et c’est vrai que c’est parfois synonyme d’anti-business ou de difficile à monétiser.
À l’inverse, aux États-Unis, on a des cas d’école qui ont parfaitement réussi leur monétisation, Red Hat en est un, MongoDB, Elasticsearch, Redis. Toutes ces entreprises valent des dizaines de milliards et ont bien réussi.
L’open source est une philosophie qui déplace l’objet de la licence et de la captation de valeur. C’est vrai que le logiciel permet de vendre une énième copie sans coût marginal très fort et c’est ça qui est intéressant dans le logiciel. D’ailleurs Marc Andressen, le fondateur de Netscape, qui a d’ailleurs utilisé une licence copyleft extrêmement contraignante, en tout cas Marc Andressen est un ultra-capitaliste, ultra-libéral aujourd’hui et il a dit, en 2011, que le logiciel allait manger le monde. Il ne lisait pas en termes de chaîne alimentaire mais plutôt parce que le logiciel permet d’avoir des retours sur investissement exponentiels : plus je vends et moins ça me coûte à la marge, donc ça permet d’avoir des marges bien supérieures. Quelque part, cette notion d’open source contredit cette notion de capter la valeur de manière propriétaire puisque j’ouvre mon idée, ma propriété intellectuelle, à mes concurrents ou à mes clients qui pourraient dire « tiens, finalement, je ne vais plus payer ! »
Ce qui est intéressant c’est de regarder ce qui se passe aujourd’hui, dans le monde du logiciel, au sujet du capital risque sur les logiciels non open source. Le capital risque a scripté globalement la manière de faire de l’argent et le schématise sous forme de SaaS, Sofware as a Service.
L’open source, c’est beaucoup plus subtil. Ce qui est intéressant, c’est qu’il y a des milliers de manières de faire du business avec l’open source. Par exemple l’enseignement. On peut très bien enseigner, vendre de l’expertise autour d’une technologie open source. Par exemple, les écoles utilisent des technologies open source pour enseigner des matières informatiques, c’est une manière de monétiser. On pourrait dire que ça ne scale pas. Très bien. On est sur capital humain, c’est très linéaire. On peut très bien faire ce qu’a fait Red Hat [9], c’est-à-dire monétiser le support autour d’une technologie qui est plus adaptée au monde de l’entreprise, sur une base open source qui est brute. Par exemple, Linux est plutôt brut alors que le Linux distribué par Red Hat est beaucoup plus adapté aux besoins de l’entreprise avec des modules supplémentaires, avec du support d’experts qui vont pouvoir accompagner l’entreprise. L’entreprise a toujours besoin, quelque part, d’une hotline et d’un expert et elle est ravie de payer pour cette expertise.
L’open source est une manière différente de réfléchir à la captation de valeur et on pourrait dire que l’open source est un vecteur de distribution extraordinaire. On peut regarder le marché comme un marché qui correspond à 100 % de parts de marché, mais si on vend quelque chose de très cher, de captif, de toute manière, on n’aura qu’une fraction de ce 100 % de parts de marché. Alors que si on distribue de l’open source, on va peut-être distribuer à beaucoup plus de monde que la fraction du logiciel propriétaire et on va pouvoir faire du business différemment avec plus de monde. C’est une autre approche, un autre vecteur de distribution et aussi un gage de transparence. Ça permet à nos clients de dire « j’ai confiance parce que je peux inspecter le code, je peux probablement le modifier ; si l’entreprise fait faillite, je peux retomber sur mes pattes parce que j’ai eu accès au code et je vais pouvoir le modifier, etc. » Quelque part, c’est une approche qui est orthogonale au modèle parfaitement captif, mais il existe un tas de variations, il y a un gradient entre l’open source radical tel que l’avait imaginé Stallman et le modèle parfaitement propriétaire, opaque, d’ailleurs on le retrouve dans l’IA aujourd’hui.
Clément Durand : Je crois savoir que Red Hat a été vendue pour 34 milliards à IBM.
Yann Lechelle : C’est ça. Red Hat a aussi beaucoup évolué. Ils ont adopté, en tout cas ils ont embrassé le cloud, ils ont développé tout un tas de technologies par ailleurs open source au-delà du Linux qui était leur première proposition de valeur. Ils sont parfaitement présents dans toute la chaîne de valeur du cloud et ils ont effectivement été achetés par IBM.
Clément Durand : On a parlé de souveraineté, d’open source, je sais que tu fais le lien entre les deux notions, ce qui n’est pas forcément intuitif, comme ça, au premier regard. Est-ce que tu pourrais justement préciser un peu ta pensée ? En quoi, selon toi, l’open source, justement, est source de souveraineté ? Tu disais qu’on est à zéro, en tous cas peut permettre de passer à un, à deux, à trois en termes de souveraineté, en tout cas sur la partie logicielle ?
Yann Lechelle : En effet, comme tu le dis, c’est contre-intuitif.
Si on mesure la souveraineté sur un gradient en pourcentage de souveraineté, c’est une idée un peu abstraite, mais imaginons que nous soyons à 1 %, c’est probablement proche de la vérité. Si nous sommes à 1 %, alors cela correspond à une masse globale théorique qui serait 100 %. L’open source est un levier qui baisse la pression sur le manque de souveraineté. Si on distribue de l’open source, alors on le distribue à la totalité des acteurs qui ont donc moins de dépendances sur des solutions propriétaires. Ça bouge le curseur du 100 %, donc ça augmente notre souveraineté en baissant la pression sur notre manque de souveraineté. C’est intéressant parce que c’est un levier qui permet de niveler le terrain de jeu là où nous sommes précisément mauvais, puisque, encore une fois, au niveau européen on s’interdit de faire du protectionnisme. L’open source est donc l’antithèse du protectionnisme. Si je ne peux pas protéger mes intérêts, alors je distribue quelque chose au plus grand nombre, de manière gratuite, en tout cas accessible. Il se trouve que j’ai une étude assez pointue et bien documentée, avec beaucoup de données à l’appui, qui démontre que les pays qui adoptent l’open source favorisent leur écosystème entrepreneurial et cela est plus intuitif : plus les entrepreneurs ont accès à des technologies qui leur permettent de démarrer, donc on baisse la barrière à l’entrée — évidemment, eux vont trouver une entrée dans le marché en se disant « je vais faire ça comme ça, mais, comme je n’ai pas beaucoup d’argent, alors je vais m’appuyer sur une technologie open source ». C’est comme cela que l’Internet est né, avec des protocoles ouverts, etc. Chacun s’est saisi d’une technologie disponible, ouverte. Les protocoles de l’Internet sont de l’open source sous forme de protocoles, une autre notion, et c’est comme cela que l’on génère des engouements et des écosystèmes entrepreneuriaux.
L’open source est donc un vecteur qui rééquilibre les grands déséquilibres.
Clément Durand : Et si on transfère ça sur l’IA ? Je sais que tu publies sur Linkedin. C’était ton anniversaire récemment et, le jour de ton anniversaire, tu disais que l’Open Source Initiative a justement proposé une définition de ce qu’est une IA open source [8]. Peux-tu nous dire deux mots sur cette définition ? Est-ce que ça apporte quelque chose d’avoir cette définition ? Est-ce important ? Est-ce que ça change quelque chose ou pas ?
Yann Lechelle : C’est toujours important de bien nommer les choses. L’open source a une définition qui est assez claire et qui a vécu à travers les époques, en tout cas les quelques dernières décennies. C’est l’OSI, l’Open Source Initiative, qui est garante de cette définition.
Il se trouve que nous sommes en face d’une guerre, une compétition terrible entre les hyperscalers, évidemment, et les startups émergentes de l’IA à commencer par OpenAI. C’est d’ailleurs intéressant d’utiliser ce nom et cette marque, OpenAI. Évidemment, initialement ils avaient envie de faire dans l’ouvert, dans l’open, d’ailleurs, l’entreprise a été créée comme une nonprofit. Mais plus tard, Sam Altman a réussi à faire que la succursale for-profit qui a développé ChatGPT, qui a commencé à facturer pour ChatGPT, a mangé la maison-mère et OpenAI est en fait closed AI avec énormément de moyens, largement financée par Microsoft. Donc cette structure, de manière assez caricaturale et de manière assez claire, est producteur d’une technologie fermée, propriétaire, mais qui a saisi le monde, car elle est capable de traiter le langage naturel comme personne. C’est-à-dire qu’aucun humain n’a cette capacité linguistique parce que cette IA a été boulimique, elle a avalé la quasi-totalité des données écrites, documentées par l’humanité et elle les a compactées dans un chat, ce ChatGPT qui, quelque part, risque de nous rendre ignorants et nous bluffe dès qu’on l’utilise, parce qu’il nous menace dans notre supériorité animale qu’était le langage. C’est la première fois où la totalité de l’humanité, peut-être, se sent menacée dans ce qui lui restait d’assez supérieur, de manière évidente, par rapport à l’espèce animale. Il nous reste peut-être d’autres choses, mais cette IA-là nous menace. On voit très bien que ce modèle-là était fermé.
Il se trouve que Meta, qui n’a aucun business dans le cloud, qui vend des réseaux sociaux, qui vend de la pub sur nos données, a libéré un modèle équivalent, en tout cas équivalent à ce que faisait OpenAI en open source et ils ont dit « c’est de l’open source ». En réalité, si on regarde bien, ce n’est pas du tout open source dans l’esprit de la définition open source, mais ils ont, quelque part, trituré, en tout cas utilisé le terme pour montrer qu’ils étaient les chevaliers blancs qui n’allaient pas faire de l’argent sur notre dos, etc. Si on analyse un petit peu, on peut se dire que Meta qui allait plutôt mal pour avoir trop investi dans le métavers sans avancée concrète à ce stade, ou alors Meta qui, quelque part, joue un rôle sociétal compliqué vis-à-vis de l’information, des médias, etc., donc, Meta malmenée à juste raison aussi, parce que Meta est une entreprise importante qui joue un rôle important dans la société, finalement se redore peut-être le blason en libérant quelque chose, en le mettant à disposition.
Il se trouve que le terme open source est devenu presque un verbe, « j’open source ceci, j’open source cela ». Finalement, c’est un terme qui est dégradé dans sa signification stricte et qui signifie « j’ouvre, je donne accès. » Ça c’était vrai : Meta, avec LLaMA 2 [10] en particulier, a donné accès dans l’esprit, dans la continuité d’une certaine science ouverte, puisque ce sont des chercheurs, des scientifiques et qu’ils ont publié des papiers, ils ont libéré des poids.
En réalité, si on est très strict, il ne s’agit pas d’open source, parce que le terme source fait allusion au code informatique, alors que Meta a libéré LLaMA 2 qui n’est pas du code informatique, mais plutôt des poids, on appelle ça du open weight, c’est-à-dire l’artefact, le produit de données massives et d’algorithmes logiciels qui, eux-mêmes, sont en open source, par exemple PyTorch [11]. PyTorch est une technologie open source là aussi, développer par Meta. Donc Meta produit du vrai open source avec PyTorch, mais globalement a forcé le trait sur l’open source qu’était LLaMA 2.
Maintenant peu importe, ce sont des définitions. Dans les actes, Meta a libéré quelque chose d’intéressant. J’aurais tendance à dire que la société n’était pas prête et qu’elle joue avec le feu de libérer quelque chose en open source qui vaut des dizaines de millions à créer. C’est comme si on donnait à un enfant un portefeuille avec un million d’euros dedans ; il vaut mieux réfléchir avant de le faire !
Est-ce que ça a été fait de manière tactique pour changer la perception sur Meta ? Est-ce que ça a été fait pour contrecarrer les avancées de ses concurrents ?, parce que Meta est en concurrence avec Apple, Google, Microsoft, pour le talent, pour l’avancement de la technologie. Meta ne veut pas dépendre de Google, d’Amazon et de Microsoft au niveau technologique. C’est très compliqué. Nous n’avons pas les réponses, nous ne sommes pas les décideurs de ces entreprises. Donc, d’un point de vue stratégique, peut-être vont-elles décider de faire certaines choses pour créer une diversion. Il faut faire bien attention, il faut être très conscient de ces leviers qui correspondent à des décisions stratégiques d’entreprises qui valent des milliers de milliards. Ces entreprises sont plus puissantes que certains États, il faut en être très conscient.
Si on accélère, Meta a libéré une certaine énergie créative grâce à LLaMA 2 qui a été exposé, ouvert, même si on n’est pas parfaitement dans la définition open source. Donc s’ensuit tout un débat auquel j’ai participé. Qu’est-ce que l’open source dans l’IA ? Qu’est-ce que l’open weight ? Il se trouve que Mark Zuckerberg et Daniel Ek, de Spotify, ont écrit une tribune dans The Economist [12] pour défendre les mérites de l’open source et dire que l’Europe est trop régulée, que ça empêche l’innovation, etc. On sait évidemment que leur message n’est pas teinté de biais stratégiques !
Tout cela pour dire que nous sommes entrés dans une phase où, effectivement, nous sommes sur un sujet d’open source spécifiques à l’IA. L’Open Source Initiative a itéré pendant plus d’un an sur un document qui a pour vocation de définir ce qu’est que l’open source. On en est à la version 0.09 et cette version a été publiée le jour de mon anniversaire, donc cadeau, parce que je considère qu’il faut bien nommer les choses, il faut bien les définir, et The Open Source AI Definition me plaît beaucoup parce qu’elle reste stricte tout en permettant des gradients et elle revient sur les principes que l’on retrouve dans la Free Software Foundation, que sont l’usage, l’inspection, l’étude du code, des éléments, de modification, de partage, mais elle va le faire sur trois vecteurs : les données, le code et l’artefact, l’artefact étant le modèle.
Donc, pour être parfaitement open source, il faut être open source sur les données, il faut être open source sur le code, il faut être open source sur le modèle. Libérer uniquement le modèle, ne fait pas de cela une IA open source. Donc LLaMA 2 n’est pas open source. Mais les modèles, eux, sont, selon la définition de l’OSI, effectivement ouverts et accessibles.
Il faut bien distinguer le système d’IA, la totalité du système, d’un modèle qui, effectivement mis sur étagère, on peut utiliser. Mais soyons très clairs, Meta a libéré LLaMA 2 avec une licence qui interdit à ses concurrents de l’utiliser. Ses concurrents ne se définissent pas par leur nom, mais par une métrique : Meta interdit à des acteurs qui ont plus de 800 millions d’utilisateurs d’utiliser LLaMA 2.
Clément Durand : Au moins, ça le mérite d’être clair. Merci pour ça.
Il nous reste quelques minutes, j’aimerais bien aborder un autre sujet que tu as évoqué très rapidement, celui des GPU. En fin d’année dernière, tu t’étais livré à une petite prédiction sur l’éclatement possible de la bulle autour des GPU, je voudrais bien que tu reviennes dessus. Finalement, qu’est-ce qu’il y avait dedans ? Et revenir aussi sur ce que sont les GPU, à quoi ça sert et l’impact que pourrait avoir une capacité réduite, on va dire, à accéder aux GPU sur les développements de l’IA.
Yann Lechelle : Les GPU sont, quelque part, un monopole de fait. Aujourd’hui, c’est Nvidia qui produit le plus et qui vend le plus de GPU, notamment pour l’IA et l’IA générative mais pas que. Nvidia, c’est ce constructeur de puces qui a commencé par vendre des cartes graphiques pour les jeux en 3D et ensuite a continué, évidemment, de développer ces cartes pour encore plus de résolution, de pixels à l’écran. Elles ont aussi été utilisées pendant l’avènement de tout ce qui concerne les cryptomonnaies, pour faire du mining de bitcoins il fallait des GPU. Et puis avant 2018, Google, avec DeepMind, a montré que l’algorithme, le deep learning était capable de faire des choses, des prouesses, notamment battre le champion de go, donc tout cela a participé à faire que les chercheurs se sont intéressés de plus en plus à l’IA. On n’était pas dans l’hiver de l’IA mais plutôt dans une phase estivale, enthousiaste, où les chercheurs ont beaucoup travaillé autour des GPU, mais on n’était pas encore dans une avalanche au niveau des cas d’usage, parce qu’il fallait trouver, il fallait craquer le problème. Deepmind le faisait à son niveau pour démontrer certaines choses et ça n’était pas rentré dans un usage généralisé. Ensuite, en 2018, Google a publié un papier sur les transformers [13] qui a permis d’imaginer qu’en mangeant toutes les données textuelles on allait pouvoir créer des LLM, ce qui a été fait, et tout cela a abouti à ChatGPT.
Le problème que j’ai avec cette dynamique-là, c’est que l’engouement que l’on retrouve au niveau du capital risque est basé presque strictement sur cette phase entre les transformers et les LLM. D’ailleurs, si on écoute Yann Le Cun [14], l’un des plus brillants analystes autour de ces technologies, qui fait de la recherche appliquée en machine learning depuis l’hiver des années 90, c’est-à-dire que Yann Le Cun, envers et contre tous, a persisté, y a toujours cru, même si, évidemment, ça a été compliqué entre-temps, il a aujourd’hui une sensibilité qui lui fait dire que nous sommes arrivés aux limites des LLM. Les LLM ne répondront pas au challenge du prochain palier, donc il dit « circulez, il n’y a plus rien à voir. » Et quelque part, l’engouement autour des GPU est basé sur OpenAI et ces LLM, basé sur ce qu’a fait Meta.
Mistral [15], une des rares entreprises françaises, européennes, à avoir cette maîtrise, a réussi à lever des capitaux absolument extraordinaires, colossaux, rarissimes, du jamais vu en France, mais tout cela est basé sur l’idée que les LLM, sur cette trajectoire-là, vont répondre au prochain challenge. Il est fort possible que nous ayons déjà atteint les limites de ce que les LLM peuvent nous fournir, donc, probablement que l’enthousiasme n’est pas sur une exponentielle qui est soutenable. Par conséquent, nous allons probablement voir un essoufflement de cette dynamique-là. Déjà les coûts ont baissé, les algorithmes se sont améliorés, on peut faire différemment avec moins de données, on peut évidemment composer avec d’autres technologies, on parle d’agents qui vont travailler des modèles plus petits et itérer beaucoup plus.
La vraie question autour de cette bulle probable autour de l’IA générative est que l’algorithme, la quantité de données et l’énergie d’ailleurs — peut-être que nous n’avons pas suffisamment d’énergie sur terre pour soutenir cette courbe qui a fait que les capitaux risqueurs se sont engloutis en masse dans cette industrie, est que nous pouvons imaginer que, finalement, il y aura très peu de gagnants et j’ai peur que les principaux gagnants soient les mêmes, c’est-à-dire les hyperscalers qui ont 1, la capacité d’achat, 2, la capacité de distribution et 3, le full stack jusqu’à l’expérience utilisateur. C’est-à-dire que si l’interface est textuelle, globalement c’est Word ; si l’interface est textuelle, globalement c’est Google Search ; si l’interface est tactile ou vocale, c’est iOS et Android, donc Apple et Google.
Il reste évidemment un marché très large, en B to B, que ces entreprises traitent beaucoup moins. On va pouvoir se spécialiser. L’IA, évidemment, existe depuis des décennies et participe à l’amélioration des performances de l’entreprise. L’IA générative va aussi apporter des gains de productivité, mais pas nécessairement calés sur l’engouement que nous avons pu constater entre 2022 et 2023.
Clément Durand : Tu en as parlé assez brièvement, tu disais qu’on n’a peut-être pas assez d’énergie pour nourrir toutes ces machines. Au début, on a parlé des questions d’approvisionnement, de géopolitique. Il ya aussi toutes ces problématiques liées au changement climatique. J’imagine que dans ton rôle de CEO [Chief Executive Officer] de Probabl ce sont des choses auxquelles tu penses. Comment penses-tu ton rôle de CEO avec une techno comme celle que vous développez, avec de l’IA, dans un monde avec des ressources limitées, qui se raréfient ? Comment intègres-tu cette question du changement climatique, de la raréfaction des ressources, des tensions géopolitiques, dans la vision de ton entreprise et dans le futur que tu lui vois ?
Yann Lechelle : Déjà, le marché est gigantesque et la première chose c’est que les entreprises ont à peine commencé leur transformation numérique au niveau macro. On a évidemment des entreprises qui sont championnes et qui ont fait tout ce qu’il fallait faire, en tout cas en éduquant toutes les strates de l’entreprise au numérique. Il y en a quelques-unes, mais il y a beaucoup de chemin, il y a de la place pour tous les acteurs. Première chose.
Deuxième chose. J’ai beaucoup de chance parce que le projet sur lequel je travaille est basé sur une technologie frugale qui fonctionne sur des CPU, qui ne dépend pas nécessairement de GPU. L’approche sur des données tabulaires est donc quelque chose de très léger, très maîtrisé, qui, d’ailleurs, est déjà distribué pour créer des efficiences en entreprise depuis des années. Nous sommes donc sur un terrain de jeu qui est favorable. Aujourd’hui, les entreprises se posent justement des questions : quelle est l’empreinte carbone de mes opérations ? Le danger, c’est que certaines personnes pensent que cette IA générative peut tout faire. C’est faux. Cette IA générative ne peut pas tout faire, en tout cas loin de là et pas aujourd’hui. Il existe des techniques qui sont éprouvées et l’entreprise doit décider entre le buzz, ce qui est hype, et les choses fondamentales que l’entreprise va mettre en place pour améliorer ses process : réduction des coûts, optimisation des process, moteur de recommandations pour les clients pour que le tunnel d’achat soit plus efficace, éviter le churn pour les utilisateurs, détection de fraudes qui coûtent très cher dans certains business.
Il y a vraiment un terrain de jeu très large pour les fournisseurs de technologies et, dans mon cas, j’ai la chance de travailler avec une technologie et une équipe qui maîtrise des pans de l’IA qui sont beaucoup plus évidents. Évidemment, on observe tout ce qui se passe côté IA générative et très certainement, nous utiliserons les LLM et l’IA générative comme composants de l’interface homme-machine, parce que les LLM sont excellents pour cela, c’est-à-dire pour traiter le langage naturel, qui est une interface naturelle pour l’humain, et le transformer en instructions-machine pour que la machine puisse prendre le relais.
Pour moi, le sujet européen est celui qui concerne notre singularité : qu’est-ce qui fait que nous sommes différents des États-Unis et de la Chine, par exemple, pour rester compétitifs par rapport à notre singularité ? C’est la chose que l’on doit cultiver. C’est un sujet qui m’intéresse en tant que citoyen, c’est un sujet qui m’intéresse aussi en tant que CIO d’entreprise, puisque ces singularités, qui se retrouvent dans l’ADN de notre entreprise, correspondent à un marché qui est le nôtre, le marché européen. Et ensuite, qu’est-ce que l’on peut exporter, qu’est-ce qu’on peut vendre au reste du monde ? Le marché américain est extrêmement profond et puissant. Il faut donc aller vers l’export pour, justement, ramener des dollars et des euros dans nos caisses, pour payer l’infrastructure, la sécurité sociale.
C’est un tout et il faut le comprendre de manière globale, intégrée. Il faut comprendre le mille-feuille, le déconstruire pour ensuite travailler les leviers.
Clément Durand : On arrive à la fin de l’épisode. J’ai une dernière question pour toi, un peu de prospective. Je voulais te demander d’imaginer que tu es en charge de déployer la stratégie européenne d’intelligence artificielle qui vise à faire de l’Europe un acteur souverain dans le domaine à horizon 2034, une dizaine d’années. Comment t’y prendrais-tu ? Par quoi commencerais-tu ?
Yann Lechelle : J’ai commencé, en tout cas c’est mon activité au quotidien : l’open source est un vecteur extraordinaire, sous-estimé, qui nous permettrait véritablement de changer cette fatalité de non-souveraineté. C’est une première chose. D’ailleurs l’Allemagne a cette même sensibilité que nous au niveau du terreau, c’est-à-dire que ces ingénieurs qui ont une sensibilité open source, qui sont dans le partage de la technologie, ces gens-là existent en Europe, sont bien représentés. Dans l’adoption, il y a cette fascination que nous avons pour les entreprises américaines, ce qui peut se comprendre, leurs produits sont excellents, mais il faut comprendre le coût des dépendances.
Pour moi, la stratégie consisterait à faire beaucoup de pédagogie pour bien déconstruire et se projeter dans le futur ; 2034, c’est dans dix ans. Si nos auditeurs, ici, sont des parents, ils doivent se poser la question : est-ce que nous voulons laisser à nos enfants une économie qui est vassalisée par des puissances étrangères ? Dans certains cas, c’est acceptable, dans d’autres cas, ça n’est pas acceptable. Et le point de flottaison n’est pas à 50 % hypothétique, ce que l’on retrouve d’ailleurs dans l’exception culturelle française qui force à ce qu’il y ait 50 % de contenu créé en France à la radio, à la télévision. Non, ça c’est un peu difficile à imaginer, en tout cas à court-terme. En revanche, il n’est pas du tout impossible de se caler sur les deux chiffres qui me paraissent importants : la France, c’est 3 % du PIB mondial, l’Europe, c’est 18 % du PIB mondial. Eh bien, nous devrions consommer à hauteur de notre PIB sur des sujets stratégiques. Donc, si nous sommes à 1 %, nous devrions atteindre 3 % d’achats de technologies produites localement. Et on devrait faire la même chose au niveau européen, puisque nous appartenons à l’économie européenne et que nos destins sont liés par le biais de la structure.
Pour moi, la stratégie consiste à atteindre ce point de flottaison en utilisant deux leviers : l’open source, si on baisse le plafond, alors la ligne de flottaison remonte par rapport à ces 3 %, d’une part, et trouver un moyen pour motiver les grands acheteurs et les institutions publiques à consommer plus en local parce que c’est vertueux. Ça ne veut pas dire, de manière binaire, ne plus travailler avec les GAFAM, au contraire, le marché est tellement large et en croissance, il n’y a aucun problème, mais ne pas atteindre cette ligne de flottaison est une erreur stratégique, notamment si on se projette au-delà de 2034 pour les générations à venir.
Pour moi, c’est ça le sujet, c’est le seul sujet, c’est inverser la tendance et passer de 1 % à 3 %. Soyons fous !
Clément Durand : Merci beaucoup, Yann.
Yann Lechelle : Je t’en prie. Merci Clément.
Voix off : L’épisode est maintenant terminé. J’espère qu’il vous a plu. N’hésitez pas à le partager autour de vous et à vous abonner au podcast pour écouter les prochains épisodes. À bientôt.