Delphine Sabattier : Vous écoutez Politiques numériques, alias POL/N, une série inédite de débats et d’interviews politiques sur les enjeux de l’ère technologique.
Je suis Delphine Sabattier et je reçois ici des décideurs publics et des experts de ce nouveau terrain de jeu législatif que constitue le monde des plateformes.
Pour cet épisode, mes invités sont la sénatrice Catherine Morin-Desailly et quelques experts. Je vous les présente : Bernard Benhamou, Institut de la souveraineté numérique [1], Tariq Krim de Cybernetica [2] et Chantal Genermont qui a occupé plusieurs postes dans la tech et la data, qui est aujourd’hui la directrice générale de Chapsvision CyberGov [3], une entreprise de la data dans le domaine régalien, n’est-ce pas Chantal ?
Chantal Genermont : Absolument.
Delphine Sabattier : Bonjour à tous. Bienvenue dans cette émission. C’est le deuxième épisode. Très heureuse de vous recevoir Madame Catherine Morin-Desailly, vous êtes très impliquée sur ces questions du numérique et j’avais envie de vous entendre en particulier autour de l’AI Act, c’est vraiment notre sujet de débat.
Aujourd’hui, êtes-vous satisfaite de cet accord [4] politique ?
Catherine Morin-Desailly : Oui. Après maints rebondissements, on peut dire qu’on a atterri plutôt bien à l’issue du trilogue. Bien sûr, le texte doit être finalisé ces jours-ci, il y a encore quelques réunions techniques, mais il est représentatif de l’équilibre, en tout cas voulu par le Sénat, voulu aussi par le Parlement européen entre encouragements, soutiens à l’innovation pour faire en sorte que nous ayons une filière de l’IA dynamique et de premier plan et, en même temps, tout cela conforme à nos fondamentaux européens, le respect de nos libertés publiques. On arrive aujourd’hui à ce texte après quelques rebondissements puisque vous savez que le Conseil, qui est la représentation des gouvernements en Europe, avait émis un avis beaucoup plus déséquilibré, en quelque sorte, dans le cours des discussions et avait levé les obligations de transparence qui sont très importantes et qui, soi-disant, auraient bridé l’innovation. On arrive enfin, je pense, à quelque chose d’équilibré. Attendons de voir, dans les jours, que ce soit confirmé.
Delphine Sabattier : Quand vous nous dites « soi-disant », c’est-à-dire que vous considérez que peut-être on aurait eu tendance à laisser de côté l’intérêt général ?
Catherine Morin-Desailly : Oui. L’objectif de la Commission européenne était bien de construire une intelligence artificielle de confiance. Donc, à la fois prendre en compte une numérisation conforme aux valeurs européennes et, en même temps, soutenir l’innovation et le développement de cette filière extrêmement prometteuse et stratégique. Certains, au prétexte de l’innovation, mais c’était déjà le cas au début des années 2000 quand on a construit la législation, la fameuse directive e-commerce [5], déjà, au prétexte de l’innovation, on n’a pas mis en place les garde-fous, les mécanismes qui construisent un Internet de confiance. Donc, là, il ne faut pas louper, en quelque sorte, faire en sorte que nous soyons comme un étalon d’or, une référence au niveau mondial, comme nous l’avons été pour le RGPD [6]. Donc le trilogue, après maintes discussions entre le Parlement européen qui avait une vision très équilibrée, le Sénat qui a soutenu le Parlement européen et qui a aussi enrichi la proposition, le Conseil européen et la Commission, aboutit à un accord, me semble-t-il, satisfaisant.
Delphine Sabattier : Est-ce que c’est la même opinion autour de la table ? Est-ce qu’on est satisfait de cet accord politique qui a été trouvé ? Est-ce qu’on régule peut-être un peu tôt comme peuvent le penser certains ? Bernard Benhamou.
Bernard Benhamou : Je pense qu’à l’heure actuelle l’essentiel est de ne pas refaire l’erreur qui a été faite, en gros, il y a 20 ans, ce que rappelait Madame la sénatrice, c’est-à-dire ne pas vouloir réguler, ne pas faire porter de responsabilité particulière sur les plateformes de manière, effectivement, à leur laisser le champ économique et la possibilité de se développer. On a vu ce à quoi ça a mené. Ça a mené effectivement au scandale Cambridge Analytica [7]. Puisque Madame la sénatrice rappelait le rôle central du RGPD, des règles européennes sur les données, on peut dire qu’il n’y aurait sans doute pas eu de scandale Cambridge Analytica si les Américains s’étaient dotés d’une loi fédérale sur la protection des données. On voit donc bien que ne pas le faire sur l’IA aujourd’hui serait prendre le risque, effectivement, de dérives tout aussi importantes, voire pires, en matière de désinformation, en matière de contrôle politique des opinions publiques et c’est déjà en train de se tenir et on voit bien l’impact que ça a déjà dans les campagnes en cours. On a, je le rappelle, deux milliards de personnes qui vont aller aux urnes dans le monde dans l’année qui vient, dans les 12 mois qui viennent, donc on voit bien à quel point c’est important. Je pense que l’erreur qui a été commise, en particulier à l’époque Obama – on n’a pas voulu réguler les Google et autres à l’époque –, ne doit pas se reproduire maintenant parce que, si on le fait, il sera infiniment difficile de revenir en arrière.
Delphine Sabattier : Tariq Krim, est-ce que la régulation, la réglementation, les lois, peuvent éviter des scandales comme Cambridge Analytica ?
Tariq Krim : Ce qui est clair c’est que dans les technologies telles qu’elles existent, c’était le cas des réseaux sociaux et aujourd’hui de l’IA, il y a deux choses.
La première c’est que dans le cadre de l’AI Act, depuis quelques années, il y a toute une idéologie, peut-être même plusieurs idéologies qui se sont mises en place : d’un côté ce qu’on a appelé les effective altruists, ceux qui pensent que l’IA va être source de problèmes immédiats, qu’il faut soit faire des pauses soit, je dirais, changer les modèles. C’est un agenda qui a d’ailleurs, d’une certaine manière, contaminé l’Europe : quand on voit la dernière réunion qui a eu lieu à Londres, c’était cet agenda, effective altruism [8], qui était vraiment mis en œuvre. Et, de l’autre côté, les techno-optimistes ou les accélérationnistes, ceux qui disent qu’il faut aller très vite.
Le problème qu’on a aujourd’hui, et c’est la deuxième chose, c’est qu’il faut faire une différence entre l’IA générative [9] et l’IA avec les modèles qu’on a connus depuis une quinzaine d’années, dans laquelle clairement on a fait n’importe quoi, on a introduit des modèles dans Facebook. Ce n’est pas tellement la complexité des produits que la taille : quand on a plusieurs milliards de personnes qui peuvent, chacune d’entre elles, dire ce qu’elles veulent et qu’on a un algorithme dont personne ne comprend véritablement le fonctionnement at scale, comme on dit, à l’échelle, on a des choses qui deviennent complètement incompréhensibles et on l’a vu dans de nombreux pays.
D’une certaine manière, ce qu’a fait Cambridge Analytica ou ce qu’ont fait les Russes, ce qu’ont fait, d’ailleurs, tous les pays du monde, c’est exploiter ces failles, c’est exploiter le fait que, parfois, on comprend des choses que même Facebook ne comprend pas et on les utilise.
Dans le cas de l’IA, ce qui me semble, à mon avis, une erreur, c’est qu’on parle d’IA générative comme si on parlait de l’IA des cinq/dix dernières années, ce qu’on appelle le deep learning où, effectivement, la machine apprend de ce qu’on lui montre, elle apprend toute seule, c’est ça la nouveauté, avant on lui expliquait comment le faire, maintenant elle apprend toute seule. Effectivement, quand elle apprend mal ou quand c’est mal cadré, ça pose des problèmes. Mais, dans le cas de l’IA générative, pour moi c’est une technologie extra-terrestre : elle est arrivée. On l’utilise et on n’est toujours pas capable... Je discute avec les ingénieurs de Mistral, mais aussi mon cofondateur qui travaille maintenant chez OpenAI, tous les gens qui travaillent sur des LLM [Large Language Models], personne ne comprend vraiment comment ce produit fonctionne.
Delphine Sabattier : Moi aussi. Chez Microsoft, en l’occurrence, on me dit qu’il y a eu des surprises au moment où ces IA génératives ont sorti des résultats hyper pertinents, par exemple sur la traduction, c’était une surprise, sur leur capacité à comprendre l’ironie, elles n’avaient pas été entraînées pour ça, c’est une surprise. Ça pose la question : est-ce qu’on n’est pas justement, en train de réguler trop tôt, Chantal Genermont ?
Chantal Genermont : Je pense que c’est déjà très positif sur la question de l’opportunité, très positif de montrer qu’on est capable en Europe, au niveau européen, d’arriver à un texte. Ça montre une convergence, c’est déjà un très grand point sur un sujet aussi pointu.
Trop tôt je ne crois pas, au contraire, je trouve que le timing est parfait, puisqu’on a bien vu qu’aux États-Unis l’administration Biden a sorti l’Executive Order il y a deux mois, en octobre, avec une position assez différente, sur des guidelines, des standards par secteur plutôt que transverses, donc on est quand même sur ce sujet-là. On arrive dans les temps, on n’est pas trop en retard ; on n’est pas trop en avance. On a vu aussi, au Royaume-uni, encore un autre sujet de débat sur l’IA.
En étant si nombreux, arriver à s’aligner sur un sujet aussi pointu aussi rapidement, à quelques mois des US et de l’UK, je pense, au contraire, qu’on est très clairement dans les temps. Je pense que beaucoup de l’implémentation, de la mise en œuvre de ces réglementations, en tout cas de ces guidelines va arriver en 2024.
Delphine Sabattier : Vous qui travaillez dans une entreprise la data, vous ne voyez pas ces textes comme des empêcheurs d’innover ?
Chantal Genermont : Au contraire, je trouve que ça permet d’encadrer et de permettre à ceux qui font, en l’occurrence nos ingénieurs, d’avoir à peu près une sorte de garde-fou même dans leur imagination, même dans leur quotidien. Je pense que c’est après, à quel degré et quelles sont les méthodes qu’ils vont encadrer : est-ce qu’on a besoin d’un acteur indépendant, d’une sorte de tiers de confiance pour pouvoir encercler, en tout cas maîtriser tout ce qui peut être propriété intellectuelle des outils. Après, c’est la mise en la mise en œuvre, la mise en place, la façon, le détail dans lequel on rentre. Au contraire, je pense que c’est un garde-fou qui protège même les acteurs de produits.
Delphine Sabattier : Je voulais quand même interroger la sénatrice sur ce point qui est important finalement : c’est la gouvernance de ce texte, l’AI Act. Qui va être aux manettes ? Qui va faire appliquer ? Selon quelles règles ? Comment tout cela va-t-il s’agencer avec le Règlement sur la protection des données, le RGPD ? Madame la sénatrice, là on a encore un boulevard de réflexion et de travaux juridiques et politiques.
Catherine Morin-Desailly : Aujourd’hui, il s’agit d’améliorer la gouvernance du règlement afin de garantir sa mise en œuvre uniforme et efficace. Il faut donc donner aux autorités nationales et européennes les moyens de contrôler efficacement cette mise en œuvre.
Je voulais ajouter que c’est important de légiférer maintenant, comme l’a dit Chantal, puisque c’est le troisième volet du triptyque DMA [Digital Markets Act], DSA [Digital Services Act] et IA Act, avec aussi le Data Act qui va arriver en discussion dans le cadre du trilogue. Il faut donc une cohérence entre les trois textes et ça passe par une bonne gouvernance établie tant au niveau européen que déclinée dans les États membres.
Vous savez qu’en France c’est la CNIL qui va être désignée comme autorité compétente pour la surveillance de l’application.
Delphine Sabattier : Ça a été décidé ?
Catherine Morin-Desailly : Oui, c’est en cours de finalisation. C’est ce que nous avions préconisé et puis il faut octroyer aux autorités nationales de contrôle des moyens humains et matériels bien sûr suffisants pour remplir les missions, mais c’est valable de la part de toutes les autorités de contrôle qui, aujourd’hui, comme l’Arcom [Autorité de régulation de la communication audiovisuelle et numérique] en France, doivent mettre en œuvre l’application du DSA par exemple. C’est très important.
Il faudra aussi étoffer les missions du Comité européen de l’intelligence artificielle [10], qui va donc associer les différentes autorités de régulation de chacun des États membres. Bien entendu nous avons préconisé que, dans ce comité, on inclut absolument des scientifiques et des praticiens de l’IA, pas que des fonctionnaires de Bruxelles qui, forcément, auraient une vision strictement technique ou juridique. Il faut aussi que les compétences consultatives du Comité soient élargies parce qu’il aura besoin d’être associé étroitement aux modifications apportées au règlement ultérieurement à son adoption.
Il y a toute une série de démarches qui vont devoir être établies par la suite.
Je souhaite aussi que le Comité européen ait un droit d’initiative qui lui permette de formuler des avis et aussi des recommandations sans saisine préalable de la Commission.
C’est donc un travail de fond qui nous attend.
Delphine Sabattier : Avec la perspective, finalement, d’application plutôt autour de 2027.
Tariq Krim, sur ce sujet de toutes ces réglementations, toutes ces nouvelles régulations aussi, parce qu’il y a de nombreux textes au niveau international pour traiter ce sujet de l’intelligence artificielle, est-ce qu’on ne risque pas de freiner l’innovation en l’occurrence en Europe ?
Tariq Krim : C’est vrai que c’est une question. L’un des problèmes que l’on a avec en général la Commission c’est que l’ensemble des règlements et des régulations qu’elle met en œuvre sont plutôt destinés aux très gros acteurs. Et aujourd’hui, c’est vrai que les très gros acteurs dans le monde du numérique, qu’on appelle les GAFAM, on parle maintenant des Sept Magnifiques, eux seront prêts. Les PME, les startups, probablement moins.
Il y a un autre sujet. Je pense qu’à travers l’AI Act on essaye beaucoup de déborder sur d’autres sujets. À chaque fois qu’on parle d’IA, en fait on parle de réseaux sociaux, de questions de données, de stockage de données. Sur l’IA je suis très circonspect sur les méthodes : peut-on réguler ce qu’on ne comprend pas ? C’est toujours pareil.
Delphine Sabattier : Qu’on ne comprend pas et qu’on ne connaît pas encore parce que ça va très vite !
Tariq Krim : Sans oublier que l’IA est un monde non déterministe, c’est-à-dire que vous ne pouvez pas prédire le résultat. C’est d’ailleurs pour ça que c’est de l’intelligence artificielle...
Delphine Sabattier : Est-ce qu’il faudrait une approche plus pragmatique ? Mettre à l’épreuve ces modèles de langage ?
Tariq Krim : J’aime bien ce qu’a fait Biden, il est en charge du Gouvernement fédéral et il l’a dit « voilà comment le Gouvernement fédéral va utiliser les choses, comment ça va se faire, voilà les réglementations. » Ce qui est un peu gênant parfois, on l’a vu avec le RGPD, s’il n’y avait pas eu Max Schrems [11] pour attaquer tous les gens qui sont en contrefaçon et qui ne le respectent pas, ce ne sont pas les gouvernements, et surtout pas le Gouvernement français, en ce moment, qui avanceraient dans ce domaine. On a plutôt tendance à essayer de trouver toutes les astuces pour héberger soit les données de santé chez Microsoft soit les donner à la DGSI [Direction générale de la Sécurité intérieure], Palantir, etc. On a donc une forme d’incohérence, c’est-à-dire que tant que le Gouvernement, les gouvernements, parce qu’on est au niveau européen, ne disent pas « voilà comment on va appliquer les choses et comment on va appliquer les choses qu’on a déjà votées. »
Delphine Sabattier : Oui, parce qu’aujourd’hui le RGPD pourrait déjà permettre certaines actions sur ces modèles de langage.
Tariq Krim : Absolument. Et le DMA, DSA, qui sont des règlements qui s’appliquent, peuvent également régler un nombre de problèmes. Sur l’IA se pose après la question de la recherche et il ne faut pas oublier que l’AI Act, a un énorme trou que sont les applications dans le domaine du militaire et de la défense où, là, on peut faire absolument ce qu’on veut et c’est probablement quelque chose qui va poser question parce qu’aux États-Unis et en Chine il est évident que dans le domaine du militaire il n’est absolument pas prévu de restreindre quoi que ce soit.
Delphine Sabattier : Chantal, une réaction là-dessus, justement sur le régalien. On peut faire tout et n’importe quoi ? Tout ce qu’on veut ?
Chantal Genermont : Je ne dirais pas exactement ça, je dirais même l’inverse. C’est précisément parce que c’est régalien, parce que c’est du domaine de la défense et de la sécurité nationale que ça doit être traité par ceux qui maîtrisent et qui supervisent ces domaines. Et précisément, ce qui ouvre beaucoup de débats dans l’AI Act et dans d’autres qui viendront certainement et qui seront appliqués ensuite, c’est le besoin de transparence. Tout réside, effectivement, dans la transparence des modèles des bases de données utilisées pour faire travailler les algos. On peut toujours parler du tiers de confiance, il n’en reste pas moins que le sujet central, en tout cas pour l’AI Act , c’est la transparence des bases de données utilisées par les algos.
Delphine Sabattier : Après, il y a quand même des exceptions qui sont prévues dans les textes. Ce qui touche au régalien reste la compétence nationale.
Bernard Benhamou : C’est une règle européenne.
Delphine Sabattier : J’ai l’impression que Madame la sénatrice voulait réagir.
Catherine Morin-Desailly : La question de la transparence est fondamentale et c’est bien là-dessus qu’il y a eu des débats importants dans le cadre du trilogue. Certains, au prétexte de l’innovation, je vous l’ai dit, ne souhaitant pas forcément qu’il y ait ces obligations de transparence ; en fait, c’est aussi tout le lobbying, il faut bien le dire, des Big Tech qui opposent toujours le secret des affaires pour justifier de ne pas donner, en quelque sorte, la recette de leurs algorithmes qui font fonctionner l’intelligence artificielle.
On a besoin de construire une IA de confiance. C’est donc comme pour le DSA, c’est comme pour les applications. Il est important que ça ne soit pas des boîtes noires et qu’on puisse vérifier aussi les effets potentiellement extrêmement dangereux ou néfastes. C’est important de la garantir.
Delphine Sabattier : Je voulais aussi vous faire réagir sur ce qu’a dit le député Philippe Pradal qui est corapporteur de la mission sur l’IA générative à l’Assemblée nationale. Il s’est inquiété de notre acceptabilité d’IA qui seraient, finalement, trop lisses, trop responsables. Est-ce que les Européens risquent d’avoir des technologies différentes de celles qu’auront les Américains, les Chinois et des technologies plus fades, finalement, parce que plus contraintes ?
Bernard Benhamou : Si elles ne ressemblent pas aux technologies que nous prépare Elon Musk, quelque part on ne pourrait que s’en réjouir. C’est-à-dire que, par définition, la vision américaine est d’opposer la vision entre guillemets « californienne », qu’Elon Musk appellerait wokiste, avec effectivement la vision libertarienne de certains, dont lui, mais pas que. Je pense, quelque part, que ce sont ces dérives idéologiques, ces dérives par absence, justement, de responsabilisation des plateformes et des acteurs qui ont mené, je dirais, au risque que nous vivons aujourd’hui sur les réseaux sociaux avec, effectivement, une véritable dérive anti-démocratique et qui remet en cause les fondamentaux démocratiques. Je rappellerais que l’invasion du Capitole a été organisée avec des groupes, dont QAnon, qui étaient largement structurés grâce à Facebook et grâce à ses algorithmes de ciblage, de micro-ciblage, de micro-targetting.
Donc dire : est-ce que l’Europe ne va pas créer une IA qui sera plus fade ? Je dirais que, par définition, le principe d’une démocratie est un processus lent, est un processus qui n’est pas passionnant au jour le jour, mais qui représente des principes et des valeurs. Si on s’échappe vers des IA qui seraient effectivement marquées politiquement, qui seraient capables d’orienter le discours – Yuval Harari [12], historien dans ces domaines, dit « l’IA pourrait hacker le logiciel culturel de nos sociétés » –, est-ce que c’est souhaitable ? Est-ce que nous souhaitons ce risque-là de quelques acteurs ? Moi je ne pense pas à une IA Terminator qui, effectivement, dominerait les humains. Non ! Je pense à des groupes de personnes qui utiliseraient ces IA, dont les Chinois et les Russes en particulier – dans la période ce n’est pas neutre –, qui pourraient effectivement, et qui le font déjà, influencer durablement le débat de l’opinion publique et le faire à leur profit. Si c’est ça s’opposer et si c’est ça s’opposer effectivement aux dérives américaines ou chinoises dans ces domaines, nous en serons ravis !
Delphine Sabattier : En fait, ça nous remet en plein dans la confrontation sur notre vision de ce qu’est la liberté d’expression qui est très différente en Europe et aux États-Unis.
Tariq Krim.
Tariq Krim : Je voulais juste rebondir sur l’affaire QAnon. C’est justement l’exemple parfait. On a reproché à Facebook de mettre en avant les news, les magazines et les sites web dont certains, une grande partie faut-il le dire, étaient des fake news, donc, ils ont changé leur algorithme pour focaliser Facebook autour des cercles familiaux. Et là, on a eu l’explosion de QAnon.
En fait, on a toujours cette tendance, je pense que c’est le problème du régulateur et c’est pour cela que je pense que toutes ces lois sont, d’une certaine manière, totalement à côté de la plaque, on peut le dire !
Bernard Benhamou : Ah non !
Tariq Krim : Elles imaginent le résultat : voilà ce que l’on veut.
Delphine Sabattier : C’est-à-dire la théorie, finalement, un résultat théorique.
Tariq Krim : C’est le résultat que l’on souhaite et c’est un résultat que tout le monde souhaite. Le problème c’est que pour mettre en œuvre le résultat que l’on souhaite, on oublie deux paramètres : le premier c’est la taille, c’est-à-dire que ces plateformes sont gigantesques, donc, de facto, on n’arrive pas à avoir ce que l’on souhaite ; même pas pour elles-mêmes les plateformes ne sont pas capables de le faire. La deuxième chose, c’est qu’il faut rappeler, encore une fois, qu’on a tendance à anthropomorphiser l’IA, c’est-à-dire à considérer que c’est comme un cerveau humain : si on lui donne telle donnée il va apparaître cela. La réalité, et je le répète encore une fois, s’il y a une chose à comprendre sur l’IA générative c’est qu’on ne sait absolument pas pourquoi les résultats arrivent de cette manière. Si on pose des questions à Grok, la fameuse IA d’Elon Musk, d’une certaine manière, il va répondre de manière très douce ; si on prend ChatGPT, Mistral ou LLaMA, qu’on leur parle d’une certaine manière, on va avoir des réponses très dures voire inacceptables.
En fait, on a un vrai sujet : on essaye de réglementer quelque chose qu’on ne comprend pas et le débat qui est posé par les Big Tech, et je terminerai là-dessus, c’est pourquoi OpenAI et pourquoi Google disent « régulez-nous ! » ? En fait, eux ont envie que les gros acteurs, c’est-à-dire OpenAI, Google, Microsoft, dominent le monde de l’IA et les IA open source, qui sont effectivement des briques de base, ou Mistral [13], qui ne sont pas totalement contrôlées mais qui peuvent l’être dès lors que l’on construit une plateforme autonome. Il ne faut pas oublier que ChatGPT n’est pas une IA, c’est une cinquantaine de programmes qui tournent ensemble pour construire un produit qui est utilisable par le consommateur. Ils veulent absolument qu’aucune autre personne ne puisse faire la même chose et c’est pour cela qu’ils font le tour des capitales en disant « régulez-nous ».
Il y a donc à la fois une problématique d’innovation, une problématique de souveraineté aussi : si tel pays ou telle entité a un LLM, doit-on en avoir un ? Après, il y a la question de construire d’autres choses. Il y a quand même pas mal de choses qu’on ne maîtrise pas encore et que la loi nous obligerait à maîtriser. C’est là où, pour répondre à la question sur l’innovation, je pense qu’on est encore dans une phase où tout n’est pas très clair.
Delphine Sabattier : On a justement une question de Jean-Paul Smets que je voulais vous faire écouter, Catherine Morin-Desailly. Elle s’adresse à vous en tant que décideur public, responsable politique. On l’écoute tout de suite.
Jean-Paul Smets, voix off : Bonjour. Je suis Jean-Paul Smets, créateur du cloud résilient Rapid.Space [14].
Madame la sénatrice, le projet de loi visant à sécuriser et à réguler l’espace numérique [15], au travers de son article 9, donne à l’État le pouvoir d’imposer des normes et d’exclure ainsi 80 % des offres européennes de logiciel libre de cloud, en imposant, par exemple, la norme de Microsoft plutôt que celle d’OnlyOffice, ou en imposant la norme de la Linux Foundation plutôt que celle du Fonds de dotation du Libre [16].
Les sénateurs et députés ont été largement alertés sur l’énorme incertitude juridique que crée cet article. Les sénateurs ont cependant voté à l’unanimité cette disposition de nature à détruire l’industrie européenne des logiciels libres de cloud, pourtant essentielle à notre autonomie stratégique. Les députés les ont suivis en rejetant les amendements permettant de limiter ce risque.
Comment en est-on arrivé là ?
Delphine Sabattier : On sort un peu du sujet AI Act, mais on reste quand même dans cette question de la réglementation et de l’open source. Avez-vous une réponse, Madame Morin-Desailly, à la question de Jean-Paul Smets, déjà, et ensuite on continuera à ouvrir le débat sur l’open source de manière générale.
Catherine Morin-Desailly : La question de monsieur Smets, que nous avions eue lors des échanges, est tout à fait pertinente.
Je préside cette commission [Commission spéciale sur le projet de loi visant à sécuriser et réguler l’espace numérique], comme vous savez nous avons deux corapporteurs [Patrick Chaize et Loïc Hervé], donc je ferai le point avec le rapporteur chargé de cette partie. Nous sommes dans la navette parlementaire, donc s’il y a une dimension stratégique qui nous a échappé – la loi est bien sûr faite pour être construite au fur et à mesure, améliorée et surtout à travers, aussi, les consultations, les auditions que nous faisons –, nous allons, bien sûr, regarder cela. Il est pas question de brider cette innovation des logiciels libres qui, à terme, garantissent aussi notre souveraineté. Nous sommes dans la navette parlementaire. Le texte a pris du retard parce que le texte d’origine du Gouvernement s’est un peu trop éloigné de la réglementation bruxelloise, que le ministre s’est fait taper sur les doigts et l’ensemble du texte, du coup, qui est dans la navette, a été notifié à Bruxelles. DOn attend donc le retour de Bruxelles pour savoir si nous sommes dans les clous et en adéquation avec la réglementation européenne.
Je voulais rassurer monsieur Smets, le travail est en cours de réalisation.
Delphine Sabattier : Merci pour votre réponse très précise. De manière plus générale, cet open source est aujourd’hui sur toutes les bouches. En matière d’intelligence artificielle, on nous dit que c’est l’opportunité pour la France, pour l’Europe, d’imposer vraiment une place particulière. Êtes- vous convaincue de cela, Madame la sénatrice ?
Catherine Morin-Desailly : Oui bien sûr.
Delphine Sabattier : Tariq Krim.
Tariq Krim : De toute façon on est dans un monde, aujourd’hui, où on a deux modèles, soit c’est la boîte noire – on paye, il se passe des choses, on ne sait pas exactement quoi – ou on a les composants essentiels et on fabrique. De la même manière que si on a une stratégie militaire il faut qu’on ait la capacité de produire des obus, des balles et des armes, de la même manière que quand on produit des voitures il faut qu’on construise les moteurs en France, les roues, eh bien dans le domaine du logiciel c’est la même chose : il faut les briques fondamentales et l’avantage de l’open source c’est qu’il y a à la fois l’open source généraliste, comme Linux, mais il y a aussi de l’open source ultra-spécialisée, ce que fabrique Jean-Paul Smets, qui permet de construire. Comme les Lego, il manque souvent la petite pièce qui permettrait de finir les choses, l’open source ça sert à ça.
Delphine Sabattier : Bernard.
Bernard Benhamou : Disons qu’à l’heure actuelle se dessine, ce qui a été rappelé par plusieurs observateurs, un duopole Microsoft/Google, en tout cas c’est ce que eux souhaiteraient. Donc les autres acteurs dont Meta, mais pas qu’eux, ont compris que l’open source était pour eux une façon d’essayer de remettre en cause ce duopole. Et il est évident que nous, Européens, nous y avons un intérêt plutôt que de développer des solutions purement propriétaires face, effectivement, à ces mastodontes. Il y a donc un effort collaboratif, il y a, de surcroît, une transparence plus grande qui peut être recherchée, aussi bien dans les data, parlons français, dans les jeux de données, plutôt que de parler de datasets, que, effectivement, dans le code qui sera mis en œuvre.
De là à savoir quelles pourront être les applications sur lesquelles les Européens pourraient déloger ou modifier le centre de gravité par rapport aux deux mastodontes, c’est encore trop tôt.
Tout à l’heure il a été dit qu’il faut effectivement que ce soit d’abord les grandes, voire très grandes plateformes. Un peu comme DSA, DMA, où il y avait un cap, comme on dit, c’est-à-dire qu’il y avait un minimum requis de nombre d’utilisateurs, de nombre d’utilisateurs professionnels, de chiffre d’affaires, bien sûr. Je crois effectivement qu’il est évident qu’il faut d’abord, entre guillemets, « taper » les plus gros.
Delphine Sabattier : Vous l’avez cité Bernard, dans ces grandes plateformes il y a Meta et Meta prône un modèle open source. On ne va pas être les seuls sur ce créneau.
Bernard Benhamou : Il est évident qu’en tant que challengers, puisqu’ils sont clairement en retrait par rapport aux deux principaux, ils ont tout intérêt à cette ouverture. Il faut rappeler – et Dieu sait qu’on peut reprocher des choses à Meta – qu’eux-mêmes ont été promoteurs de solutions libres, y compris sur les bases de données depuis longtemps. Donc quelque part, pour eux ce n’est pas une nouveauté.
Mais il est vrai que pour nous, stratégiquement, imposer des solutions propriétaires serait une erreur.
Delphine Sabattier : Chantal.
Chantal Genermont : Sur l’open source, je partage ce qui vient d’être dit, mais je ramène quand même un débat qui a fait couler beaucoup d’encre et beaucoup parler : quand on travaille en open source, on travaille avec des vrais gens, c’est-à-dire avec des ingénieurs. Si on parle d’open source, on parle de ressources qui sont capables de travailler sur ces briques-là. Là on revient sur un sujet qui n’est pas l’objet du débat aujourd’hui, mais qui est absolument fondamental : open source = ressources = ingénieurs, en tout cas spécialistes, qui sont capables de travailler et de travailler sur ces briques d’open source. Et souvent, ceux qui ont les moyens d’avoir les meilleurs, ce seront les très grands.
Bernard Benhamou : Ce sont les Américains, bien sûr. Derrière, ce n’est pas Jean-Paul Smets qui nous contredirait, il y a une espèce de vision romantique de l’open source où tout est gratuit, où les gens font ça dans leurs heures supplémentaires. Non ! Ça peut être un travail. L’essentiel des briques qui font fonctionner l’Internet ont été faites par des entreprises, qu’il s’agisse d’IBM et de beaucoup d’autres, Sun Microsystems, il y en a énormément, qui ont participé à élaborer ces briques fondamentales. Donc, évidemment, il y a effectivement une notion de moyens et il y a une notion d’investissements européens dans ces domaines.
Delphine Sabattier : Tariq.
Tariq Krim : Il y a aussi un côté très pratique. Avec le succès incroyable d’OpenAI, tous les ingénieurs en IA de chez Facebook étaient en train de partir, notamment les ingénieurs de Mistral. Chez Facebook, il y a plusieurs entités d’IA, des labos aux États-Unis et en France. En France, on poussait pour l’open source, aux États-Unis, on poussait plutôt pour des systèmes moins ouverts. Quand ils ont commencé à voir l’exode des ingénieurs, il a fallu, en interne, lâcher quelque chose et dire « on va construire quelque chose d’open source ». Le problème est similaire chez Google et dans toutes les grandes entreprises. Je suis absolument d’accord : la question de la ressource est essentielle, la question des ingénieurs.
Delphine Sabattier : Aujourd’hui, on est le continent, si je parle de l’Europe, qui possède le plus de ressources ingénieurs en IA.
Tariq Krim : Sauf que les décideurs sont tous plutôt des profils école de commerce, des startups powerpoint, ce que j’appelle parfois la french no tech, puisqu’on en parle. D’ailleurs sur un ce sujet et c’était la mission que j’avais faite il y a dix ans pour le lancement de la French tech, c’est que les ingénieurs ne sont pas dans les postes de décision, ils sont en dessous.
Chantal Genermont : Souvent, ils n’ont pas envie !
Bernard Benhamou : On les a dissuadés. On peut reconnaître qu’au niveau du management des grandes sociétés françaises, les ingénieurs qui étaient le cœur sur les filières nucléaires, l’aérospatiale, les télécoms, ont progressivement été relégués au second plan face à des administrateurs, je ne dirais même pas des managers, à des administrateurs, je ne citerai pas les sources. Par définition, et c’est très important en termes de politique industrielle, je pense qu’on a, là-dessus, une étanchéité entre les sphères politiques de décision et les sphères technologiques d’élaboration. On crée x comités Théodule ad-hoc sur l’IA, sur la santé, etc., mais, dans la réalité, on voit bien que ce sont deux univers qui ne se parlent plus, là où, auparavant, ils se parlaient. Le nucléaire est un exemple typique. Il y a une décision politique qui s’est appuyée sur un travail d’ingénieur et on l’a largement remise en cause à notre grand détriment.
Delphine Sabattier : Chantal.
Chantal Genermont : De même dans le domaine public/privé, on voit bien qu’il n’y a pas de ponts, il y a très peu de ponts public/privé, d’ailleurs quand il y en a, pour ne pas parler de Mistral, on crie au scandale alors qu’aux États-Unis c’est précisément la méthode, l’une des méthodes de travail, public/privé, avec un passage de l’un à l’autre.
Delphine Sabattier : C’est ce que j’allais dire. N’est-ce pas en train de changer, finalement, parce qu’on voit aussi avec l’arrivée de KYUTAI [17] et des financements privés mais pour de la recherche publique, pas uniquement américains quand même.
Bernard Benhamou : Certes. C’est de la recherche privée.
Delphine Sabattier : Oui mais ouverte, c’est de la science ouverte qui pourra être utilisée par toute la recherche publique qui le souhaite, pas seulement pour des intérêts privés. N’est-on pas justement à un moment où on comprend à nouveau que la valeur c’est ceux qui font, ce sont ses développeurs, ses codeurs, ses ingénieurs, ses chercheurs ?
Bernard Benhamou : Qu’on les rémunère trop mal !
Delphine Sabattier : Que le public peut travailler avec le privé pour constituer une alliance nouvelle.
Bernard Benhamou : Je crois qu’il faut quand même être prudent, avec tout le respect que j’ai pour l’initiative KYUTAI, sur le fait que ça reprend un petit peu le modèle de ce qui s’est passé avec OpenAI qui était une fondation pour, au final, dériver sur un modèle purement business et dont on a vu qu’on a exclu tous les gens qui essayaient de garder, entre guillemets, « l’esprit fondation ». Là-dessus je n’ai pas de doute sur le fait qu’une spin-off de KYUTAI puisse devenir un outil business pur et dur.
Delphine Sabattier : Et on ne pourra que s’en réjouir !
Bernard Benhamou : Bien sûr. Je veux dire par là, pour observer ce secteur depuis longtemps comme nous tous, qu’il ne faut pas avoir de naïveté quant à l’évolution des choses et se dire que nous devons avoir des acteurs industriels de premier plan en Europe, ce dont nous nous sommes privés de faire, trop longtemps, par une absence de stratégie industrielle. Nous sommes, nous Français, les seuls à avoir un peu cet esprit-là en Europe, il faut le comprendre. Nous sommes quasiment les seuls à essayer de porter la vision de politique industrielle européenne et avec un succès, pour l’instant, extraordinairement limité.
Je crois que, là-dessus, il y a une remise en cause de nos processus de rapport justement avec les scientifiques, de rapport avec la sphère technologique et, évidemment, d’investissement et d’action publique y compris, et c’est un sujet que j’ai souvent abordé autour de cette table et globalement, autour de la commande publique. Les Américains sont les maîtres de la commande publique appliquée aux technologies avec le Small Business Act [18] depuis 70 ans. 70 ans !, alors même que pour nous il n’y a pas d’obligation pour les administrations d’acheter spécifiquement auprès des PME, ce que rappelait Jean-Paul tout à l’heure.
Delphine Sabattier : Tariq Krim.
Tariq Krim : Juste une chose. J’avais été invité au lancement de KYUTAI et une chose m’a fasciné en tant qu’observateur extérieur. Ce qui est intéressant avec KYUTAI ce n’est pas tellement le fait qu’il y a de l’argent, l’État a mis plusieurs milliards sur l’IA, des gens compétents, il y a des gens compétents en France depuis très longtemps, ce n’est donc pas la question. Ce qui était fascinant c’est que, dès lors que l’on se focalise sur un problème spécifique et qu’on y met les moyens, soudain ça donne une force au produit, ça donne une force à cette offre. Et curieusement, en voyant le pauvre ministre du Numérique ramer...
Delphine Sabattier : Pourquoi « le pauvre » ?
Tariq Krim : Parce que, à ce moment-là, on avait l’impression que l’État était, en fait, quantité négligeable. On a parlé de politique industrielle, déjà parler de politique tout court c’est de savoir, à un moment donné, investir dans les bonnes personnes, dans les bons projets, leur donner les moyens d’aller jusqu’au bout. Une partie des chercheurs me dit « ce n’est pas l’argent qui me pose problème, c’est le fait d’avoir un chef qui ne comprend pas, qui pense qu’il faut faire des papiers plutôt que de faire de la recherche ». Il y a tout un côté pratique qu’on a eu à une époque et qu’on n’a plus puisqu’on a une bureaucratisation de quasiment tout, notamment de la science, notamment de la technologie, puisque désormais, où que j’aille, on n’a plus que des avocats dans les conférences de tech, il n’y a plus d’ingénieurs ! Ce que montre KYUTAI, et c’est vrai, c’est que dès qu’on mobilise de l’argent sur des problématiques très précises, tout de suite ça devient intéressant. Les États-Unis regardent parce que c’est l’un des cofondateurs de LLaMA [Édouard Grave] qui va gérer KYUTAI. C’est un laboratoire qui pourrait amener des nouveautés importantes et c’est intéressant que ça se fasse en France.
Delphine Sabattier : Le mot de la fin pour notre sénatrice, notre grande invitée du jour. Catherine Morin-Desailly, comment allez-vous garder ce regard vigilant sur l’AI Act et son évolution ?
Catherine Morin-Desailly : Il faut le faire avec beaucoup d’humilité parce que l’IA est quelque chose que nous découvrons, comme l’a exprimé Tariq Krim, mais, en même temps, être vigilants et d’emblée, tout de même, poser un certain nombre d’exigences. Le progrès ne vaut que si on en définit aussi les usages. « Science sans conscience n’est que ruine de l’âme », disait un écrivain célèbre.
Je pense que le rôle du politique, du législateur, c’est de trouver la sagesse pour pouvoir encadrer justement ces nouvelles technologies tout en leur donnant la possibilité d’un développement pour une société de progrès, une société démocratique aussi comme l’a dit Bernard Benhamou. On sait très bien, par expérience, les mésusages qui sont faits à travers des plateformes non régulées, un écosystème qui, dans son développement, ne se fait pas toujours en faveur de l’Europe. Donc à nous de savoir promouvoir, en Europe, un pôle d’intelligence artificielle de référence, dynamique et responsable.
Delphine Sabattier : Merci beaucoup. La sénatrice Catherine Morin-Desailly était notre grande invitée aujourd’hui dans Politiques numériques. Merci à Bernard Benhamou, à Tariq Krim et Chantal Genermont.
On se retrouve très bientôt pour un nouvel épisode.