[La première minute n’est pas transcrite]
Grégoire Barbey : Mesdames et Messieurs, bonjour et bienvenue dans IA qu’à m’expliquer [1],le podcast du Temps qui démystifie les intelligences artificielles.
La course aux IA exacerbe-t-elle nos dépendance technologiques ? Vous le savez aussi bien que moi, nos usages numériques sont fournis par un tout petit nombre d’acteurs, mais, ce qui est moins visible, c’est à quel point les infrastructures qui permettent à ces services de fonctionner sont souvent dominées par les mêmes entreprises et ça, c’est loin d’être anodin sur le plan géopolitique.
C’est justement le sujet que j’aborderai avec Ophélie Coelho, chercheuse indépendante, qui a écrit un ouvrage que je vous recommande, intitulé Géopolitique du numérique : l’impérialisme à pas de géants. Côté actu, le gros sujet portera évidemment sur Apple qui a enfin dévoilé de nouvelles options reposant sur l’IA générative. On parlera aussi de Microsoft qui est confrontée à des problèmes de cybersécurité pour sa nouvelle fonctionnalité Recall. Enfin, je répondrai à une question posée par une auditrice sur la consommation énergétique de l’IA générative qui, décidément, interpelle de plus en plus.
Avant d’entrer dans le vif du sujet, je vous invite une fois de plus à liker ce contenu sur vos plateformes préférées, à le partager et à le noter. C’est difficile de faire sa place dans le monde impitoyable des algorithmes, mais avec votre aide, c’est possible.
Je suis Grégoire Barbey journaliste au Temps et vous écoutez le cinquième épisode de IA qu’à m’expliquer.
Bonjour Ophélie Coelho.
Ophélie Coelho : Bonjour.
Grégoire Barbey : Vous êtes spécialiste des enjeux géopolitiques du numérique et auteur de l’ouvrage Géopolitique du numérique : l’impérialisme à pas de géants, paru aux éditions de l’Atelier. Qu’est-ce que, justement, la géopolitique du numérique ?
Ophélie Coelho : La géopolitique du numérique, c’est, en fait, de la géopolitique, donc une analyse à la fois géographique et liée aux relations internationales, et qui prend en compte les enjeux du numérique, spécifiques du numérique. On va notamment étudier la place des différents acteurs dans ce domaine, qu’il s’agisse des acteurs étatiques ou des entreprises privées.
Grégoire Barbey : Est-ce qu’il y a aussi de la géopolitique du numérique dans l’intelligence artificielle ?
Ophélie Coelho : Oui. On peut dire que l’intelligence artificielle devient un sujet de géopolitique du numérique, parce que ça devient un sujet stratégique. Quand on parle d’intelligence artificielle, il faut quand même toujours un peu re-cibler, je me permets de refaire un peu une définition rapide, c’est un mot-valise dans lequel on met beaucoup de choses.
En fait, l’intelligence artificielle c’est une famille assez large de technologies et c’est vrai qu’aujourd’hui on parle beaucoup des LLM, les Large Language Models, c’est vraiment la famille du traitement du langage naturel, mais, dans l’IA, il y a aussi la reconnaissance d’images, l’aide à la décision, la robotique, les systèmes autonomes ou les assistants personnels qui cumulent, par ailleurs, plusieurs de ces technologies. En fait, c’est vraiment une famille très large et, en effet, elle va avoir des applications autant civiles que militaires, donc ça intéresse évidemment les États pour tout un tas de raisons.
Due à ces différents usages, il est évident qu’il y a une course au développement technologique dans ces différents domaines, qui devient, du coup, un sujet géopolitique, c’est évident. Il n’y a pas trop de mystères quant aux acteurs les mieux positionnés dans cette course entre les États-Unis et la Chine en termes d’États étatiques et, au-delà des États, les producteurs de technologies, en particulier les Big Tech, ceux qu’on appelle les Big Tech, les grandes entreprises technologiques qui sont évidemment les mieux placées aujourd’hui pour développer des modèles nécessitant des masses de données à entraîner, faire du machine learning, à la fois sur les fameux LLM dont on a parlé, que ce soit ChatGPT, Gemini, etc.
Grégoire Barbey : Gemini de Google, pour préciser.
Ophélie Coelho : Oui, absolument. Ou alors sur des jeux de données beaucoup plus spécialisés. La place de ces acteurs, dans ce domaine-là, s’explique assez naturellement, puisqu’ils ont vraiment le monopole, en quelque sorte, de la donnée, que ce soit de la donnée grand public ou que ce soit de la donnée spécialisée, puisque leurs clients sont autant l’individu, l’utilisateur grand public, que les entreprises privées. Ça touche donc tout un l’ensemble de domaines, parfois très précis comme la santé, la sécurité, l’énergie, etc., sur lesquels ils vont pouvoir récupérer des données et faire de l’entraînement, éventuellement, en R&D. D’ailleurs, c’est ce qui a permis à Google d’être un très grand acteur de l’intelligence artificielle sur la dizaine d’années qui nous précède, c’est d’ailleurs chez Google qu’est apparue la plus grande transformation justement des LLM, ceux qu’on utilise actuellement, via les transformers [2]. Le principe des transformers, en 2017, vient de chez Google et ça a permis, derrière, de développer tout un tas de modèles et, de chez Google, sortait également les modèles type BERT, T5, ELECTRA, Gshard. Voilà !
Grégoire Barbey : Peut-être préciser ce que sont les transformers pour que les gens qui ne sont pas du tout du domaine puissent un peu comprendre ce que ça représente comme changement majeur.
Ophélie Coelho : Les transformers, c’est une réponse à l’analyse sous forme de réseaux de neurones, c’est-à-dire que c’est un complément qui facilite le traitement de données en instantané, de plusieurs couches de données en instantané, ce que ne permettaient pas de faire les réseaux de neurones traditionnels. En gros, ça permet d’aller plus rapidement et aussi d’avoir des résultats plus fiables en sortie.
Grégoire Barbey : Ce qui est intéressant dans ce que vous dites, c’est que, finalement, on parle aujourd’hui beaucoup d’IA. En ce moment, quand on parle d’IA, on parle surtout d’IA générative, parce que, dans la tête des gens, l’IA c’est ChatGPT, alors que, comme vous le dites, il y en avait depuis bien avant. Certains voient de la tectonique des plaques dans le domaine des géants du numérique avec ces changements induits par l’IA générative, on voit, par exemple, OpenAI qui se place en tête de cette course, la question, c’est : avez-vous l’impression qu’il y a une redistribution des cartes au sein de cet écosystème de géants du numérique ? Ou finalement, comme il y a Microsoft derrière OpenAI [3], c’est juste un petit peu l’homme de paille de ce géant du numérique, mais, en fait, les équilibres n’ont pas tant changé et ne vont pas tant changer ces prochaines années ?
Ophélie Coelho : Oui, je pense que là vous avez bien résumé les choses. On pourrait croire à l’émergence d’un nouvel acteur qui prendrait le dessus sur les autres, etc., parce que, dans l’histoire du numérique, ça s’est un petit peu passé comme ça ; avec le Web, on a eu l’émergence de nouveaux acteurs qui ont, en quelque sorte, leadé ce domaine face à des acteurs plus traditionnels comme pouvait être, par exemple, IBM à l’époque, qui a quand même perdu un petit peu de voilure depuis. On pourrait croire encore à cela, mais ça ne marche plus, maintenant, parce qu’on a affaire à des acteurs qui sont puissants, qui ont un monopole sur les technologies numériques. On voit bien, par exemple, OpenAI, qui n’était pas du tout, au départ, un projet destiné à être ce qu’il est devenu – produit privé, etc. –, peut facilement se faire racheter par une autre entreprise qui en a les moyens. En fait, tout petit acteur –petit étant relatif– qui va concevoir, qui va proposer sur le marché une technologie innovante, considérée vraiment comme une rupture, va être facilement racheté. Le seul choix serait vraiment, de la part des personnes qui créent ces entreprises, de ces entreprises elles-mêmes, de se dire « OK, nous choisissons de ne pas être rachetées quel que soit le montant qu’on nous propose ». L’indépendance a aussi un coût derrière. Quand on souhaite être indépendant, ça veut dire aussi, en effet, ne pas accepter d’être racheté par exemple.
Grégoire Barbey : Justement, là vous me tendez la perche. On a eu un cas, récemment, Mistral AI [4], cette startup française créée à peu près il y a une année, je crois que c’était en avril 2023, qui ambitionnait d’être un champion européen de l’intelligence artificielle, en tout cas qui se présentait comme indépendant des géants du numérique, qui avait décidé, récemment, d’accepter une participation de Microsoft dans son capital à hauteur, je crois, de 15 millions d’euros. Ce n’est pas énorme, mais c’est quand même une somme et, surtout, Microsoft aide Mistral AI à commercialiser ses modèles, notamment ses modèles open source, mais aussi un premier modèle fermé, c’est-à-dire qu’on ne peut pas auditer, qu’on ne peut pas modifier à sa guise et commercialiser, ensuite, sans devoir de l’argent à l’entreprise ou sans son accord. Est-ce que c’est la preuve que, finalement, Microsoft est capable, même avec des acteurs qui veulent faire ce pari de l’indépendance, de mettre des billes partout ?
Ophélie Coelho : Honnêtement, finalement je suis pas sûre que Mistral ait vraiment ce souhait d’indépendance. Je pense qu’ils utilisent cette idée d’indépendance comme un argumentaire commercial, cela dû aussi au fait que les sujets de souveraineté numérique sont pas mal montés en Europe ces dernières années, c’était donc un argument commercial tout trouvé. Je ne suis vraiment pas sûre qu’en fin de compte ce soit ce qu’ils visent et c’est plutôt mauvais signe, parce que ça va créer des dépendances économiques, d’abord, mais aussi, par la suite, des dépendances techniques dues, en fait, à l’usage de l’infrastructure, par exemple chez Microsoft, ce qui pose problème quand on veut parler d’un acteur indépendant. Et évidemment, quand, en plus de ça, on rajoute des produits qui sont fermés, on ajoute le fait que qui dit fermé dit qu’on rentre dans la logique propriétaire qui est, finalement, le modèle commercial de ces entreprises du numérique. Donc, finalement, on fait un peu la même chose que ces grands.
Grégoire Barbey : On entend de plus en plus parler, nous aussi en Suisse, de cette notion de souveraineté numérique, ça devient un enjeu politique même si c’est encore assez marginal, comment la définiriez-vous ?, parce qu’il y a plusieurs visions de cette souveraineté numérique. Certains estiment que c’est juste une question de localisation des données. Par exemple, Microsoft, Google prétendent proposer des logiciels souverains parce que, justement, ils disent « nos centres de données sont en Europe, donc c’est souverain. » Comment la définissez-vous ?
Ophélie Coelho : À force, je finis par me dire que la souveraineté numérique est plutôt un terme commercial et non pas un terme réel. Je m’explique. Évidemment que la souveraineté a un sens et évidemment que dans tout un tas de domaines, notamment les sujets sensibles, on a tout intérêt à être souverain. Mais, en ce qui concerne le numérique, il faut tout de même prendre en considération qu’on a affaire à des objets techniques qui ont de multiples dépendances, ne serait-ce que les logiciels. Aujourd’hui, les logiciels sont faits de multiples briques dont les dépendances ne sont pas visibles. Il faudrait donc faire un audit des produits qu’on utilise dans son travail, au quotidien, etc., pour vraiment comprendre en quoi on n’est pas souverain dans tel ou tel domaine, ça demande donc, en effet, un travail un peu de fou. Il y a la partie logicielle, il y a la partie des producteurs, qui fait la technologie ? Vous pouvez très bien avoir des données en Europe, si vous ne maîtrisez pas la technologie et vous ne l’avez pas en Europe, en fait vous êtes toujours, finalement, uniquement client, un client qui va essayer, après coup, à posteriori, de se faire entendre par un service après-vente, puisqu’il n’a pas la maîtrise de la technologie. C’est déjà une première chose.
Ensuite, pour moi, la souveraineté numérique, ce serait aussi parler des outils physiques qu’on utilise. La souveraineté numérique ça va être les ordinateurs, les téléphones, on sort donc de la logique du logiciel. Ça va être aussi l’infrastructure, c’est-à-dire les câbles, les réseaux, les centres de données, etc. En réalité, la souveraineté numérique englobe tout ça.
À partir de là, dans un monde dans lequel il y a une très grande interdépendance mondiale au niveau des chaînes industrielles, j’appelle ça les chaînes de dépendance, parce qu’on est vraiment dans des rapports de force, dans des rapports de dépendance. On se rend compte que ces chaînes de dépendance font que le concept de souveraineté numérique est très idéalisé et, je pense, mal compris. Du coup, il sert parfois, et peut-être un peu trop, les discours politiques plutôt qu’une vision qui se voudrait stratégique, donc beaucoup plus rationnelle, qui nécessiterait des audits, qui nécessiterait d’aller au fond de la question.
Grégoire Barbey : Bon ! À chaque fois, vous me coupez l’herbe sous le pied parce que j’avais prévu cette question et vous l’entamez déjà ! Sur cet enjeu d’infrastructures, que vous mentionnez d’ailleurs parfaitement dans votre livre, aujourd’hui dans le domaine de l’IA, on voit que ce sont plutôt les centres de données et aussi les puces. Dans le domaine des puces, on voit qu’il n’y a qu’un très petit nombre d’acteurs, notamment TSMC à Taïwan, qui produit notamment les puces de Nvidia. Là, dans quelle direction l’enjeu évolue-t-il selon vous ?, parce que c’est très difficile d’imaginer comment une telle industrie qui est dans tous les domaines – on retrouve les puces partout aujourd’hui –, puisse reposer sur un si petit nombre d’acteurs. Comment est-ce possible ?
Ophélie Coelho : Franchement, je pense qu’à un moment donné les questions ne se sont pas tout à fait posées de la bonne manière. On a, en effet, concentré la production des puces à Taïwan. C’est d’ailleurs un problème auquel les États, aujourd’hui, réfléchissent, les États-Unis et la Chine sont évidemment au premier rang de cela, pour, justement, être moins dépendants, en créant notamment d’autres usines TSMC un peu partout. La dépendance reste réelle, d’autant plus qu’il y a des soucis en plus concernant Taïwan, vu les problèmes climatiques auxquels ils peuvent avoir affaire et, évidemment, les problèmes géopolitiques avec la Chine, j’aurais même dû dire ça en premier. Il est évident qu’on se retrouve quand même dans une situation qui n’est pas du tout confortable quand on sait que ce qu’ils produisent crée de fortes dépendances, ensuite, de l’industrie, de plusieurs industries, l’industrie automobile, l’industrie numérique évidemment. Pourquoi ce choix a-t-il été fait ? Honnêtement, pour moi, c’est d’une incohérence totale. Ça dénote probablement un manque de stratégie.
Grégoire Barbey : Est-ce que c’est vraiment un choix ou est-ce que ça s’est fait un peu par la nature des choses ? À force que les années passent et que l’on se rende compte que, finalement, là-bas, par exemple en Asie, le coût de la main-d’œuvre est tellement bas que, pour assembler les pièces, ce n’est pas cher, donc c’est ce qui marche le mieux pour proposer ensuite, en Europe, des produits à bas prix et inonder le marché. N’y a-t-il pas un peu tout cela qui s’est mis en branle avec, justement, une absence, justement, de volonté politique ?
Ophélie Coelho : Bien sûr, mais on pourrait aussi dire que c’est quand même un problème de choix stratégique, c’est-à-dire qu’il n’y a pas du tout de vision stratégique à se dire qu’on dépend uniquement d’une très grosse minorité d’entreprises qui se trouvent à Taïwan, d’autant plus qu’historiquement oui, Taïwan est quand même un sujet géopolitique assez fort. Je pense qu’il y a des moments où les choses ne sont pas forcément pensées. Après, pour le coup, je vais prendre des pincettes, il y a peut-être des spécialistes de Taïwan qui sauraient dire un peu plus précisément que moi pourquoi, au départ, Taïwan a été choisie pour les puces.
Grégoire Barbey : Et sur cet aspect, justement, de chaînes de dépendance que vous mentionniez, évidemment Taïwan, enfin TSMC produit les puces, mais l’assemblage des semi-conducteurs nécessite des machines-outils très perfectionnées et là, ce sont des entreprises européennes qui sont leaders du marché. Sur ce plan, on n’entend jamais parler de ces entreprises-là, pourtant elles font partie de cette chaîne de dépendance et peuvent aussi représenter un levier de pouvoir dans cette géopolitique ?
Ophélie Coelho : Absolument. Généralement, dans la chaîne de dépendance, on oublie un certain nombre d’acteurs. C’est le cas pour les semi-conducteurs où, en effet, les machines-outils sont créées en partie en Europe, mais c’est le cas aussi dans d’autres domaines. On pourrait parler des câbles sous-marins, on va avoir des flottes de navires câbliers qui vont être français, en grande partie parce qu’on a une très belle flotte de navires câbliers et mis bout à bout, tous ces acteurs-là représentent des pouvoirs pour les États. C’est-à-dire qu’on a tendance à se concentrer uniquement sur les nœuds stratégiques extrêmement forts, ce qui est important – les semi-conducteurs, etc. –, mais, en fait, il y a d’autres nœuds stratégiques, qu’on ne voit pas forcément, et qui peuvent aussi peser dans la balance. À mon sens, quand on parle de chaîne de dépendance pour un État ou pour une entreprise, pareil, ce qui est important c’est de savoir se positionner au bon endroit pour être capable de faire levier de négociation, être en capacité de faire peser sa voix, donc les machines-outils et les navires câbliers, par exemple, en font partie. Et puis, évidemment, vous allez avoir tout un tas de matériaux concernant, par exemple, les semi-conducteurs. Il y a aussi le sujet des mines, de l’extraction minière de certains métaux et là-dessus la Chine, évidemment, a un grand pouvoir et un grand levier de négociation sur ce sujet-là. Donc, c’est vrai qu’on a de quoi faire entendre notre voix, mais encore faudrait-il le protéger aussi dans ces différents secteurs et le développer.
Grégoire Barbey : Le sujet est inépuisable. Récemment, Microsoft a annoncé un investissement de quatre milliards d’euros en France pour créer un centre de données et acquérir des puces dans le cadre de sa stratégie de montée en puissance sur l’IA ; Microsoft s’est aussi engagée à proposer des formations aux Français, ce genre de choses. La France veut être championne de l’Europe de l’IA. N’y a-t-il pas un paradoxe de la part du président français, Emmanuel Macron ?, parce que Microsoft, évidemment, s’installe un peu plus lourdement, je crois qu’ils ont déjà deux centres de données importants en France, ce sera un troisième en Alsace, sauf erreur. Ils posent leurs valises et puis ils sont chez eux !
Ophélie Coelho : En fait, je pense qu’il y a quand même un aveu de faiblesse de la part des politiques français depuis un certain temps déjà, ça ne date pas de maintenant, mais je crois que ça s’accélère quand même particulièrement avec Emmanuel Macron. Quand je dis « aveu de faiblesse », ça veut dire que c’est comme si, à un moment donné, ces dirigeants se disaient que, de toute façon, il n’y a plus rien à faire et que, donc, on va se borner à la question purement financière et ne plus du tout s’intéresser aux dépendances que créent ces technologies. Je pense qu’ils sont tout à fait conscients qu’en faisant ça ils enferment la France, et plus globalement l’Europe, parce que la France est aussi une porte d’entrée vers d’autres pays européens, qu’ils enferment l’Europe, de manière générale, sur une dépendance technologique. Je pense qu’ils en sont conscients, donc je pense que c’est vraiment un aveu de faiblesse. En quelque sorte, ils considèrent que le combat est perdu et qu’il vaut mieux s’intéresser simplement aux logiques purement capitalistes, de marché, et considérer que quand ces gens-là, quand ils s’installent, qu’ils créent des centres de données, vont créer des emplois et de la valeur, etc. Sauf que c’est faux, puisque la valeur, au final, ne va pas bénéficier à la France, ou peu, et les technologies nous rendent dépendants à long terme, sans compter l’impact territorial de ces infrastructures, puisque les centres de données, quel que soit le mode de refroidissement, vont être consommateurs d’énergie et d’eau, donc vont forcément impacter, aussi, la vie du territoire sur le long terme. C’est vrai que ces questions-là sont, à mon sens, mal posées et surtout, dire que parce qu’on accueille Microsoft et de nouveaux centres de données, etc., on va devenir des leaders en intelligence artificielle, c’est faux. C’est une mauvaise vision, une vision, je dirais, un peu promotionnelle de la politique, mais très loin de la réalité.
Grégoire Barbey : En plus, dans ce partenariat, on voit cette dimension de formation et vous le notez dans votre livre : les gens du numérique sont très habitués à proposer des outils par exemple adaptés aux écoles, Microsoft le fait beaucoup. Là, on habitue les utilisateurs à certains outils. On produit des développeurs qui sont spécialisés dans Google, qui sont spécialisés dans les outils Microsoft et, du coup, non seulement on arrive, on s’installe, on met les infrastructures chez les autres, mais, en plus de ça, on forme ces ressources-là à n’utiliser que nos outils. Est-ce que dans l’IA il y a aussi cet enjeu et, finalement, quelle est la solution pour s’extraire, au moins un petit peu, de cette dépendance à quelques entreprises ?
Ophélie Coelho : C’est ce que j’aime bien appeler « les consommateurs d’interfaces ». En effet, par la formation, ces entreprises transforment l’utilisateur en consommateur d’interfaces.
Grégoire Barbey : Elles leur cachent aussi ce qu’il y a derrière, donc les infrastructures.
Ophélie Coelho : Absolument. À une époque, on était un peu obligé de comprendre, parce que, en effet, les interfaces étaient moins ergonomiques, on était donc, parfois, un peu obligé d’aller mettre les mains dans le cambouis pour accéder à tel ou tel outil qu’on utilisait. Avec le temps, le design est passé par là, certes c’est une bonne chose pour l’utilisateur, mais la contrepartie c’est que ça a invisibilisé toute la partie technique et complexe que pouvaient avoir le logiciel et les outils numériques. En fait, les géants du numérique ont profité de cela, ont développé cette logique d’interfaces pour, en effet, cacher les mécanismes internes des outils. C’est notamment le cas pour le métier du développeur. Au départ, le développeur est quelqu’un qui est obligé d’apprendre en détail comment fonctionne un logiciel, d’apprendre un langage informatique en détail. Aujourd’hui, en utilisant des plateformes de cloud, il devient lui-même un consommateur d’interfaces, qui n’a plus accès au code de son outil, qui va utiliser l’outil pour imbriquer son propre code, on va dire les choses comme ça, mais il est en dépendance de la plateforme.
Grégoire Barbey : En plus de ça, on parle aussi de No-code [5]. De plus en plus d’outils proposent de créer des applications où on n’a même plus de code, on est complètement dépendant de la plateforme et, finalement, on assemble les fonctionnalités.
Ophélie Coelho : C’est tout à fait ça. C’est encore pire pour le No-code et je dirais que pour les générateurs de contenu, c’est un peu le même principe, c’est-à-dire qu’ils ne peuvent pas réellement ouvrir le capot de ces outils dès qu’ils sont privatisés, je parle des outils propriétaires, ils ne peuvent pas savoir comment fonctionne réellement l’outil, ils vont vite être en dépendance d’usage, c’est-à-dire qu’ils vont prendre des habitudes d’usage, parfois quasiment même oublier leurs propres instincts de base de développeur, d’ingénieur, et, au final, devenir extrêmement dépendants, en termes techniques et d’usage, de ces outils-là.
L’IA, en fait, ajoute une couche de dépendance à cela, c’est-à-dire qu’on a affaire à de nouvelles interfaces qui, par ailleurs, peuvent produire du code informatique. On peut aussi voir le problème là-dedans : à un moment donné, si un développeur n’a même plus besoin de coder du tout, c’est aussi une compétence et des savoirs qui se perdent au fil du temps et certaines pratiques de développement vont aussi être valorisées dans des modèles plutôt que dans d’autres. De toute façon, c’est un problème de conception et c’est un problème de savoir. Marx, par exemple, parlait de prolétarisation des savoirs, des connaissances, et c’est vraiment ça : à un moment, il y a une rétention du savoir qui, finalement, est détenu par l’entreprise, par le producteur des technologies, auquel l’utilisateur final n’a plus accès.
C’est un problème, parce que cela crée à la fois une forme de capture de l’utilisateur qui se trouve face à des interfaces et, derrière, ne sait plus comment elles fonctionnent.
Ça crée aussi une capture du régulateur et du législateur qui va devoir réguler des interfaces, donc uniquement ce qu’il voit, il ne peut pas rentrer dans l’usine, en quelque sorte, et aller voir ce qui se passe, comment est fait le code, est-ce qu’il respecte réellement, en coulisses, les règles qui lui sont imposées au niveau de l’interface ? Voilà ! Ça devient extrêmement complexe dès qu’on rentre dans les sujets de régulation et de contrôle.
Grégoire Barbey : Je crois qu’on pourrait parler des heures encore parce que tellement de questions se posent et, parfois, le tableau peut sembler tellement sombre ! Comme dernière question, Ophélie Coelho, je vais vous demander une chose : que peut-on faire pour sortir, petit à petit, de cette dépendance, en tout cas au moins essayer ?
Ophélie Coelho : L’une des premières choses qui me semble absolument évidente, c’est qu’il faut mettre en place une forme d’audit général des technologies en Europe. Ce sont des choses qui se sont un petit peu faites en Allemagne, un peu aussi au niveau européen sur les dépendances au cloud, par exemple. On s’est rendu compte que 73% des entreprises européennes étaient très dépendantes de technologies dites sophistiquées de cloud, par exemple.
En fait, il faudrait mettre en place une cartographie des dépendances – c’est ce que j’essaie de défendre depuis quelques années déjà – qui permette de mettre en avant les forces et les faiblesses de nos entreprises dans ce domaine-là et de remplacer les technologies qui sont sensibles. Ça veut dire qu’il va falloir s’adapter aux domaines d’activité : on n’a pas la même sensibilité selon le type de données qu’on traite et le domaine dans lequel on travaille ; sensibles dans le sens où on peut apporter, quand on fait un recueil de masses de données, des informations sur la société, etc. Il va falloir aussi prendre en considération des technologies qui, en effet, sont des nœuds stratégiques.
Donc c’est la première chose : un audit, une cartographie des dépendances au niveau européen, pour, ensuite, mettre en place une stratégie industrielle qui soit rationnelle, qui soit ciblée, qui va s’intéresser, justement, à ces nœuds stratégiques de dépendances techniques, qui nous posent problème aujourd’hui ; sortir de la logique des bibliothèques de cloud, parce qu’une bibliothèque de cloud, certes vous allez y trouver tout et n’importe quoi, mais, en réalité en Europe on a tous les éléments possibles et imaginables pour remplacer les différents éléments des clouds, c’est-à-dire qu’au lieu de s’adresser à AWS on va s’adresser à plusieurs entreprises européennes, certes, mais on les a sur le territoire.
Grégoire Barbey : Je me permets juste de rappeler ce qu’est le cloud : c’est le fait de déléguer à des ordinateurs extérieurs l’usage de logiciels ou l’hébergement de données.
Ophélie Coelho : Et, pour le coup, il s’agit de bibliothèques de services externalisés. La grande différence avec les entreprises européennes, c’est qu’il y a des entreprises européennes qui font, grosso modo, la même chose, par contre, qui ne proposent pas une bibliothèque complète : il y aura une entreprise qui propose plus ou moins un service qui peut remplacer Amazon EC2 [AmazonElastic Compute Cloud], certains composants du cloud d’Amazon, pas d’AWS [Amazon Web Sservices], qui sont très utilisés dans le métier par exemple, il faut donc changer la logique de travail.
Par ailleurs, il faut de la formation, c’est-à-dire qu’il faut sortir de cette logique de consommateur d’interfaces et il faut, assez tôt à l’école, qu’on puisse intégrer dans des matières telles que la géographie, l’histoire, tout un tas de matières qui ne sont pas de l’informatique, des connaissances relatives au numérique. C’est-à-dire qu’on n’est pas obligé d’avoir toujours une matière informatique ou sciences de l’information pour traiter le numérique, on peut tout à fait intégrer, par exemple, la logique des réseaux, le développement des réseaux en cours d’histoire, en commençant par les réseaux télégraphiques pour aller jusqu’à la fibre optique ; on peut parler de géographie quand on parle de territoires, de centres de données, d’environnement. On peut intégrer tout cela très tôt à des matières, à l’école, et ça permet au citoyen d’avoir une connaissance de base vraiment majeure pour comprendre les enjeux de pouvoir qui se trament là-dessous, derrière la vie numérique, plutôt que de former uniquement des consommateurs.
Grégoire Barbey : En tout cas, ce qui est sûr, c’est qu’à défaut d’avoir une éducation numérique à la hauteur des enjeux, on peut lire votre livre dont je rappelle le titre Géopolitique du numérique : l’impérialisme à pas de géants, aux éditions de l’Atelier, qui est paru en 2023.
En attendant, si on veut vous retrouver, Ophélie Coelho, sur quelles plateformes peut-on vous retrouver aujourd’hui ? LinkedIn, je crois.
Ophélie Coelho : Linkedin évidemment, Mastodon [6]. Allez sur Mastodon !
Grégoire Barbey : Le réseau social décentralisé.
Ophélie Coelho : Décentralisé, mais vous y trouvez tout ce que vous voulez, il n’y a pas de souci, allez sur Mastodon et je suis évidemment sur Twitter, je suis évidemment sur Instagram, mais très peu, en fait je suis moins photo, et, en ce moment, je teste Threads, mais vous ne m’y trouverez pas beaucoup, c’est juste un test utilisateur.
Grégoire Barbey : Super. En tout cas, merci beaucoup.
Ophélie Coelho : Merci à vous.
Grégoire Barbey : Je vous propose maintenant de passer au moment que les férus d’actu attendent avec impatience, la revue de presse et on va parler d’un sujet qui en intéressera plus d’un : Apple est enfin sortie du bois. La firme de Cupertino a annoncé, lundi 10 juin, son Apple intelligence, le nom qu’elle a donné à sa nouvelle suite de fonctionnalités basées sur l’IA générative pour ses iPhones, Mac et autres tablettes. Depuis le lancement de ChatGPT en novembre 2022, l’agent conversationnel d’Apple, Siri, semblait être un reliquat issu du Moyen Âge de la tech. L’entreprise en est consciente et elle affirme que ce temps est désormais révolu. Siri devrait être capable d’interagir directement avec les applications installées sur l’iPhone, y compris venant d’éditeurs tiers. Il sera aussi possible de communiquer avec Siri via l’écran tactile et pas uniquement grâce à la voix. D’autres fonctionnalités, plus exotiques, seront aussi de la partie comme les Genmoji. Il s’agira d’une nouvelle manière de réagir à l’aide d’émojis qui seront créés à la volée par l’IA générative. Tous ces changements seront introduits cet automne avec la mise à jour 18 d’iOS.
Le plus important reste quand même l’annonce de la prise en charge de ChatGPT sur iOS, macOS et iPadOS, les différents systèmes d’exploitation de la marque. Siri pourra se tourner vers le chatbot d’OpenAI, avec l’accord de l’utilisateur, pour répondre à des questions plus complexes.
La firme de Cupertino affirme que d’autres IA génératives seront prises en charge à l’avenir. OpenAI étant désormais le bras armé de Microsoft dans sa course à l’IA générative, le partenariat avec Apple risque de faire couler beaucoup d’encre.
Et, puisque je vous parle de Microsoft, la transition est toute trouvée. Je vous avais parlé, il y a deux semaines, de Google et de son moteur de recherche dopé à l’IA générative qui suggérait de drôles de réponses. C’est désormais au tour de Microsoft d’être confrontée à une situation embarrassante. La firme cofondée par Bill Gates a annoncé, il y a quelques semaines, l’arrivée de Recall dans Windows 11. Il s’agit d’une fonctionnalité permettant de sauvegarder tout ce que l’on fait sur son appareil grâce à des captures d’écran réalisées par le logiciel. Si l’on veut retrouver, ensuite, quelque chose que l’on a vu ou fait sur son appareil, il suffit d’effectuer une recherche grâce à Copilot, l’IA générative de Microsoft.
J’ai plein de potes qui trouvent l’idée géniale, moi, ça me fait carrément flipper, je n’ai peut-être pas tort ! Le média spécialisé Wired se fait l’écho des découvertes de nombreux chercheurs en cybersécurité. Ils ont montré, ces dernières semaines, à quel point il était facile, pour des hackers malveillants, de contourner les protections mises en place par Windows. Imaginez seulement ce que ça signifie : avec Recall, des captures d’écran sont prises toutes les cinq secondes, ce sont toutes les interactions d’un utilisateur avec son appareil qui sont enregistrées ! Question intrusion, on voit mal ce qu’il pourrait y avoir de pire ! Face aux critiques des spécialistes, Microsoft a déjà fait machine arrière : Recall ne sera finalement pas activée par défaut. Ça tombe quand même mal pour le géant américain : des médias se font l’écho d’une note interne du directeur de l’entreprise Satya Nadella. Il écrit aux employés qu’il faut donner la priorité absolue à la sécurité, même si cela signifie retarder la sortie d’une nouvelle fonctionnalité. Vraisemblablement, tout le monde n’a pas suivi les conseils du directeur.
C’était tout pour l’actu aujourd’hui. Je vous propose maintenant d’aborder la question de la consommation énergétique de l’IA générative. Une auditrice s’interroge sur une affirmation de l’ingénieur et informaticien Luc Julia [7], auteur du livre L’intelligence artificielle n’existe pas. Dans une présentation qu’il a donnée, il a affirmé qu’il n’y aurait pas assez d’énergie dans le monde pour satisfaire la demande en puissance de calcul si tous les utilisateurs de Google effectuaient leurs requêtes sur ChatGPT. Est-ce vrai ?
Déjà, il faut rappeler que le célèbre moteur de recherche de Google traite près de neuf milliards de requêtes par jour, c’est juste énorme ! Pour y voir plus clair j’ai posé la question à Clément Marquet [8] qui est assistant de recherche au sein de l’École d’ingénieur des Mines, à Paris. Selon lui, l’affirmation de Luc Julia n’est pas fondée scientifiquement. Il souligne néanmoins que l’engouement massif pour les IA génératives n’en est pas moins inquiétant du point de vue des enjeux environnementaux et climatiques. Clément Marquet estime que ces technologies intensifient des problèmes préexistants autour de l’empreinte environnementale du numérique. L’accélération de la construction de nouveaux centres de données soulève des débats, notamment aux États-Unis. Le chercheur pointe aussi du doigt le ralentissement du programme de fermeture des usines américaines à charbon, révélé par des médias comme le Financial Times. Ces infrastructures ont des effets majeurs sur la demande locale en électricité et en eau, un point justement abordé par Ophélie Coelho dans son livre. Bref ! Luc Julia force le trait, mais l’enjeu est bien réel.
Si vous avez envie, vous aussi, de nous poser une question vous pouvez nous écrire à cyber chez letemps.ch. N’hésitez pas, il n’y a pas de questions bêtes.
Sur ces belles paroles, il est temps de conclure ce cinquième épisode. J’espère qu’il vous aura plu et j’en profite pour vous recommander une série de vidéos, publiées sur Arte, intitulées Le code a changé. L’émission existe aussi dans un format podcast plus long et je ne m’en lasse pas.
Je vous donne évidemment rendez-vous dans deux semaines. Si vous avez aimé ce contenu, je vous invite à liker le podcast sur vos plateformes d’écoute préférées, à le partager et à le noter. Se faire une place dans le monde impitoyable des algorithmes nécessite des armées d’auditeurs satisfaits pour faire la différence. Je sais que je me répète, mais je compte sur vous et je vous dis à la prochaine.