Voix off : France Inter – Mathilde Munos – Le 5/7
Mathilde Munos : Il est 6 heures 20. C’était encore un fantasme il y a quelques années, l’intelligence artificielle est désormais partout dans nos vies, elle fait partie de notre quotidien, mais gare aux abus et aux dérives. La Commission européenne veut mettre des gardes-fous pour encadrer les usages de ce type de technologie. Elle doit présenter aujourd’hui un projet de règlement.
Bonjour Laurence Devillers.
Laurence Devillers : Bonjour.
Mathilde Munos : Vous êtes professeure à l’université de la Sorbonne, vous dirigez au CNRS la chaire de recherche en intelligence artificielle et vous êtes également membre du CPNDEN, le Comité National pilote d’éthique du numérique [1].
De quoi parle-t-on exactement quand on parle d’intelligence artificielle ? Il s’agit de quoi ? De lignes de code écrites par des humains. Ce ne sont pas des machines autonomes, on est bien d’accord ?
Laurence Devillers : On est bien d’accord. Ce sont des lignes de code écrites par des humains. C’est, en fait, une famille de technologies qui évolue très rapidement et qui peut avoir un large éventail d’avantages économiques et sociétaux dans plein de domaines dans la société. On va améliorer la prédiction. On va optimiser des systèmes, allouer des ressources, personnaliser des prestations de services. Cette intelligence artificielle vient se nicher un peu partout, par exemple dans l’agriculture, l’éducation, l’énergie, le transport, les services publics, la sécurité et même l’atténuation du changement climatique. Vous voyez qu’il y a énormément de champs dans lesquels cette IA est déjà quotidienne.
Mathilde Munos : Quand on pense aux dérives liées à cette technologie, nous vient en tête la reconnaissance faciale et la Chine qui utilise cette technique pour traquer la population Ouïghours, mais là c’est l’exemple extrême.
Laurence Devillers : Oui. Vous avez raison. On ne peut qu’être fantastiquement optimiste par rapport à l’Europe. En fait, par rapport à d’autres pays, effectivement, l’idée c’est finalement de se prémunir, essayer pour le plus grand nombre, pour les plus vulnérables, de réguler cette intelligence artificielle et le numérique en particulier.
Vous parlez de biométrie. Qu’est-ce que c’est que la biométrie ? C’est identifier les personnes dans la rue, par exemple à partir des traits du visage, mais il y a d’autres objectifs qui sont peut-être un risque pour les personnes. On imagine très bien une surveillance accrue, mais on peut aussi imaginer les systèmes d’IA destinés au recrutement qui posent un problème : filtrer des candidatures, évaluer des candidats au cours d’entretiens oraux, faire passer des tests, comment vérifie-t-on ces systèmes ? Il est important de faire cela pour éviter, par exemple, les discriminations. Si votre enfant a un cheveu sur la langue il ne passerait pas dans un recrutement à l’oral si le système, derrière, était amené à prédire, en fait, si le candidat est bon ou pas. Ce sont des systèmes qui vont s’immiscer partout, pour assister les juges au tribunal, c’est une autre tâche qu’il est important de réguler.
Mathilde Munos : C’est-à-dire pour les juges au tribunal ? À quoi pensez-vous ?
Laurence Devillers : Par exemple ces systèmes d’IA se nourrissent des données qui existent déjà, d’affaires qui sont déjà passées, pour prédire si quelqu’un pourrait être suspect ou non ; en cela, il faut évidemment faire attention. Les données qu’on utilise sont des données particulières, elles vont être discriminantes d’une certaine manière, donc il faut rester serein sur la justice. Elle ne doit pas être faite par des machines mais par des humains.
L’Europe propose cela : centrer l’intelligence artificielle sur le respect des valeurs que nous partageons dans l’Europe.
Mathilde Munos : Il y aurait quoi d’autre comme problèmes qui pourraient être soulevés, justement, d’autres exemples concrets d’appareils qu’on utilise ? Je pense par exemple aux assistants vocaux ?
Laurence Devillers : Pour les assistants vocaux, vous avez raison d’insister, c’est par exemple ces recrutements qui sont faits grâce à la prise de la parole, audio et linguistique, c’est-à-dire le ton de votre voix, etc., qui vont être analysés par des machines et qui vont donner lieu, ou pas, à un certain score.
On peut aussi imaginer ces systèmes pouvoir vous manipuler si on ne les contrôle pas. Pour l’instant ils ne sont absolument pas régulés, que ce soit les systèmes Amazon, Siri, etc., les concepteurs peuvent à l’envie changer le système en face, peuvent avoir des intentions de pousser votre opinion politique ou bien vous pousser à acheter certains produits. Pour l’instante champ est très jungle et il est nécessaire de réguler.
Mathilde Munos : En fait, le gros problème c’est, pour le moment, qu’il y a une totale liberté et un manque de transparence. C’est ça ?
Laurence Devillers : C’est tout à fait ça. Parmi les valeurs que pousse l’Europe c’est effectivement la transparence, l’explicabilité. Quand un médecin va utiliser un système qui va prédire un cancer, comment peut-il utiliser ce système pour mieux l’aider dans la décision qui est prise, à partir de quelles informations ? Ce sont tous ces sujets qui sont à la fois des sujets de société et de recherche, parce que l’intelligence artificielle ce n’est pas terminé, ce sont des algorithmes, certes, qui montrent certaines performances, mais qui ont aussi beaucoup de bugs quelque part. Donc il faut faire attention à cela, les évaluer, les certifier, faire des benchmarks c’est-à-dire les tester, les expérimenter aussi auprès de la société pour que tous les consommateurs, tous les citoyens soient à même de mieux comprendre quels effets ils auront dans leur vie.
Mathilde Munos : Ce que dit l’Europe c’est quoi ? C’est qu’il ne s’agit pas d’être contre l’intelligence artificielle, de toute façon ce serait quasiment impossible et, en plus, ça peut être très pratique, très utile, le point clef c’est le consentement. C’est juste que nous, consommateurs, soyons au courant de ce qui se passe.
Laurence Devillers : C’est ça. C’est améliorer la confiance qu’on peut avoir dans ces objets, donc donner un cadre juridique. Ça permet effectivement d’avoir plus confiance. Mais ce n’est pas que cela la confiance. C’est aussi un cadre éthique, c’est-à-dire réfléchir aux aspects, peut-être positifs ou négatifs, que peuvent avoir ces systèmes sur différentes populations. Et puis c’est aussi vérifier que l’IA est robuste, qu’elle est loyale, c’est-à-dire qu’elle fait bien ce pourquoi elle est conçue et qu’elle est robuste en termes de technologie, c’est-à-dire qu’elle ne fait pas trop d’erreurs.
Mathilde Munos : Aujourd’hui il n’y a aucune règle à l’échelle européenne ? Vraiment aucune ?
Laurence Devillers : Si, bien sûr il existe le RGPD [2] [Règlement général sur la protection des données] que nous connaissons tous bien, c’est-à-dire la protection sur les données personnelles. Mais là ça va plus loin, c’est sur, finalement, l’usage.
Je pense qu’il faut se réjouir que l’Europe soit moteur dans cette histoire, que l’industrie va en bénéficier et notre économie aussi. Prenons l’exemple de l’écologie. Nous sommes en retard partout dans le monde, on a vu qu’on n’a pas pris le train sur l’écologie, sur la prise en compte des risques environnementaux. Eh bien prendre en compte les risques de l’IA maintenant, dès le début, c’est, à mon avis, un pas en avant nous qui mettra devant dans la concurrence.
Mathilde Munos : Merci beaucoup Laurence Devillers. Je rappelle que vous êtes professeur à la Sorbonne université et que vous êtes également chercheur au CNRS. Je vais citer votre dernier livre pour nos auditeurs qui voudraient prolonger le sujet. Ce livre s’appelle Les robots émotionnels : santé, surveillance, sexualité… Et l’éthique dans tout ça ?.
Merci Laurence Devillers de nous avoir accordé quelques minutes ce matin. Vous étiez l’invitée du 5/7
Voix off : France Inter.