Présentatrice : Je crois que Monsieur Bengio n’a plus besoin de présentation, on le voit partout dans les médias ces temps-ci. Détenteur du prix Turing d’informatique de l’Association for computing machinery en 2018, prix prestigieux. C’est également le directeur scientifique du Mila [Montreal Institute of Learning Algorithms] et, à ce titre-là, titulaire de la chaire sur les algorithmes d’apprentissage statistique depuis plusieurs années. Le professeur Bengio est une personne très intelligente cognitivement, mais c’est aussi quelqu’un avec une grande intelligence émotionnelle et il réussit à passer sa passion à ses étudiants de manière assez exemplaire.
[Applaudissements]
Yoshua Bengio : Merci beaucoup. Je ne suis pas sûr pour l’intelligence émotionnelle, j’ai encore des croûtes à manger. Pour le reste, c’est beaucoup de chance et des gens qui ont été très importants avec qui j’ai travaillé pendant des années.
On va commencer avec le blabla sur l’intelligence artificielle.
Les progrès en vision informatique sont derrière, en grande partie, notre capacité nouvelle à construire des systèmes de voiture autonome. En quelques mois, j’ai vu le développement de certains systèmes passer de rien du tout à des voitures qui se conduisent. Par contre, pour arriver au niveau de fiabilité des humains, je pense qu’il y a encore beaucoup de chemin, ce n’est pas encore clair combien de temps ça va prendre. Ce qui est sûr c’est que le potentiel transformateur de ces technologies est incroyable, que ce soit dans les transports ou d’autres domaines.
Un domaine autre que la vision c’est celui de la compréhension du langage. Vous avez sûrement déjà vu un peu ces progrès dans différents outils souvent fabriqués par les méchants GAFAM. Là encore, il y a un constat de progrès surprenants, même des chercheurs comme moi ne s’y attendaient pas nécessairement il y a quelques années et, en même temps, quand même une certaine humilité face au chemin qui reste à parcourir pour des intelligences artificielles de niveau humain. On n’est même pas au niveau d’un enfant de deux ans. Il reste que ces avancées technologiques ouvrent des portes extraordinaires en ce qui concerne tout ce qui est interface humain-machine. J’ai travaillé, par exemple, beaucoup travaillé sur la traduction automatique pendant quelques années, je n’y touche plus parce que c’est trop gros comme ingénierie. Ces systèmes-là ont développé une compréhension sémantique qui leur permet de traduire presque aussi bien que la plupart des gens les choses faciles, mais ils vont se planter quand il y a des enjeux de compréhension du monde qui permettent d’interpréter la phrase.
Un autre domaine où il y a eu beaucoup de progrès, pour l’instant pas encore très développés dans les applications industrielles, c’est la capacité de ces systèmes à apprendre à jouer à un jeu, pas nécessairement un jeu ludique où, finalement, le système apprend par renforcement. Après avoir effectué une séquence d’actions on obtient un résultat plus ou moins positif et c’est le signal d’apprentissage. Là il y a un succès très connu, le système de DeepMind AlphaGo, qui a battu plusieurs champions du monde de Go .
Le bémol que je mettrais là-dessus c’est que ce sont des systèmes où justement, si on peut dire, on connaît les règles du jeu. Ce qui fait que l’ordinateur a pu battre les champions du monde c’est qu’il a été capable de jouer contre lui-même un nombre énorme de fois. Une manière de comprendre ce que ça veut dire c’est comme si on avait un simulateur d’un environnement parfait, on connaît tout de cet environnement, donc l’ordinateur peut simuler ce qui arriverait si je fais ça, si l’autre fait ça, qu’est-ce qu’il y a à gérer si je fais ça. De cette manière-là, l’ordinateur a appris. Mais le vrai monde est différent dans le sens qu’on ne connaît pas les vraies règles du jeu du monde qui nous entoure, la réalité, on en connaît quelques aspects et on ne sait pas les mettre dans l’ordinateur. Donc les principes qui ont permis d’arriver à ce niveau d’intelligence, d’abord pour des tâches très précises, mais quand même, on ne sait pas aujourd’hui les déployer dans le monde réel.
Ce sont quand même des progrès très impressionnants, mais qui ne sont pas immédiatement transposables dans la plupart des problèmes d’intelligence artificielle qui nous intéressent.
Dans les années 50-60, quand les chercheurs pensaient que si on pouvait faire un ordinateur qui puisse battre les humains aux échecs on aurait fait une étape extraordinaire, ils avaient sous-estimé la complexité du monde qui nous entoure, qui serait aussi nécessaire à l’ordinateur pour le comprendre.
Je disais alors que les progrès dans le domaine de la vision étaient spectaculaires. C’est probablement le domaine de l’intelligence artificielle qui a été le plus touché et où les progrès sont les plus forts. En fait, depuis à peu près 2015, on a atteint un niveau de performance sur papier qui est comparable à celui des humains pour détecter des objets dans les images. Celles-ci sont de très vieille images dans le sens qu’aujourd’hui on peut faire mieux, mais là aussi il y a des bémols. C’est beaucoup mieux que dans le cas du langage mais, par exemple, l’ordinateur aujourd’hui n’a pas encore une compréhension de la tridimensionnalité du monde. Ce sont des systèmes qui sont entraînés sur des images statiques et, même si en pourcentage d’erreurs c’est comparable à ce qu’un humain va faire, les erreurs sont pas du tout les mêmes. Les erreurs que l’humain fait sur ce banc d’essai, c’est parce qu’il y a des catégories qu’il ne connaît pas. Mettons qu’il y a des catégories de chiens – dont je ne pourrais pas vous dire le nom parce que je ne les connais pas – que l’ordinateur a appris à partir d’exemples. Là, évidemment, l’humain fait des erreurs tout simplement par manque de connaissance. Tandis que les erreurs de l’ordinateur vont être des erreurs qui dénotent une incompréhension de la nature physique du monde qui sous-tend ces images-là, donc c’est vraiment différent.
Malgré tout, ces systèmes-là sont, évidemment, extrêmement utiles et vont continuer à progresser dans les prochaines années. Par exemple, je pense que l’aspect tridimensionnalité va se faire, c’est juste que ça demande un peu plus de puissance de calcul, il faut travailler avec plusieurs images, la vidéo, etc. C’est en train de se faire, je pense qu’on va y arriver assez rapidement.
Il y a aussi des enjeux éthiques aussi autour de l’utilisation de ces systèmes, par exemple la détection de visages. Aujourd’hui on a des systèmes qui peuvent reconnaître le visage d’une personne, donc qui est cette personne à partir d’une image de son visage, étant donné qu’on a quelques photos de cette personne dans une base de données. Évidemment Facebook a les photos de beaucoup d’entre vous et utilise ça pour pouvoir taguer des images que les gens rentrent. Ça peut être aussi utilisé, par exemple en Chine, pour surveiller les populations.
Il y a une justification qui est donnée à ça qui est la sécurité. Ils ont donné des cas où ils ont arrêté des malfaiteurs parce qu’il y a des centaines de millions de caméras dans les rues en Chine. Oui, peut-être qu’il y a une utilité pour la sécurité, mais il y a clairement un danger de dérapage et qui donnerait des moyens disons abusifs à des gouvernements ou d’autres entités, donc prudence, je vais y revenir tout à l’heure.
Les applications dans le domaine de la vision, c’est évidemment dans le domaine des transports, comme je disais, et la sécurité, mais aussi dans le domaine médical. C’est est un sujet sur lequel je n’ai pas mal travaillé. Dans le domaine médical il y a beaucoup d’applications de l’intelligence artificielle qui sont explorées aujourd’hui. Le domaine qui est le plus avancé c’est vraiment l’analyse d’images médicales pour détecter et classifier, aider les médecins à éviter de manquer peut-être un petit indice quelque part qu’il y aurait des cellules cancéreuses. Ce qui est intéressant c’est que malgré le fait qu’il y a encore des problèmes au niveau des données dans le sens qu’on n’a pas encore assez de données, il y a des barrières réglementaires et des monopoles qui me devraient pas être là qui font que c’est difficile pour l’instant, pour les chercheurs ou les entrepreneurs, d’avoir accès à des quantités suffisantes de données médicales. Malgré ça, par exemple l’entreprise Imagia qui est à Montréal, avec qui on collabore, avec quelques centaines de milliers d’images de cellules cancéreuses de l’intestin arrive à des taux de précision qui sont comparables aux meilleurs médecins et spécialistes et meilleurs que les spécialistes disons moyens. Donc ce sont vraiment des outils qui non seulement sont sortis des laboratoires mais vont être déployés dans le monde par exemple, dans les endoscopes d’Olympus.
Relié à l’application en vision, donc en vision, le système part d’une image et va nous donner des réponses à des questions : qui est dans l’image ?, quels objets sont là ?, etc.
On peut considérer le problème inverse, une question, c’est-à-dire partir de certaines caractéristiques et produire une image ou, en fait, produire n’importe quoi : ça peut être du texte, du son, etc. Finalement la question c’est : est-ce que l’ordinateur peut inventer du contenu soit à partir de rien ou à partir de caractéristiques qu’on veut pour ce contenu-là. Dans mon groupe on a développé une technique, une approche qui s’appelle « Les modèles génératifs adversariaux », en anglais les GANs [1], Generative Adversarial Networks, qui a eu un succès foudroyant dans les dernières années.
Ce que vous voyez ce sont des images synthétiques, c’est-à-dire que ce ne sont pas des images de vraies personnes. Ce ne sont pas des images qui ont été retouchées à la main, ce sont des images inventées par l’ordinateur de personnes qui n’existent pas. Ces gens-là n’existent pas, c’est purement fictif. Ce que vous voyez en haut c’est la progression dans les années, entre 2014 où on a sorti de papier et 2017 ; aujourd’hui on est en 2019, on peut faire encore mieux, mais là on ne voit plus trop la différence.
C’est intéressant et ça remet aussi un peu en question, des fois, l’image qu’on a des réseaux de neurones comme des systèmes de reconnaissance des formes, finalement une tâche, on pourrait dire inférieure dans l’intelligence artificielle parce que là on parle de créativité, le système va inventer du contenu. Il y a aussi des systèmes du côté texte qui vont créer du texte peut-être dans un contexte ou à partir de rien. Là aussi, d’ailleurs, il y a des enjeux éthiques. Que ce soit pour les images ou le texte, il y a déjà des personnes qui utilisent ce genre de choses pour faire, par exemple, du porno avec des visages de vraies personnes. On peut très bien imaginer aussi des fausses nouvelles, de la publicité politique, etc., qui s’appuient sur cette capacité de créer du contenu à la demande, qui peut être conditionné à un contexte, à un auditeur, un usager. Donc c’est un outil technologique puissant. Évidemment, plus un outil est puissant et plus il peut être utilisé de manière néfaste dans la société. Ça c’est vraiment quelque chose à garder à l’esprit.
Après avoir fait un petit tour du jardin de certains domaines d’applications, revenons à un peu à la question fondamentale de l’intelligence artificielle : qu’est-ce que c’est ? Tout le monde ne s’entend pas sur la définition de ce qu’est l’intelligence artificielle, mais déjà il faut s’entendre sur la définition d’intelligence sur laquelle on ne s’entend pas tous nécessairement non plus.
Dans ma communauté, chez les chercheurs que je côtoie dans les conférences, il y a quand même un certain consensus que l’intelligence a un rapport avec la capacité de comprendre et de prendre des bonnes décisions. Quand on regarde cette définition on se rend compte immédiatement qu’on peut être intelligent pour certaines choses et stupide pour d’autres. On avait, par exemple, ce système de jeu de Go, il peut battre le champion du monde, mais il ne peut rien faire d’autre, rien, rien d’autre ! OK ! Notre système qui génère des images de visages, il peut faire ça, mais il ne peut rien faire d’autre. Il est très spécialisé, il a une intelligence très spécialisée alors que nous, les humains, on a une intelligence très large, on a une compréhension du monde, ça veut dire qu’on est capable de répondre à des questions sur à peu près tout.
Quand on essaye encore de prendre de la distance, là c’est une définition, mais comment on met de l’intelligence dans l’ordinateur ? C’est une question clé, c’est la question de la connaissance.
Pendant de nombreuses décennies, l’idée dominante était qu’on va pouvoir prendre notre intelligence sous la forme des connaissances qu’on a, puis les transférer à l’ordinateur, un peu sur le modèle de transférer nos connaissances de maître à élève, on écrit des livres, etc. Entre humains ce système-là semble fonctionner. Mais cette approche n’a pas vraiment bien fonctionné. Pourquoi ? Parce que la partie des connaissances qu’on peut exprimer verbalement c’est la pointe de l’iceberg par rapport à tout ce qu’on connaît ou qu’on comprend.
On peut dire, d’un point de vue cognitif, qu’il y a des connaissances intuitives et des connaissances conscientes, explicites, qu’on peut communiquer verbalement. Cette deuxième partie, d’une part elle est une petite fraction du total, on s’en rend compte, et deuxièmement, la connaissance est comme un édifice. La partie qu’on peut verbaliser, etc., c’est comme le dessus de la maison. Si on est pas capable de faire les fondations, puis les premiers étages la maison, mettre le chapeau des connaissances explicites, ça ne fonctionne pas.
L’approche classique, en intelligence artificielle, était basée sur l’idée de formaliser les connaissances, ce qui marche bien pour certains types de connaissances quand on communique entre nous, mais comme on a pas accès à notre compréhension du monde sous-jacente parce que ça se passe dans notre inconscient, la maison n’a jamais bien tenu.
Aujourd’hui, la révolution de l’intelligence artificielle c’est que, finalement, on est en train de bâtir les fondations de la maison. On a compris des principes basés sur l’apprentissage pour construire ses fondations.
Pourquoi est-ce qu’on utilise l’apprentissage ? Puisqu’on n’est pas capable de communiquer ces connaissances à l’ordinateur, vu qu’on les a, mais on n’y a pas accès, l’ordinateur va aller les acquérir lui-même à partir de l’observation du monde, comme on le fait enfant ou comme, potentiellement, l’évolution les a mises en nous à travers les générations. Donc il faut que l’ordinateur acquiert ces connaissances implicites d’une certaine manière ; on n’est pas capable de les lui donner. D’où la prépondérance de l’apprentissage automatique dans la recherche en intelligence artificielle aujourd’hui ; c’est devenu le paradigme dominant.
Les bases de ça c’est la capacité d’apprendre à percevoir et à agir.
Aujourd’hui, le plus grand progrès a été fait dans la perception, beaucoup de recherches se font aussi du côté action, mais là où on voit les déploiements industriels c’est vraiment le côté perception et, dans une certaine mesure, la compréhension du langage, mais on en est encore loin.
Ce qu’on voit en haut illustre où on en était en 2015. C’est la capacité de l’ordinateur à prendre une image, mettons celle d’en haut à gauche avec la femme et l’enfant dans le parc, puis à construire une phrase qui pourrait être une description de l’image.
C’est intéressant aussi : dans cet article-là on avait utilisé un mécanisme d’attention, quelque chose qui était nouveau à l’époque. Aujourd’hui, c’est cette idée d’utiliser les mécanismes de l’attention qui sont inspirés de la cognition, c’est vraiment quelque chose qui a marché au-delà de nos attentes. Ce qu’on voit c’est que l’ordinateur produit la phrase, un mot après l’autre, puis quand il est rendu à certains mots, mettons frisbee, il va choisir quel mot mettre dans cette case-là. On lui permet de regarder, « focusser » sur certains éléments de l’image. Ce qu’on voit dans la deuxième image de chaque paire, ici, c’est le point de focus, c’est le poids qu’il donne à chacun des pixels dans l’image de départ. Son attention va se déplacer, comme ça, sur différents éléments de l’image et, à chaque fois, produire un mot dans la phrase générée.
Où est-ce qu’on est rendu dans les progrès en intelligence artificielle ?
Deux axes principaux que je soulève ici c’est un, la division entre les connaissances intuitives, inconscientes, etc., que les psychologues appellent capacité à faire des tâches du système 1, là on est très avancés, versus les tâches que l’intelligence artificielle classique essayait de résoudre, les tâches que d’habitude on est capable d’effectuer de manière consciente. Si je vous demande de faire 344 + 19, vous pouvez peut-être le faire dans votre tête. Ça, c’est un processus de type système 2 que vous pouvez faire séquentiellement, beaucoup d’étapes une après l’autre. D’ailleurs la programmation, parce que c’est quand même un peu le sujet aujourd’hui, c’est un travail cognitif plutôt système 2. C’est là, c’est conscient, on peut le communiquer, c’est quelque chose qui est une force de l’humain par rapport à d’autres intelligences. Là-dessus il y a beaucoup à faire, finalement mettre le toit de la maison.
Ensuite, il y a eu beaucoup plus de progrès sur le côté perception que sur le côté action. Les progrès du côté perception, entre autres, c’est sur la notion de représentation. Une grande partie de mes recherches, dans la dernière décennie, c’est vraiment « focussée » sur comment on représente le monde, comment on représente une image, comment on représente une phrase dans l’ordinateur de façon à ce que l’ordinateur puisse généraliser, à partir d’exemples, à d’autres nouvelles situations.
Le côté action, évidemment on peut penser à la robotique, etc., mais c’est plus que ça. Au niveau cognitif, le côté action c’est aussi ce qui concerne le raisonnement, la planification, comprendre la causalité. Ce sont tous des domaines où les chercheurs en apprentissage automatique commencent à creuser, mais on ne peut pas dire que ce sont des choses que vous allez trouver dans les produits aujourd’hui. C’est un peu à la frontière de là où on est en recherche.
L’autre élément, on peut dire, qui s’est démarqué, là on a vraiment eu des grands succès, on n’est plus à à se poser des questions et à faire de la recherche, c’est entre l’apprentissage supervisé puis les autres formes d’apprentissage moins supervisé comme l’apprentissage par renforcement ou non supervisé. Ce que je veux dire c’est qu’aujourd’hui les systèmes industriels qui font, par exemple, la reconnaissance des formes dans les images sont basés sur un travail humain qui est justement d’accoler aux images des étiquettes sémantiques. Les concepts de haut niveau, dont je parlais tantôt, l’ordinateur ne les découvre pas tout seul, il faut que les humains disent « dans cette image là il y a un chien, ici c’est un chat ici, ici c’est une chaise, etc. ». Ce sont des abstractions, ce sont les humains qui doivent les définir d’une manière implicite en donnant les étiquettes à ces images ou à ces données.
C’est de l’apprentissage supervisé. Ce n’est pas comme ça que nous, les humains, apprenons. On n’a pas besoin de tenir notre bébé par la main puis de lui dire à chaque instant « voilà comment tu devrais bouger chacun de tes muscles ; voilà l’interprétation sémantique de chacune des scènes qui sont devant toi à chaque instant » ; on n’a pas besoin de faire ça. Une grande partie de notre apprentissage est non supervisé, on observe, on interagit avec le monde, puis on construit un modèle du monde à partir de ça.
Peut-être liées à cette limitation-là, il y a des choses intéressantes qu’on observe sur le genre d’erreurs que les systèmes font. Il y a vraiment quelque chose d’amusant qui a eu lieu dans les dernières années c’est que non seulement on peut observer les erreurs que font ces systèmes-là, mais on peut les provoquer. Par exemple, on peut manipuler une image comme celle de gauche qui, normalement, serait catégorisée comme un chien, la manipuler en changeant un petit peu les pixels, puis, avec un algorithme, on va optimiser les pixels juste en les changeant un petit peu de façon à tromper la machine. C’est juste un truc mathématique, on calcule la dérivée de l’erreur par rapport aux pixels, puis on va dans le sens d’augmenter l’erreur. Ça fait que, par des petits changements que vous ne pouvez pas percevoir parce que, par construction, on veut qu’ils soient petits, on peut s’arranger pour que le système dise que la réponse est Ostrich [nom d’un chien, NdT].
Cela nous indique des choses sur la forme de compréhension du monde que ces systèmes ont, qui est très différente de la nôtre, qui les mène à des sortes d’illusions visuelles beaucoup plus graves que celles qui nous affectent.
Il y a encore beaucoup de progrès à faire. Certains d’entre nous aiment penser aux capacités et au niveau intellectuel d’un jeune enfant, d’un bébé. Leur compréhension du monde physique ou psychologique n’est certainement pas apprise par la supervision, mais de manière complètement non dirigée, comme ce qu’on appelle la physique inductive. Un bébé de deux ans comprend la gravité. Ça ne vient pas à la naissance, c’est quelque chose qui est appris, puis, à un moment, donné il catch la gravité, il sait ce qui se passe quand je lâche un objet. Évidemment, il n’a pas cette connaissance à travers la compréhension des équations de Newton et ses parents ne lui donnent pas des cours de physique, donc il l’a découverte tout seul.
Il y a encore beaucoup à faire mais ce qui est intéressant, d’un point de vue social, intéressant ou dangereux selon le point de vue, c’est que même si on arrêtait la recherche scientifique en intelligence artificielle aujourd’hui, il y aurait des années, pour ne pas dire des décennies, de déploiement, de développement d’applications qui vont avoir un impact dans tous les secteurs de l’économie. Plusieurs économistes, indépendamment, ont essayé de réfléchir aux impacts positifs que ça pourrait avoir. Ils estiment à je sais pas combien de trillions dollars en 2030 la valeur de ce qui serait apporté à l’économie. C’est intéressant et c’est aussi la raison pour laquelle il y a tellement d’investissements qui se font dans ce domaine-là, c’est qu’il y a beaucoup d’opportunités simplement en prenant les algorithmes qu’on a aujourd’hui puis en tirant parti de plus de données : on accumule de plus en plus de données, on peut aller les chercher spécifiquement pour répondre à des questionnements, des systèmes, des applications qu’on a en tête. On développe des matériels de plus en plus puissants. Il y a des milliards qui sont investis dans des puces spécialisées d’apprentissage profond qui, graduellement, vont augmenter la puissance de calcul, diminuer les coûts énergétiques qui sont aussi un enjeu important des systèmes actuels. Évidemment, la créativité humaine est sans limite, donc les ingénieurs, les entrepreneurs vont découvrir des manières d’appliquer ces outils très flexibles dans des domaines auxquels on n’a pas encore pensé.
Ça peut être dans le domaine médical, j’en ai parlé un petit peu, surtout pour aller vers une médecine plus personnalisée, qui est capable de tirer parti des données en grande quantité qui sont disponibles et qui vont l’être encore plus sur chaque personne. Aussi dans la découverte de médicaments, on a plusieurs projets autour de ça, pour l’automatiser, et même en biologie fondamentale pour comprendre les mécanismes cellulaires d’une manière beaucoup plus systématique que ce qui est possible aujourd’hui.
Évidemment dans le monde industriel avec l’automatisation des usines, de la fabrication ou de la robotique, qui s’applique aussi dans le monde du transport dont je parlais.
La compréhension du langage dont je parlais. Ce sont les assistants personnels, des interfaces plus accessibles. Pensez à tous les gens sur terre qui ne savent pas lire et écrire, qui n’ont pas accès à Internet, qui n’ont pas accès à Wikipédia, mais qui pourraient quand même converser en paroles. Aujourd’hui on a des systèmes de reconnaissance de la parole et de synthèse de la parole basés sur l’apprentissage profond qui sont utilisables. On peut dire que c’est un progrès énorme qui a été fait.
C’est aussi l’accès à l’information. Il y a une quantité d’informations partout donc, évidemment, c’est le pain et le beurre des engins de recherche mais ça a aussi des impacts dans des domaines comme l’éducation ; pas seulement fournir des engins de recherche mais aller chercher les bonnes informations pour les besoins de telle personne, pour compléter son progrès dans un curriculum.
Ça c’était dans les positifs qu’on peut entrevoir, les avancements autant matériels que sociaux on peut dire, mais ces outils, comme je disais, au fur et à mesure que leur puissance augmente peuvent être utilisés par certains soit pour acquérir de la puissance ou asseoir leur puissance.
J’ai mentionné la détection d’images avec les outils qui existent déjà pour traquer ce que les gens font sur Internet. Là on va pouvoir vous traquer non seulement sur Internet mais dans la rue. Il n’y a pas besoin de nouvelle science, c’est purement de l’ingénierie. Il y a déjà des compagnies dont c’est le business. Ça c’est inquiétant pour la démocratie.
Un autre sujet sur lequel je vais revenir un peu plus c’est l’utilisation militaire de ces outils-là.
Je vais vous parler aussi de la possibilité — c’est plus qu’une possibilité en fait, ça se passe déjà — d’utiliser l’intelligence artificielle pour contrôler les esprits, donc la publicité, les réseaux sociaux.
Il y a des enjeux de vie privée, de droits individuels qui peuvent être menacés par ces outils, par la centralisation des données et l’utilisation qu’on va en faire si elle n’est pas bien gérée par des normes sociales.
L’automatisation va aussi avoir des effets secondaires. C’est clair que des gens vont se trouver des nouveaux jobs. Cette croissance économique va enrichir une partie de la population qui ne sera pas la même que celle qui va perdre son job. Donc il va falloir trouver un moyen de faire un transfert de richesse, sinon on s’en va vers une misère humaine et un chaos social qu’on devrait essayer d’éviter.
Un autre sujet qui a un rapport avec les aspects éthiques de l’intelligence artificielle, c’est : est-ce qu’on va déployer système-là sans réfléchir et peut-être se trouver face à des effets secondaires de ces systèmes-là qui vont renforcer des biais et des discriminations qui existent déjà dans la société. Étant donné que ces systèmes-là sont entraînés souvent sur les comportements des personnes et que ces comportements peuvent inclure des facteurs comme le racisme, comment fait-on techniquement et aussi socialement pour éviter ce genre de dérive qui n’est pas nécessairement volontaire, donc peut-être moins inquiétante, d’une certaine manière, que Big Brother, mais quand même ! Je pense qu’on a un devoir d’y penser et de trouver des solutions.
Finalement, peut-être quelque chose qui relie beaucoup de ces points-là, c’est la notion d’augmentation des inégalités et de la concentration du pouvoir. Pourquoi ? Parce que plus on construit des outils puissants et plus ceux qui ont déjà du pouvoir vont pouvoir les utiliser pour asseoir leur pouvoir encore plus, donc dérives autoritaires, monopoles dans le domaine des industries. C’est déjà des choses qu’on voit. Il y a des compagnies qui sont en train de bouffer des secteurs de l’économie avec une domination qui va être d’autant plus difficile à déloger que les outils technologiques à leur disposition sont puissants. Comme un effet de winner takes all, ce n’est pas pour rien aujourd’hui que, par exemple, il n’y a plus de nouveaux réseaux sociaux qui émergent depuis 2011. Aussitôt que quelque chose émerge, c’est racheté par les Facebook et autres notamment.
Il y a des enjeux non seulement dans les secteurs économiques, des enjeux de monopoles, des enjeux dans les secteurs des populations dans les pays riches comme les nôtres. Il y a aussi des enjeux planétaires entre la richesse qu’on va pouvoir accumuler dans certains pays où l’intelligence artificielle va nous permettre de prospérer – on espère ici au Canada qu’on va être des producteurs d’intelligence artificielle – et des pays où, c’est clair, ça va être difficile de profiter de la technologie ; ils vont être des consommateurs, peut-être des victimes. Donc on risque de voir, potentiellement, une augmentation des inégalités entre pays. C’est aussi quelque chose qui n’est pas sain pour la planète.
Je reviens sur la question des publicités et l’influence psychologique.
L’idée c’est que plus j’ai de données sur vous plus je peux identifier les boutons sur lesquels appuyer pour vous faire pencher d’un bord ou de l’autre. Je n’ai pas besoin de vous convaincre que Pepsi est mieux que Coke. Il suffit que 10 % des gens achètent plus de Pepsi que de Coke grâce à ma publicité, c’est un profit énorme que je viens de faire. Donc l’incitatif pour faire ça est très grand, il n’y a pas besoin de paraître. Dans notre vie quotidienne, on ne se rend pas compte qu’on est influencé par la publicité ; d’ailleurs ce n’est pas nous qui sommes influencés par la publicité, ce sont les autres ! OK ! Nous, ça ne nous fait rien !
Tant que c’était Pepsi versus Coke, peut-être que, dans le fond, ça ne me dérangeait pas tant que ça, puis aujourd’hui on me dit que l’Internet vit grâce à la publicité, donc on accepte un peu ça comme une nuisance.
Mais je pense qu’il y a un péril moral qui va aller en augmentant au fur et à mesure que ces outils deviennent plus puissants, d’une part à cause du fait qu’il y ait plus de données disponibles pour savoir quels boutons appuyer pour vous, puis, deuxièmement, parce que la technologie va continuer à progresser et à être déployée.
Ce n’est pas pour rien qu’au Canada on a des lois qui limitent, par exemple, la publicité qui s’adresse aux enfants parce qu’on considère qu’ils ne sont pas aptes à se défendre contre cette manipulation. En fait, si on était capable de vraiment se défendre contre cette manipulation nous, les adultes, ça ferait longtemps que la publicité aurait arrêté. C’est parce que ça fonctionne que ça continue. Donc je pense qu’il y a un besoin de tracer une ligne — ce n’est encore pas clair exactement où elle doit être — de ce qui est acceptable moralement et de définir des nouvelles normes sociales par rapport à l’influence qu’on peut avoir les uns sur les autres. Évidemment, l’influence ça peut être positif aussi ; l’éducation c’est de l’influence. Mais quand il y a quelqu’un qui paye pour vous influencer, moi je commencerais à me méfier.
Je pense que beaucoup de gens sont intuitivement d’accord avec ce que je viens de dire, avec la question du péril moral, même s’ils n’en voient pas nécessairement l’ampleur ou le danger immédiat. Pensez à la publicité politique comme enjeu qui serait beaucoup plus grave que Pepsi versus Coke. Cambridge Analytica [2] c’est la pointe de l’iceberg, potentiel, donc il faut quand on y pense.
Il y a même un péril économique et beaucoup de gens n’y pensent même pas. Tout le monde pense que la publicité c’est le système capitaliste, c’est une conséquence naturelle du système de marché, mais, en fait, c’est exactement le contraire. La publicité nuit à l’efficacité des marchés, je vais essayer de vous expliquer pourquoi, et quand je dis « la publicité » ça inclut quelqu’un qui paye pour vous influencer dans les réseaux sociaux, n’importe quelle forme d’influence payée. Ce que fait la publicité c’est qu’elle donne un avantage aux compagnies qui sont plus grosses et qui ont déjà une force de marque et elle crée une barrière à l’entrée qui fait qu’une petite start-up canadienne, québécoise, qui a une nouvelle idée, ne pourra pas compétitionner facilement avec ces grandes entreprises. Les produits dont vous parliez tout à l’heure, libres et gratuits, etc., ou pas gratuits, font en tout cas face au même problème. Les gens font confiance aux marques qu’ils voient souvent. Pour qu’un nouveau produit devienne compétitif non seulement il faut qu’il accote ce qui existe, mais il faut qu’il dépasse pour contrebalancer l’effet de marque, l’effet de la confiance qu’on accorde, inconsciemment, et qu’on continue à accorder parce qu’on est abreuvé de ces publicités-là.
Du point de vue des marchés, ça va ralentir l’innovation. On peut se dire que les produits existants sont comme protégés par un château et, en fait, on va ralentir le progrès.
Vous allez me dire si ce n’est pas bon pour les capitalistes, si ce n’est pas bon pour la société, pourquoi continue-t-on à le faire ? C’est un problème de théorie des jeux, ça conduit à ce qu’on appelle un mauvais équilibre de Nash. Qu’est-ce que ça veut dire un équilibre de Nash [3] ? Ça veut dire une situation où aucun des acteurs, ici les acteurs économiques et politiques ou les individus, ont un intérêt suffisant à changer les choses. Une compagnie, même avec de bonnes intentions, doit faire de la publicité sinon elle ne pourra pas compétitionner avec les autres. La seule manière de s’en sortir, c’est comme dans le dilemme du prisonnier, c’est que les prisonniers se parlent, disent « OK, il y a une solution mais il faut qu’on se coordonne. Si on fait chacun de son bord, décider quel logiciel utiliser ou est-ce qu’on fait de la publicité ou pas, on est tous perdants ». C’est pour ça qu’on a des gouvernements, soit dit en passant, c’est pour ça qu’on se donne des normes sociales collectives, qu’on décide que tout le monde va conduire sur le bord droit de la route pour ne pas créer le chaos sur la route. On doit s’entendre sur des règles.
Il y a moyen de sortir de là. J’ai plusieurs amis, collègues, mon frère aussi d’ailleurs, qui travaillent pour des entreprises comme Google et Facebook qui dépendent de la publicité pour vivre. Leur réponse est évidemment « oui, mais ces compagnies donnent un service utile à la société ». Je suis assez d’accord avec eux, mais je pense qu’il pourrait y avoir un meilleur service si l’objectif n’était pas de maximiser le profit mais de rendre un service à tous, qui soit mieux aligné avec l’intérêt collectif. Donc je pense que les services comme Gmail ou les réseaux sociaux devraient être des services publics. On l’a fait pour la télévision, pourquoi ne pourrait-on pas le faire pour l’Internet d’une manière autre ?
Je reviens sur les robots tueurs. D’abord, quand je parle des robots tueurs, je ne parle pas de Terminator ; ça c’est de la science-fiction mes amis ! On n’y est pas du tout et puis on n’y sera peut-être jamais. Le danger perceptible, en tout cas envisageable dans les prochaines décennies, ce n’est pas que des machines deviennent trop intelligentes, décident de nous attaquer ; ça, ce sont les rêves de Frankenstein, on a peur que notre créature se retourne contre nous. Le problème ce sont les humains qui vont utiliser ces machines-là, qui sont assez intelligents mais pas assez pour être sages aussi.
Donc on parle de systèmes d’armes militaires qui peuvent décider, avec très peu d’intervention humaine, de tuer un être humain. Vous allez me dire quand vous tirez avec un fusil, la balle est comme une espèce de système autonome qui décide d’aller tuer quelqu’un. Non ! En fait, il y a très peu d’incertitude entre le moment où vous choisissez de tirer et la conséquence.
Quand on en envoie un robot tueur sur une mission où il va tuer un certain nombre de personnes ciblées, il peut se passer plein de choses et l’être humain qui a décidé d’envoyer dans cette mission le drone tueur ne peut pas anticiper, voir tout le contexte moral, social, psychologique qui va entourer ses décisions. Un être humain, mettons un soldat qui exécute une mission comme ça, pourrait, à la dernière minute, décider de ne pas exécuter l’ordre pour des raisons morales. C’est arrivé par exemple dans le cas du danger nucléaire. Donc il y a un enjeu moral, c’est le point numéro 1, puis il y a un point numéro 2 qui est un enjeu de sécurité globale. Le secrétaire général de l’ONU a dit : « The prospect of machines with the discretion and power to take human lives is morally repugnant… could trigger new arms races ». En fait aujourd’hui on vit, sans s’en rendre compte, dans une période de paix relative parce qu’il y a un équilibre des forces. Mais ça pourrait facilement changer avec des armes qui donneraient des moyens, par exemple à des petits acteurs, d’avoir un très grand impact. Imaginons, par exemple, qu’un pays décide d’éliminer tous les politiciens d’un certain parti d’un autre pays ou tous les chercheurs en intelligence artificielle de l’autre pays. Bon ! Il faut penser à soi en premier. Non !
La plupart des gens sur terre et au Canada aussi, dans des proportions d’à peu près 60 % selon les sondages, pensent qu’on devrait baliser ces armes qu’on appelle les armes létales, autonomes, et avoir un traité qui, en gros, les interdisent. Mais les gouvernements ne bougent pas. Il y a 28 pays dans le monde qui sont derrière l’instauration d’un tel traité, malheureusement le Canada ne fait pas partie de ceux-là, pour l’instant. Mes collègues et moi avons écrit des lettres au gouvernement, je fais aussi partie de groupes de chercheurs en intelligence artificielle qui font des pressions au niveau international. J’avoue que je ne comprends pas bien. Il y a une incompréhension. Par exemple il y a des gens qui pensent que si on interdit ça, ça va nuire au développement de la technologie, de l’intelligence artificielle. C’est du pipi de chat ! On n’attend pas ce qui se passe chez les militaires, de toute façon ils sont en retard sur la technologie, pour faire avancer la science ou pour faire avancer le développement technologique en IA.
Il y a aussi une crainte de certains que si nous les good games, comme si on était parfaits, on ne développait pas des armes basées sur l’intelligence artificielle, des robots tueurs, etc., les autres vont le faire et nous on va être gros-Jean comme devant. Ça aussi c’est un faux argument parce qu’on pourrait très bien, si on avait peur que d’autres pays le fassent, développer des armes défensives basées sur l’intelligence artificielle, mettons des armes qui vont démolir des drones tueurs. Ce n’est pas la même chose que des armes qui vont tuer des êtres humains.
Donc voilà, il y a beaucoup à faire d’un point de vue international et local pour convaincre nos gouvernements. Bien que la population, en général, soit d’accord, ça ne bouge pas encore.
Ce genre de discussion fait partie des enjeux qu’on a besoin de baliser. C’est un peu pour ça que j’ai travaillé avec beaucoup d’autres sur cette déclaration de Montréal [4] pour le développement socialement responsable de l’intelligence artificielle qui s’énonce à travers dix principes, chacun de ces principes associé à des sous-principes plus précis, qui a été faite non seulement avec le feed-back d’universitaires de tous domaines mais aussi le feed-back de la population en général. Il y a eu une tournée dans les bibliothèques où les gens ont eu la possibilité de s’exprimer verbalement et aussi, évidemment, à travers un site web. Il y a un rapport de 300 pages, si ça vous amuse. Lisez juste les principes. Vous pouvez aussi aller sur le site web [5] et dire que vous voulez adhérer à ces principes, ça aussi c’est quelque chose qu’on encourage les gens à faire.
Dans la communauté de l’intelligence artificielle pourquoi est-ce que ces enjeux éthiques, philosophiques, sociaux créent autant de discussions ? C’est très simple. En tout cas tel que moi je le vis, on a envie nous, comme chercheurs ou comme ingénieurs qui développons cette science ou cette technologie, que ce qu’on fait serve pour le bien ; que ce qu’on fait ne soit pas utilisé d’une manière qui nous répugne. C’est nouveau parce que, jusqu’à récemment, l’intelligence artificielle était quelque chose qui était dans les labos, mais, aujourd’hui, c’est dans la société. Ce qui n’est pas nouveau ce sont les valeurs universitaires et humanistes que beaucoup de chercheurs dans ce domaine partagent.
Je vais vous parler un petit peu des expériences que j’ai vécues dans la diffusion de publications scientifiques. Il y a vraiment un très bon article qui résume les choses, en 2017, du Guardian, « Is the staggeringly profitable business of scientific publishing bad for science ? », qui montre à quel point les éditeurs scientifiques font une marge de profit excessive, plus que, mettons, Apple, Google, Amazon, parce que, finalement, ce sont des sangsues.
Il fut un temps où y avait un deal raisonnable entre les scientifiques et les éditeurs parce qu’ils avaient accès à du capital, des machines pour imprimer, etc., ce que les chercheurs n’avaient pas. Aujourd’hui la situation est différente. On peut très bien construire nos propres revues complètement sur le bénévolat, « hoster » un site web d’une revue ce n’est rien, ça ne coûte rien. Tout le travail véritable d’édition est fait par les chercheurs de manière bénévole, c’est juste un système pour extraire de l’argent de la communauté scientifique, argent qui vient principalement des gouvernements. Donc ce sont vraiment des vampires. En plus d’extraire de l’argent, ils nuisent à la science, ils nuisent en ralentissant la diffusion des connaissances, en mettant une barrière entre les utilisateurs et la connaissance et, encore pire que ça, cette barrière s’applique surtout aux plus pauvres qui n’ont pas les moyens d’acheter des abonnements.
En 2001, je faisais partie du comité éditorial de la revue Machine learning de Springer. Le comité éditorial a fait une espèce de révolte en disant « ou bien vous vous rendez l’accès libre ou on s’en va ». Ils n’ont pas rendu l’accès libre, donc on est partis et on a créé, dans la foulée, une revue qui s’appelle JMLR, Journal of Machine Learning Research, qui est un modèle, je pense, pour d’autres disciplines, qui a été suivi, depuis, par de nombreuses autres revues qui sont complètement gérées par des scientifiques à travers des organismes à but non lucratif où le contenu est « hosté » par des universités en général.
La guerre continue. Récemment Springer Nature a créé une nouvelle revue qui s’appelle Nature Machine Intelligence, avec un paywall, etc., qui veut envahir ce marché très lucratif en ce moment de tout ce qui est publications d’intelligence artificielle.
Je fais partie d’un groupe de personnes qui a décidé de combattre ça. Des milliers de chercheurs en apprentissage automatique, intelligence artificielle, ont décidé qu’ils allaient boycotter cette revue, donc ne pas soumettre, ne pas « rewiever », ne pas éditer, etc.
Il y a des négociations en ce moment, par exemple en Europe, plusieurs pays essaient de négocier des deals avec ces gros éditeurs-là pour que l’accès soit au moins ouvert dans les pays en question, en échange de grosses quantités d’argent données à ces compagnies. Je pense que ce n’est pas la bonne solution. La bonne solution c’est créer nos propres revues puis de les envoyer paître !
[Applaudissements]
Dans le domaine dans lequel je suis, on est vraiment chanceux d’avoir mis en place des organismes collégiaux à but non lucratif. Par exemple, toutes les conférences principales dans mon domaine, c’est-à-dire ce qu’on appelle maintenant NeurIPS [Neural Information Processing Systems], l’ICLR [International Conference on Learning Representations] que j’ai cofondée, l’ICML [International Conference on Machine Learning], tout est géré par les chercheurs eux-mêmes à travers des fondations, des organismes à but non lucratif.
Un autre truc intéressant dont je veux parler c’est arXiv [6], sûrement que certains d’entre vous connaissent cet outil-là qui a vraiment changé la donne dans la communauté scientifique, dans mon domaine. On peut déposer des articles. Il y a un filtre, mais il est très léger. Il suffit d’avoir été accepté dans le club des gens qui peuvent déposer et ça a vraiment accéléré la diffusion des connaissances.
On a aussi développé un truc s’appelle OpenReview.net [7] où on peut faire de la révision par les pairs, ouverte. Le processus de « review » se fait de manière visible à tout le monde, on peut quand même garder l’« anonymité » des commentaires.
Voilà. Je conclus là-dessus. Il y a, je pense, une réalisation chez les informaticiens et les chercheurs dans mon domaine que ce qu’on fait sert tout le monde, est souvent financé par la collectivité, qu’on ne doit pas laisser simplement la maximisation du profit driver les développements qui se font, mais on peut avoir notre mot à dire pour changer la société.
Merci beaucoup.
[Applaudissements]
Question : Comment assurer la qualité des auto-publications ?
Yoshua Bengio : En fait, il y a quelque chose qui va toujours rester c’est la réputation des acteurs qui vont donner leur sceau d’approbation à des publications. Ce que fait arXiv, c’est que ça met un tampon : voilà un article qui a été déposé à une certaine date par telle ou telle personne. Ça ne dit pas que la qualité de la science est là, mais ça donne la possibilité à d’autres chercheurs de tout de suite commencer à bâtir là-dessus.
Les revues et les conférences ajoutent un sceau d’approbation qui n’est pas parfait, loin de là, mais on n’a pas besoin de Elsevier pour cela. De toute façon qui est-ce qui fait ça ? Ce sont les chercheurs, le mécanisme c’est l’évaluation par les pairs et cela ne va pas changer, de toute façon.
Question : Nationaliser les GAFAM. Le mandat d’un pays ou de tous ?
Yoshua Bengio : Je pense qu’ultimement beaucoup de ces enjeux sont internationaux, mais, malheureusement, on est dans un état très cassé de la coordination internationale. Je pense qu’il faut que ça commence localement, que certains pays décident de mettre des balises, créent des alternatives ou carrément cassent des monopoles. L’idéal c’est qu’un pays comme les États-Unis prenne les devants, mais on est loin de cette situation aujourd’hui. Je ne sais pas quel est le meilleur chemin pour arriver à cet objectif.
Question : Devrait-on nationaliser ou mieux encadrer ?
Yoshua Bengio : Je pense qu’il faut revoir la définition de ce qu’on appelle aujourd’hui les personnes morales. C’est une grave erreur sociale qu’on a faite, légale, pour que ce soit vraiment des personnes morales, donc qu’elles aient dans leur mission un objectif qui soit aligné avec le bien public, même dans la manière dont on les évalue et qu’on leur fait payer des impôts. Aujourd’hui, si on regarde le système d’investissement puis des lois sur les entreprises, les boards des entreprises, les conseils d’administration sont obligés de travailler pour la maximisation du profit des actionnaires. Même s’ils voulaient travailler pour le bien commun, ils ne pourraient pas ! C’est grave ! Je pense qu’il y a effectivement des changements légaux à notre système de définition de l’entreprise puis des marchés auxquels on doit réfléchir et être ouverts à ces possibilités-là.
Question : Les armes en ce moment sont humaines et subissent des dommages collatéraux…
Yoshua Bengio : C’est un fait qu’on pourrait avoir une guerre beaucoup plus ciblée, sauf que l’impact politique et destructeur pourrait être beaucoup plus grave parce que, dans le fond, au lieu de tuer de manière indiscriminée, on va pouvoir tuer de manière à maximiser l’impact politique, militaire, etc. Donc, en termes de la stabilité militaire, de l’équilibre sur la planète, c’est jouer avec le feu. Si on veut réduire les risques pour nos soldats, je pense que le mieux c’est d’abord de réduire les risques de guerre.
Si on avait un ordre international plus fort, avec plus de muscles, on pourrait. C’est aberrant qu’aujourd’hui encore on ne se soit pas rendu à une situation où la guerre soit carrément interdite. C’est parce qu’il n’y a pas un mécanisme supranational assez fort pour imposer la paix, finalement. Je ne dis pas que c’est facile de le faire, mais je pense qu’il faut travailler plus dans ce sens-là que d’apporter un risque énorme à tout le monde avec ces nouvelles armes.
Question : Qui prendra les devants pour la réglementation militaire ?
Yoshua Bengio : Il y a déjà un paquet de pays qui veulent le faire. Il y en a qui n’osent pas trop s’exprimer, comme le Canada, parce qu’ils veulent rester amis avec les États-Unis, mais c’est dans l’intérêt tout le monde d’arriver à une entente. Je suis assez optimiste : s’il y a assez de gens, dans la population, qui réalisent ce danger-là, les gouvernements, au moins dans les pays démocratiques, vont s’asseoir autour de la table.
Question : Le monde de l’enseignement est-il menacé par l’IA ?
Yoshua Bengio : Si on veut de l’enseignement de bonne qualité on va toujours avoir besoin d’humains dans la boucle. Ces humains peuvent se faire aider et démultiplier leurs capacités à transmettre des connaissances avec la technologie, mais pour des raisons, même psychologiques, on a besoin d’un guide humain en face de soi. Un enfant va être motivé par l’enseignant. Ce n’est pas seulement le transfert de connaissances, c’est la relation entre les personnes ; c’est inscrit dans nos gènes, on a besoin de ça.
En fait, j’envisage le contraire de ce que vous dites, c’est-à-dire qu’au fur et à mesure que les jobs plus mécaniques, plus faciles à automatiser vont être faits par des robots, si on organise bien la société qu’est-ce qui vont rester ?, ce sont les jobs sont difficiles à mécaniser et à automatiser, ce sont les jobs plus relationnels, la compréhension de l’humain et l’empathie. Même si un robot pouvait avoir de l’empathie, le fait que ce n’est pas un être humain, ça ne marche pas de la même manière.
Je pense qu’on pourrait avoir des classes avec cinq élèves par classe plutôt que trente. Ce n’est pas une diminution du nombre enseignants, c’est une augmentation du nombre d’enseignants vers lequel on pourrait aller.
[Applaudissements]