Delphine Sabattier : Bonjour Aurélie Jean.
Aurélie Jean : Bonjour.
Delphine Sabattier : Merci beaucoup d’être en plateau dans Smart Tech. Je suis très heureuse parce que vous n’êtes pas forcément toujours sur Paris, vous partagez votre vie entre les États-Unis et la France. Est-ce compliqué d’avoir ces deux vies ?
Aurélie Jean : Non, pas du tout pour moi parce que j’ai des papys des deux côtés de l’Atlantique et c’est vrai que j’ai une vie des deux côtés, je fais ça depuis quatre ans.
Delphine Sabattier : Vous gérez quand même deux entreprises.
Aurélie Jean : Je gère deux entreprises, mais on travaille un peu partout. J’ai une entreprise de conseil et développement, In Silico Veritas, où on va développer des algorithmes, des stratégies algorithmiques pour des clients privés américains, canadiens, européens. J’ai une deuxième entreprise que j’ai lancée cette année, qui s’appelle DPEEX, avec des collaborateurs israéliens et français. On a créé une technologie d’IA pour aller détecter le signal faible du cancer du sein, ce qui veut dire qu’on va détecter le cancer du sein sur une mammographie plus de deux ans avant qu’on voie la tumeur sur la mammographie
Delphine Sabattier : Je disais dans le sommaire que vous étiez une célébrité quand on parle d’intelligence artificielle, vous faites partie de ces noms qui reviennent régulièrement en France. Je me demande si c’est nécessaire de vous présenter. On va quand même faire rapidement votre parcours. Vous êtes docteure en sciences des matériaux et mécanique numérique à Mines ParisTech à Paris Tech. Vous avez poursuivi votre recherche et votre formation dans la modélisation numérique appliquée à la médecine aux États-Unis, justement, et on vous retrouve notamment au sein de l’illustre MIT. Vous êtes développeuse, entrepreneuse, auteure, mais aussi critique régulière de l’actualité technologique. Je m’interrogeais sur ce lien que vous avez tissé entre la recherche et l’actualité, ce qui n’est pas si courant aujourd’hui en France.
Aurélie Jean : Comme vous l’avez très bien dit, qui n’est pas si courant en France, qui est plus courant aux États-Unis. En fait aux États-Unis les chercheurs sont très facilement des entrepreneurs, ont facilement des blogs, des chroniques, écrivent auprès du grand public, auprès des enfants, de tous les âges. Comment je gère ? En fait tout est complémentaire. C‘est-à-dire que lorsque j’écris, tout ce que j’écris m’aide à suivre l’actualité de manière précise et à avoir une grille de lecture pour tout le monde, mais aussi pour moi-même, justement pour en parler après et prendre des exemples pour mes cours ou lorsque je parle à des clients.
Delphine Sabattier : Ce qui est intéressant c’est que vous faites vraiment un travail de vulgarisation sur ces sujets algorithmiques. On parle de plus en plus de la révolution des algorithmes, c’est d’ailleurs un mot qui est employé couramment aujourd’hui, qui est connu de tout le grand public, mais qu’on ne définit pas forcément très bien. Dans votre livre vous faites cet exercice de nous expliquer la différence entre intelligence artificielle et algorithme. Pouvez-vous nous le faire aussi en plateau ?
Aurélie Jean : Bien sûr. Comme vous l’avez vu dans le livre je parle peu d’intelligence artificielle, j’utilise peu ce mot parce qu’il est très controversé, qu’il fait peur et qu’il nous éloigne d’une vérité technique, d’une réalité technique. Grosso modo, la partie qui m’intéresse en IA, en intelligence artificielle, c’est toute la partie soft, c‘est-à-dire toute la partie software, logiciel, intelligence analytique, informatique, qui va être en fait liée aux algorithmes. Ce sont des algorithmes qui vont être créés sur des données et ensuite tourner sur des données, sur un ordinateur, dans le but de faire une simulation pour comprendre un phénomène, répondre à une question, résoudre un problème.
Delphine Sabattier : Ce sont des recettes mathématiques, finalement, donc plutôt un sujet très technique, d’expertise. Je disais que c’est vraiment rentré dans le langage courant parce qu’on s’inquiète de cette société qui devient une société algorithmique.
Aurélie Jean : Oui, absolument. Comme vous l’avez très bien dit, c’est un mot qui est utilisé dans le langage commun, mais ça ne veut pas dire qu’il est forcément maîtrisé. C’est quand même important de bien différencier l’usage d’un mot et sa compréhension. Avec tous les scandales et tout ce qu’on voit dans les médias, que ce soit à travers les réseaux sociaux, à travers des fuites de données entre les États et autre, les gens, en général voient l’algorithmique, les algorithmes, sous un prisme très négatif et n’arrivent pas, en fait, à démêler le vrai du faux par absence de grille de lecture et d’éléments de compréhension.
Delphine Sabattier : Vous dites qu’il faut dédiaboliser. Si je prends le titre de votre dernier ouvrage, Les algorithmes font-ils la loi ?, qui est paru à l’Observatoire, c’est quand même un titre assez provocateur, d’ailleurs vous vous en expliquez en conclusion du livre. Vous commencez aussi l’ouvrage par l’histoire de Minority Report, plutôt visionnaire, vous abordez aussi les scandales qui nous interrogent. Donc vous êtes d’accord pour dire qu’aujourd’hui cet ensemble algorithmique, ce qu’on appelle l’intelligence artificielle, c’est quelque chose d’inquiétant ?
Aurélie Jean : Je n’irais pas jusqu’à dire ça. C’est quelque chose dont on doit s’occuper, s’y intéresser de façon à pouvoir bénéficier des avantages et des opportunités en écartant les menaces, on va dire ça comme ça. Je le dis aussi beaucoup dans le livre, parce que mon livre est vraiment sur le sujet de la régulation, de comment on doit encadrer cette discipline de façon à protéger l’individu tout en encourageant l’innovation, mais cela doit se faire avec la compréhension de l’algorithmique et de tout ce qui entoure les algorithmes, de façon à bien les développer, les tester aussi, je parle beaucoup des tests, et les utiliser. Disons que l’algorithmique est un outil, les algorithmes sont des outils, comme n’importe quel outil ils peuvent faire le bien, le mal, et surtout sortir de cette vision manichéenne de cette science qui serait toute mauvaise ou toute bonne. C’est ça qui est important.
Delphine Sabattier : D’ailleurs sur la régulation vous dites « plutôt que de réguler, on doit les dompter ». Quelle est la différence ?
Aurélie Jean : En fait je dis qu’on ne peut pas réguler un algorithme techniquement parlant parce qu’on ne peut pas l’évaluer entièrement. Cela étant dit, il faut les dompter à travers une régulation des pratiques algorithmiques. Ça veut dire quoi ? Les pratiques incluent comment on va penser le problème à résoudre, la formulation même du problème, j’en parle au début du livre ; ça va être la manière dont on développe l’algorithme, comment on va choisir le jeu de données, comment on va tester la représentativité statistique des données, etc. ; et puis la manière dont on va le développer et dont on va le tester, le test est fondamental, c’est-à-dire avant l’utilisation et aussi une fois que l’algorithme est utilisé parfois par des dizaines de millions d’individus. Et ensuite regarder, encore une fois, comment les gens l’utilisent pour justement mettre en évidence des biais d’utilisation, des incohérences, des erreurs. Si vous faites tout ça correctement, c’est ce que j’appelle les bonnes pratiques de développement algorithmique, c’est ce que je fais. En fait j’ai écrit ce livre parce que c’est une question que je me suis posée moi-même. En l’absence de régulation étatique j’ai dû m’autoréguler. Je crois en l’autorégulation, sauf que de très gros acteurs ne s’autorégulent pas correctement, pour la simple et bonne qu’il y a des enjeux économiques tellement énormes et puissants qu’on est, en fait, au bout d’un chemin aujourd’hui. Donc on est obligé de mettre en place de régulations des États, c’est d’ailleurs en cours de discussion au sein de l’Europe.
Delphine Sabattier : Je ne vais pas citer vraiment de manière tout à fait précise les phrases qu’il y a dans votre livre. Il y en a une qui m’a intriguée, vous dites qu’on ne peut pas auditer complètement les algorithmes, mais on peut expliquer leurs résultats. Comment ?
Aurélie Jean : C’est la différence entre la logique de fonctionnement entière de l’algorithme et ce qu’on appelle, dans mon domaine, l’explicabilité des algorithmes. Au début du livre, dans le premier chapitre, je fais une introduction où je différencie les algorithmes explicites des algorithmes implicites. C’est un terme que j’ai utilisé il y a quatre/cinq ans parce que je n’arrivais pas à expliquer autrement.
Les algorithmes explicites ce sont tous les algorithmes historiques qui sont explicités à la main, définis à la main par les concepteurs que nous sommes. Ça va être par des équations mathématiques, ça va être par des arbres décisionnels, « si telle condition est satisfaite alors j’applique telle action », etc. Là nous sommes capables de définir quasiment entièrement la logique puisqu’en fait c’est nous qui la définissons.
Ensuite vous avez les algorithmes implicites, d’apprentissage machine de machine learning si on utilise le mot anglais. Ces algorithmes vont être entraînés sur des jeux de données représentant les scénarios sur lesquels l’algorithme va répondre à une question, par exemple y a-t-il un chien sur cette photo ? Je donne cet exemple dans le livre. On va donner des photos contenant des chiens, ou pas, mais aussi des renards, des chats, des loups, etc. L’idée de ces algorithmes c’est qu’en fonction du type d’algorithme on va vers des niveaux d’abstraction qui sont de plus en plus forts. Les gens utilisent le terme de boîte noire.
Delphine Sabattier : En fait on ne sait pas comment le logiciel va réussir à trouver la bonne réponse.
Aurélie Jean : C’est-à-dire que l’algorithme va créer une logique de manière implicite qu’on ne peut pas extraire entièrement explicitement. Cela étant dit, on a des méthodes de calcul qui s’appellent les méthodes de calcul d’explicabilité qui consistent à appliquer des calculs statistiques qui existent depuis très longtemps. On va les appliquer sur le jeu de données, sur les données qui vont être utilisées pour construire l’algorithme, on va éventuellement les utiliser pendant le calcul d’entraînement, d’apprentissage, et on va les appliquer une fois que l’algorithme a été entraîné pour comprendre la logique de fonctionnement. C’est aujourd’hui quelque chose qui doit être imposé aux acteurs, en tout cas leur imposer d’appliquer ces calculs d’explicabilité pour avoir une connaissance plus claire du fonctionnement et, du coup, anticiper les erreurs, anticiper les nombreux scandales, les discriminations.
Delphine Sabattier : Essayer de comprendre la logique de l’algorithme qui s’est mise en place. Au moment où Frances Haugen [1] a dévoilé un certain nombre de documents internes de Facebook, on s’est dit « patatras – d’ailleurs ça fait écho au titre de votre livre – les algorithmes sont devenus incontrôlables, y compris par les géants eux-mêmes ». Si je prends quelques phrases, il y a quand même des analystes qui nous disent qu’ils ne savent plus expliquer pourquoi certains scores de posts sur Facebook dépassent un milliard. Là on est vraiment dans un problème d’explicabilité ?
Aurélie Jean : C’est important : les éléments de langage qui ont été utilisés par les médias pour expliquer ces phénomènes ont complètement, pour le coup, surestimé le phénomène.
Un algorithme n’échappe pas aux concepteurs. Ce qui se passe c’est qu’il peut arriver que vous ayez un résultat que vous ne comprenez pas, ça m’arrive aussi, c’est normal. Qu’est-ce que vous faites dans ces cas-là ? Vous dézoomez, comme on dit. On fait un pas en arrière, on va prendre l’algorithme, on va le tester massivement, on va essayer de comprendre pourquoi ce résultat apparaît. Et éventuellement si ce résultat mène à une conséquence grave, préjudiciable, sur un individu ou un ensemble d’individus, et qu’on ne comprend toujours pas la logique, on peut arriver à désactiver cette composante algorithmique, on peut arriver à désactiver une condition. C’est ce qu’a fait Google lorsqu’un algorithme d’identification sur image reconnaissait les personnes à peau noire comme des gorilles, il a désactivé ce label. Ce que je veux dire, c’est qu’il faut absolument dédramatiser.
Delphine Sabattier : Est-ce qu’on n’est pas face à un problème de surcouche appliquée avec des critères qui se sont rajoutés au fil des ans et on ne peut plus démêler la pelote finalement ?
Aurélie Jean : C’est un autre sujet. Encore une fois ce n’est pas une fatalité, c’est ce que je veux dire. Oui, en effet, quand on travaille dans un grand groupe, on ne s’imagine pas à quel point on va s’intéresser à une petite partie d’un algorithme qui va interagir avec un ensemble d’autres composantes développées par d’autres équipes de l’entreprise. En effet, au fur et à mesure du temps, on peut avoir une opacité qui s’agrandit et qu’on n’aurait pas testée au cours du temps. Rien n’est une fatalité. Il faut toujours aller creuser. Encore une fois, si ça mène vers une réponse préjudiciable, on peut aussi décider de désactiver cette composante.
Delphine Sabattier : Sachant que derrière il y a des enjeux économiques en l’occurrence.
Aurélie Jean : C’est plutôt de ça dont il faut parler : quels sont les enjeux économiques qui font que ces entreprises, en tout cas certains acteurs, ne vont tester correctement leurs outils ? C’est ça la vraie question.
Delphine Sabattier : Et c’est là où on a donc besoin de faire intervenir une régulation.
Aurélie Jean : Oui, exactement, une régulation comme on l’a fait pour les données à caractère personnel qui a été une révolution, on en parle peu, le RGPD [2], le texte européen qui a d’ailleurs influencé le texte californien, le CCPA, California Consumer Privacy Act, qui a influencé d’autres États aux États-Unis, qui deviendra un jour un texte fédéral donc pour tout le pays. Ce sont des textes révolutionnaires qui permettent aux acteurs de prendre leurs responsabilités et, encore une fois, c’est important de le dire, de protéger l’individu tout en encourageant l’innovation. Il ne faut pas être conservateur, il faut arriver à s’ouvrir.
Delphine Sabattier : Vous dites que la transparence pourrait freiner l’innovation. Expliquons ce qu’on met derrière la transparence des algorithmes.
Aurélie Jean : Ça dépend de ce dont on parle. Quand les gens parlent de transparence, j’en entends souvent me dire « c’est facile pour un outil comme Facebook, il suffit de forcer les acteurs à publier leurs algorithmes, à donner tout ce qu’ils développent ». Je dis non, parce que si vous faites ça pour des acteurs comme ça, il va falloir le faire pour tous les acteurs, même moi. La transparence, premièrement, ne va pas résoudre le problème parce que vous allez obtenir l’algorithme une fois entraîné, donc vous allez pouvoir éventuellement appliquer des calculs d’explicabilité une fois entraînés donc vous allez rater tous les autres calculs même appliqués sur le jeu de données.
Et puis, encore une fois, pourquoi allez-vous freiner l’innovation ? Si à moi, Aurélie Jean, l’Europe impose de publier l’outil qu’on a développé avec ma deuxième entreprise, je ne vais le déployer en Europe, pas tout de suite. Pourquoi ? Parce que ça fait partie de ma propriété intellectuelle. Je vais même aller plus loin, je pense que la transparence des algorithmes strictement favoriserait les géants puisque les géants pourraient, en fait, profiter des développements algorithmiques d’autres acteurs, bien plus petits, qui ne feraient pas le poids face à eux une fois la transparence établie.
Delphine Sabattier : Il n’y a pas d’économie du partage là-dessus ?
Aurélie Jean : Il y a des choses, mais pas sur tout. C’est ça en fait, les gens veulent absolument essayer de faire de l’algorithmique une discipline à l’opposé de toutes les autres industries. Vous n’allez pas demander par exemple à un artisan ou à quelqu’un qui va faire un parfum assez fantastique, des produits incroyables, peu importe, de dévoiler toutes ses propriétés intellectuelles, ça n’a pas de sens, ça va freiner l’innovation.
Delphine Sabattier : Ça pose la question du contrôle. Comment imposer une explicabilité si on ne peut pas la contrôler ?
Aurélie Jean : Non, justement. Vous pouvez contrôler le fait que les acteurs appliquent leurs bonnes méthodes de calcul, leurs bonnes méthodes de tests et appliquent les calculs d’explicabilité. Une fois qu’il y a un scandale, si scandale il y a et il y en aura, à ce moment-là on va vers l’acteur. On peut faire potentiellement un audit externe pour voir si, en effet, il a une bonne gouvernance algorithmique. Si ce n’est pas le cas, il y a une grosse amende, à l’instar de celles définies par le RGPD qui vont quand même jusqu’à 3 % du chiffre d’affaires, c’est assez conséquent, avec l’obligation d’être conforme aux bonnes pratiques de développement, sans les définir strictement parce que ça va évoluer, et donner un certain temps pour être conforme. Si vous faites ça, je peux vous assurer que ça va déjà transformer l’écosystème, et c’est ce qu’il faut faire.
Delphine Sabattier : Je sais que vous êtes sensible aux questions de biais algorithmiques, est-ce que ça suffirait aussi à éviter un maximum de biais au moment du développement ?
Aurélie Jean : C’est une très bonne question. Si vous appliquez les bonnes méthodes de test sur la donnée, sur l’algorithme lui-même, les bonnes pratiques de développement, de déploiement, d’utilisation et aussi de communication auprès des utilisateurs pour qu’ils puissent bien utiliser l’algorithme sans biais, je peux vous assurer que vous allez diminuer de manière significative le risque de biais. Je ne peux pas vous dire qu’il n’y en aura pas. Moi-même je ne peux pas vous affirmer que dans ce que je développe il n’y a aucun biais, je ne peux pas dire ça, ce n’est pas possible. Par contre, je peux vous dire que j’ai tout fait pour minimiser le risque et c’est ça qui est important.
Delphine Sabattier : Il y a une autre arme face aux GAFAM, vous nous dites que finalement nous sommes le talon d’Achille de ces géants.
Aurélie Jean : C’est quelque chose qu’on a tendance à oublier ; nous sommes le talon d’Achille de ces géants. C’est pour ça que c’est important que nous tous comprenions comment ces outils fonctionnent de façon à décider quels outils on va choisir au quotidien, comment les utiliser. Je le dis tout le temps, nous sommes le talon d’Achille, c’est nous qui décidons d’utiliser ou pas ces outils et il faut garder ça à l’esprit. Certains vont dire « oui, mais on ne peut pas se priver de tel outil aujourd’hui ». Pour certains oui, et encore ! Il y a vraiment des manières de travailler, il y a aussi différents modèles économiques, pour certaines plateformes on peut même payer tous les mois pour avoir un usage professionnel d’un outil, c’est vraiment du cas par cas. Encore une fois, la régulation par l’État permettrait d’encadrer et, en fait, de dompter ces algorithmes tout en profitant des opportunités qu’ils offrent parce que, sans les algorithmes, aujourd’hui on reviendrait véritablement en arrière sur pas mal de domaines, que ce soit la médecine, l’éducation, la finance, beaucoup d’autres choses.
Delphine Sabattier : On va justement parler de la médecine parce que votre deuxième startup est une deep-tech qui est spécialisée dans le domaine de la médecine, c’est d’ailleurs votre spécialité, pour faire de la médecine de précision dans le domaine du cancer du sein. Aujourd’hui, sans les algorithmes, on n’arriverait pas à progresser en recherche médicale ?
Aurélie Jean : Je pense qu’on pourrait progresser parce qu’on progresse avec plein de méthodes différentes, l’algorithmique étant, en fait, une méthode dans la médecine. Les gens ont tendance à ne pas se rendre compte que les algorithmes agissent dans la médecine depuis très longtemps déjà. Par exemple, il y a déjà plus d’une décennie, les algorithmes étaient utilisés et sont utilisés sur des radiographies pour aller faire des mesures de densité osseuse, pour aller vérifier de l’ostéoporose ou encore pour aller voir des tumeurs ou pour aller faire des analyses sur des échantillons de sang, etc. En fait l’algorithmique est déjà pratiquée au stade clinique dans les hôpitaux ou sur vous-même lorsque vous allez faire un examen, donc ça existe déjà.
L’algorithmique, comme vous l’avez dit, en médecine de précision. Il y a, en médecine, deux domaines qui vont, je pense, être complètement révolutionnaires dans la décennie à venir : la médecine de précision, c’est-à-dire être de plus en plus précis dans le diagnostic, avoir un diagnostic de plus en plus tôt et avoir aussi des traitements personnalisés, personnaliser la médecine, ce qui permet aussi d’être plus efficace, avoir des traitements plus courts et avoir ce qu’on appelle des traitements plus ciblés.
Delphine Sabattier : Pas d’inquiétude du côté de ce que ça peut avoir comme impact justement sur les données personnelles de santé ? On a aussi beaucoup d’interrogations là-dessus. Comment faire pour protéger le secret médical, notre vie la plus intime finalement, la santé ?
Aurélie Jean : Bien sûr. Le secret médical existe, il existera. C’est une évidence, c’est inviolable. Maintenant, concernant les données à caractère personnel médicales, il faut savoir que le texte européen aujourd’hui définit les données de santé comme les données les plus sensibles. Ce qui veut dire que ce sont les données avec lesquelles on peut faire le moins possible de choses. Ce n’est pas impossible, mais c’est très encadré et tant mieux. Après il y a toutes les questions de où sont sauvées ces données ? Est-ce qu’elles ont sauvées sur des systèmes qui sont suffisamment sécurisés pour éviter tout risque de piratage et aussi les risques de fuite ? Ce sont des risques techniques qui arrivent. Ce sont de choses dont il faut prendre conscience sur ce genre de données. Encore une fois, l’algorithmique, les algorithmes ont besoin de data donc on va aller dans ce sens, pas forcément des data personnalisées, on a parfois besoin de data anonymisées. Ce sont des choses qui sont encadrées, il va falloir faire attention à où elles sont stockées et surtout tout le système de sécurité autour pour éviter tous les risques de piratage et de fuites.
Delphine Sabattier : On va entamer vraiment la toute dernière partie de cette Grande interview avec le format express. Je vous lance sur un mot, vous répondez aussi brièvement que possible, Aurélie Jean. On va commencer par vos rêves.
Aurélie Jean : Faire que la technologie qu’on vient de développer puisse être utilisée par toutes les femmes dans le monde.
Delphine Sabattier : Les femmes dans la tech et dans la data science, là c’est encore plus rare. Vous servez de rôle modèle.
Aurélie Jean : C’est vrai. Il y a du travail, mais on avance.
Delphine Sabattier : Et vos peurs, Aurélie Jean ?
Aurélie Jean : C’est que les gens tombent dans un point de non-retour où, en fait, ils ne font plus confiance aux scientifiques.
Delphine Sabattier : Avez-vous une interrogation en particulier ?
Aurélie Jean : Disons que la crise du Covid m’a fait prendre conscience à quel point – et pas qu’en France, c’est partout – les gens avaient un manque de culture scientifique, je m’en doutais avant mais pas à ce point-là, qui crée une défiance, pas seulement une méfiance, en fait une défiance envers les scientifiques et la science. Je pense que c’est quelque chose sur lequel on doit travailler sur les tout petits, sur les plus grands, justement pour éclairer les citoyens qui sont les meilleurs messagers de nos messages de confiance sur la science, parce qu’on se parle les uns les autres, parce qu’on va parler à ses enfants, on va parler à ses grands-parents. On va dire que c’est ça.
Delphine Sabattier : Avez-vous une idée fixe ?
Aurélie Jean : Non, pas forcément. Je ne crois pas. J’ai plein d’idées dans la tête, plein de choses à faire encore, plein de choses à faire progresser, mais pas forcément d’idée fixe.
Delphine Sabattier : On n’a pas eu le temps vraiment de l’aborder, mais pour vous est-ce que le métavers pourrait être cette prochaine révolution de l’Internet ?
Aurélie Jean : Le métavers [3], ce n’est pas nouveau. Typiquement beaucoup ont associé maintenant le métavers à Facebook, à Meta, anciennement Facebook parce qu’ils en ont parlé. En fait le métavers existe depuis très longtemps, c’est la contraction de « méta » et « univers », en anglais meta universe qui est, en fait, un univers numérisé virtuel, parallèle, qui vient du monde du jeu vidéo, qui existe dans le jeu vidéo, dans lequel on peut créer une vie parallèle. On a aussi ça dans le milieu éducatif de la formation, par exemple les simulateurs de vol pour les pilotes, et on a ça dans le domaine de santé pour aller traiter la douleur.
Delphine Sabattier : Pour l’instant ce n’est pas encore concrètement un monde dans lequel on peut vivre entièrement.
Aurélie Jean : Pas immersif.
Delphine Sabattier : Est-ce que, selon vous, on va vers ça ? Très rapidement parce qu’on arrive à la toute fin de notre interview.
Aurélie Jean : C’est compliqué d’expliquer ça en deux secondes. Il va y avoir des évolutions, on va avoir des choses. Maintenant la vraie question, et c’est lié à Facebook, c’est : qu’est-ce que Facebook va faire de toutes les données comportementales qu’il va collecter sur nos interactions dans ce monde parallèle ? C’est la question qu’il faut se poser.
Delphine Sabattier : Absolument et dès maintenant. Merci beaucoup Aurélie Jean, docteure en sciences, entrepreneure.
Aurélie Jean : Merci.
Delphine Sabattier : Merci à tous de nous avoir suivis. À suivre, je vous l’ai dit, c’est Smart Space et moi je vous retrouve dès lundi pour de nouvelles discussions sur la tech.