Claire : Bonjour à tous. Désolée de vous interrompre, c’est un peu brutal.
On est super contents de vous retrouver pour cette nouvelle conférence parce que ça fait trois mois qu’on n’a pas eu d’invité. On est super contents de recevoir aujourd’hui Adrien Parrot qui, en plus d’être médecin anesthésiste et ingénieur, est aussi un alumni de 42. Il a été scolarisé – si on peut dire scolarisé pour l’école 42 [1] – ici entre 2016 et 2019. Il est médecin anesthésiste et il travaille aujourd’hui à Saint-Malo en tant qu’anesthésiste. En 2019 il a aussi fondé l’association InterHop [2] qui regroupe des professionnels de santé, des avocats, des ingénieurs et qui est là, finalement, pour défendre les patients et leurs données contre des entreprises comme le Health Data Hub qui est une entreprise de centralisation des données de santé par l’État français ou encore contre le partenariat entre Doctolib et l’État français, donc, en fait, tout ce qui va toucher une centralisation de nos données de santé.
Il a une petite présentation où il va peut-être revenir un petit peu sur son parcours et sur les enjeux qu’il défend.
Je te laisse la parole.
Adrien Parrot : Rapidement l’intelligence artificielle. À la suite de 42, je suis allé à l’entrepôt des données de santé des hôpitaux de Paris qui est un lieu où tous les systèmes d’information de l’AP-HP, les hôpitaux de Paris, sont récupérés pour pouvoir faire de l’intelligence artificielle, qui est simplement une classe d’algorithmes qui simulent l’intelligence humaine.
Qu’est-ce que l’intelligence humaine ?, c’est quelque chose qui est très vaste.
L’intelligence artificielle
L’intelligence artificielle a évolué au cours des 70 dernières années avec le deep learning et les réseaux de neurones, par exemple avec Yann Le Cun [3], l’imagerie, le NLP [NaturalLanguage Processing], le traitement du texte ; ce sont des modalités de l’intelligence artificielle qui sont relativement récentes.
À côté il y a le machine learning et les systèmes experts. Une forêt d’arbres qui décrit, par exemple, un parcours de connaissances, c’est aussi de l’intelligence artificielle et c’est quelque chose qui date des années 50, pour le coup on a du recul sur ça.
En santé, la démarche scientifique c’est normalement de se poser une question, d’émettre une hypothèse et, à la suite de ça, de recueillir des données pour tester cette hypothèse. Ça s’appelle de la déduction : on émet une hypothèse, quelque chose de général, et on tente de valider l’hypothèse dans un contexte particulier avec des données.
Le problème de l’intelligence artificielle c’est qu’elle renverse la démarche et, en tant qu’ingénieur, ça nous semble évident, on a l’impression que les données que l’on traite sont objectives et que, des données, on peut partir sur le général : à partir des données qu’on récolte, qu’il y a par exemple dans l’entrepôt de données de santé, on peut émettre des théories générales sur la physiologie de telle on telle maladie, alors que finalement on recueille juste des données en rapport avec cette maladie, mais qui n’émettent pas de loi générale médicale ou scientifique, en général justement. Ça s’appelle l’induction. Induction rime avec corrélation. La problématique de l’induction : on fait des liens entre des variables, entre des données, et on peut arriver à des conclusions fallacieuses, comme une corrélation entre les divorces dans un département aux États-Unis et la consommation de beurre ou de margarine, ce qui, évidemment, ne veut pas dire grand-chose. On ne peut pas émettre une théorie scientifique à partir de ça, on s’en rend très vite compte.
Les dérives de ça c’est aussi sur l’intelligence artificielle. On se dit que plus on va recueillir de données, meilleure va être l’intelligence artificielle, meilleure va être la prédiction de telle ou telle maladie ; plus on va montrer de photos de chats à une IA, meilleure sera l’IA pour reconnaître des chats versus des chiens. Là c’est l’IA de Microsoft qui disait : « Plus vous chattez avec Tay, plus elle est intelligente. » Elle a été brutalement arrêtée, parce qu’elle commençait à dire que Hitler était quelqu’un de bien. En fait, elle apprend juste des données et si on lui balance de la merde, elle va écrire ce genre de chose.
Code is Law
On arrive à cette théorie qui a été écrite par monsieur Lessig [4], un chercheur américain, sur la puissance du code, donc que maintenant « le code fait la loi ». Ça fait écho, par exemple, à Twitter qui a brutalement supprimé le compte de Donald Trump, qui avait quand même 88 millions d’abonnés. En même temps, on peut se dire que c’est finalement légitime de supprimer le compte de quelqu’un qui fait n’importe quoi, mais, en même temps, qui peut décider ça ? Selon quel processus ? Normalement il y a une justice, des juges, des avocats, des contradicteurs. Là c’est de façon unilatérale : Twitter décide de supprimer le compte de Donald Trump, pour le bien ou pas, en tout cas il n’y a pas eu de jugement. Finalement ça se renverse presque.
Là ce sont les conditions générales de Lime, ce sont des trottinettes électroniques, et, dans les conditions générales de Lime, les données peuvent être utilisées comme le site veut. Vous avez donc toutes vos données de transport qui sont réutilisées librement par l’entreprise.
En fait les choses se renversent presque. Alors que le code faisait la loi, dans une certaine mesure aussi la loi est écrite dans le code et ça fait écho à plusieurs textes, je voulais vous en citer.
Le RGPD, le Règlement européen sur la protection des données [5], qui impose toute une série de mesures pour protéger les données des Européens, s’impose donc aussi aux codeurs. Le codeur a une influence sur la vie, a un rôle politique dans la cité : en codant il va faire des cut-off, il va y avoir des variables, des choix que le développeur fait et, finalement, les textes européens s’imposent aussi au codeur en retour. Il y a, comme ça, une sorte de dualité.
Ce règlement européen s’oppose, à mon sens, à plusieurs textes étasuniens, notamment le FISA, le Foreign Intelligence Surveillance Act [6] et d’autres textes, le CLOUD Act [7], le PATRIOT Act [8], plein de textes américains qui, en fait, ont la problématique d’avoir une portée extraterritoriale, c’est-à-dire que les textes américains s’appliquent aussi en Europe. Cette problématique est illustrée par ce jugement de la Cour de justice de l’Union européenne, c’est la plus haute cour de justice pour les Européens, qui dit que « la législation américaine permet aux autorités publiques américaines d’avoir accès sans limitation aux données personnelles des Européens ». À cause du FISA, les services de renseignement mais pas que, la NSA, le FBI entre autres, ont accès à toutes les données des Européens, même si ces données sont hébergées sur des serveurs européens, en fait la condition c’est du moment que les boîtes sont de juridiction américaine.
Ça veut dire qu’à partir du moment où vous mettez des données sur un serveur américain – ça peut être aussi chinois, on est plus souvent à l’Ouest qu’à l’Est en Europe –, donc à partir du moment où vous mettez des données chez Google, Microsoft ou Amazon, vos données peuvent être utilisées sans limitation par les juridictions américaines.
Les services de renseignement français par exemple, on en reparlera peut-être juste après avec la DGSE, peuvent aussi accéder aux données de certains serveurs, évidemment qu’ils ont des accès, d’ailleurs peut-être qu’ils me contrediront. Ce qui différencie beaucoup c’est le « sans limitation ». En fait il n’y a pas de garde-fou aux États-Unis et c’est pour ça que la Cour de justice de l’Union européenne limite ça.
Tout ça fait écho au rôle du codeur, au rôle de l’ingénieur, au rôle du technicien qui, derrière, sait que les données sont chez Microsoft parce qu’il déploie des services sur AWS [Amazon Web Services] d’Amazon par exemple, donc au rôle, par exemple, de 42.
Data = Power
La problématique du code est actuelle, mais ce sont des combats qui ont commencé dans les années 90/2000. Actuellement on a rajouté une autre couche qui est la problématique autour des données.
Ça c’est un environnement qui est quand même un peu chargé, tous les patients ne sont pas comme ça, d’anesthésie/réanimation.
Si on résume – et c’est un peu ça qui m’a motivé à faire 42 – il y a des données très variées, des données de scope, qui sont des signaux en continu, du respirateur, donc aussi des signaux mais pas que. On peut alimenter des patients, donc combien, comment, à quel débit ; on a des tensions artérielles, des perfusions, plus tout le dossier médical avec les antécédents, les allergies, tout le dossier. C’est donc une quantité de données très importante, et la particularité de la réanimation c’est que ce sont même des signaux en continu, haute-fréquence.
La numérisation du monde, évidemment ce n’est pas que la réanimation, c’est le monde entier.
Pour résumer un peu, ce n’est pas moi qui l’ai inventé, « Si c’est gratuit c’est vous le produit », il y a clairement de ça. C’est parce que vos données, les données sont réutilisées, que Google fournit des services super qui sont gratuits.
Celui qui code a le pouvoir, mais, en plus, celui qui stocke les données a le pouvoir. Donc où mettez-vous vos données, chez qui, selon quelle juridiction : est-ce que c’est chez OVH qui est une boîte européenne, française, ou est-ce que c’est chez AWS ?
Pour résumer, les géants du numérique l’ont bien compris, 30 % de la R&D de Alphabet c’est pour la santé. Donc les données sont un enjeu et les données de santé aussi.
Anonymat ?
Quelques mots sur l’anonymat.
Snowden [9], un célèbre lanceur d’alerte, dit qu’il faut se préoccuper du droit à sa vie privée au même titre qu’on se préoccupe de la liberté d’expression ou de la liberté de la presse. Il fait le parallèle très facilement. En médecine c’est très clair, on ne se pose pas trop la question sur les données de santé, sur le secret médical. Si vous avez le Sida, un VIH, des hémorroïdes, vous n’avez pas envie que tout le monde le sache, évidemment.
Donc évolution du monde avec les données, la massification, le cloud des données.
Ça c’est une caricature dans The New Yorker qui date des années 90, je crois. Il disait que c’est pratique : « Sur l’Internet, personne ne sait qui tu es, donc que tu es un chien ». Dans les années 2010, la caricature évolue. Maintenant on sait qui est derrière l’ordinateur et l’anonymat n’existe presque plus.
Maintenant je vais demander à tous et toutes de lever la main. Que les hommes gardent la main levée, ceux qui s’identifient comme un homme, nés en 1989, en janvier 1989, et qui habitent à Vannes. J’habite à Saint-Malo maintenant.
Ça ça fait écho à un article de Nature, une grosse revue scientifique, où avec une, deux, trois, quatre, cinq, six, sept variables, on identifie dans un jeu de données, à 99 %, un individu. Le Health Data Hub [10], peut-être qu’on développera un peu, regroupe toutes les données de santé de tous les citoyens français. On est sûr qu’on a l’entièreté des citoyens et des citoyennes françaises, donc on peut les identifier à 99 %. Surtout qu’au Heath Data Hub on n’est pas à sept variables, on a des milliers de variables.
Entrepôts de données de santé
Un petit point sur les entrepôts de données.
C’est Aaron Swartz [11]. Il n’a pas fait un entrepôt de données de santé. C’est quelqu’un qui a contribué à plusieurs initiatives open source dont les flux RSS, qui a beaucoup contribué à Wikipédia et qui a disparu, qui s’est suicidé après avoir tenté de libérer la revue scientifique mondiale JSTOR [Journal Storage] ; c’était un étudiant du MIT. The Internet’s Own Boy est un super film sur lui.
Pourquoi je mentionne Aaron Swartz ? Ça c’est un schéma de l’architecture de l’entrepôt de données de l’AP-HP. Ce qui m’a beaucoup plu c’est qu’on reprenait un peu les principes d’Aaron Swartz : toutes les technologies qu’on utilise sont strictement open source, voire libres, donc on peut avoir accès librement au code.
Par exemple pour la base de données, il y a un concurrent qui s’appelle Oracle, qui est d’ailleurs américain, eh bien on utilise plutôt Postgres [12] ; pour la recherche textuelle : Solr [13] , des technos de décentralisation, de redondance ; Spar pour synchroniser ; des API standards en santé comme Fire et Jupyter [14] qui est un environnement pour faire de la data science et évidemment des librairies Python ou R qui sont open source. En tout cas toutes les technos mentionnées ici sont strictement open source. L’idée de tout ça c’est de pouvoir faire du code à plusieurs et de partager dans différents centres, de ne pas faire dix fois le même boulot.
Après 42, j’ai travaillé pendant deux ans à l’entrepôt des données de santé des hôpitaux de Paris. On a vu arriver le Health Data Hub en 2019/2020. Le Health Data Hub s’est construit autour de Microsoft avec toutes les problématiques autour de la protection des données, de l’utilisation potentielle des données de santé par les services de renseignement américain. On a donc créé, avec l’ingénieur en chef de l’entrepôt, une association qui s’appelle InterHop.
InterHop
L’objectif d’InterHop c’est de faire un chaton [15], un peu au sens Framasoft. Un chaton, c’est ce qu’est l’asso 42. Du coup ça promeut essentiellement, je ne sais pas si vous aussi, le logiciel open source, le logiciel libre et, pour nous, avec la particularité qu’on stocke des données de santé, donc il faut des certifications particulières pour les données de santé. En fait nous sommes un chaton HDS, hébergeur de données de santé. On héberge des softs sur les serveurs HDS comme Toobib qui est un outil de prise de rendez-vous ou Goupile qui est un outil de recueil de données. On a des activités juridiques. Une avocate nous accompagne et fait des combats juridiques avec nous.
Pour finir, rien à voir ni avec 42, ni avec InterHop, mais ça rentre dans une définition vaste de la santé : les réserves en minéraux rares, mais pas que, diminuent, par exemple le cuivre. Pour le cuivre il y a 37 années de cuivre, l’or sept ans ; toutes les matières premières sont en train de se raréfier et beaucoup de ces matières premières sont utilisées par faire des serveurs, du coup pour faire le l‘intelligence artificielle aussi. À côté de cette problématique de raréfaction des terres rares, il y a une aussi une problématique énergétique liée au numérique, qui consomme 10 % de l’énergie mondiale et 20 % en 2025.
Pourquoi je vous parle de ça ? C’est qu’en fait le numérique a aussi un impact sur la santé puisqu’il est générateur de pollution parce qu’il consomme de l’énergie. Tout ça s’intercale.
Évidemment que l’intelligence artificielle, l’idée de centraliser les données, de traiter les données de santé, c’est d’essayer d’améliorer la santé des personnes pour mieux les traiter, mieux prévenir leurs maladies. Mais la preuve scientifique de l’intérêt de l’intelligence artificielle, des réseaux de neurones, reste à démontrer et, comme elle est consommatrice d’énergie, l’intelligence artificielle a aussi des impacts néfastes sur l’environnement donc aussi sur les humains, le monde.
Il faut réussir à essayer de traiter cette définition, qui est la définition de la santé selon l’OMS, « un état de complet bien-être physique, mental, social et pas seulement l’absence de maladie ». Je pense que c’est aussi le rôle d’un ingénieur, surtout s’il traite dans le domaine de la santé, d’avoir la vision d’ensemble, ou tenter d’avoir la vision d’ensemble, de voir, peut-être, les bénéfices de l’algo qu’il développe et aussi les risques sur les données, sur l’utilisation des données et aussi sur l’environnement des outils qu’il développe.
[Applaudissements]
Échanges avec le public
Claire : Avant de commencer un échange avec vous, j’imagine que vous avez sûrement des questions, on va revenir un petit peu ensemble sur la raison d’être d’InterHop, on va sûrement revenir sur des points que vous avez abordé sur la juridiction mais aussi sur des failles techniques. On va voir aussi pourquoi, au-delà de ces failles juridiques et techniques, ça peut être un problème pour un modèle de santé qui est celui français qui est basé sur la solidarité. Vous nous expliquerez peut-être aussi comment on fait autrement, parce qu’en tant que développeurs c’est peut-être aussi ce qu’on a envie de faire.
Dans vos combats vous avez beaucoup lutté contre le Health Data Hub et aussi contre le partenariat entre Doctolib et l’État français. Le principal argument qui revenait c’était l’hébergement. Pourquoi est-ce un problème de tout centraliser, peut-être déjà d’un point de vue juridique ?
Adrien Parrot : En effet, avec l’avocate Juliette Alibert qui devait être là, nous sommes allés deux fois au Conseil d’État. La première fois on a attaqué en effet le Health Data Hub.
À partir du moment où c’est partiellement remboursé, les données vont au Health Data Hub : le médecin généraliste, le laboratoire, les imageries, les hôpitaux, le kyné, toutes ces données de santé vont au Health Data Hub, c’est donc vraiment un volume de données absolument majeur.
Public : À quoi correspond le Dossier Médical Partagé par rapport au Health Data Hub ?
Adrien Parrot : Le Health Data Hub c’est le volet recherche. Le Dossier Médical Partagé c’est pour faire du soin, c’est de la santé.
Public : Et tout est consolidé du coup ?
Adrien Parrot : Récemment il y a eu une extension du Dossier Médical Partagé, ça a changé de nom, maintenant c’est Mon espace santé, en gros ça a gonflé. La grosse différence c’est déjà que dans le DMP ce sont des données personnelles directement identifiantes, alors que dans le Health Data Hub ce sont des données pseudonymisées et la finalité, l’objectif du recueil des données est différent : un c’est pour faire de la recherche et l’autre c’est pour faire du soin.
Pour l’instant, dans Mon espace santé, anciennement DMP, les données ne sont pas envoyées dans le Health Data Hub, mais, à terme, toutes les données de santé doivent aller au Health Data Hub, à mon sens elles vont y aller, mais, actuellement, ce n’est pas le cas.
Donc on a attaqué le Health Data Hub puis, après, la campagne de vaccination. La campagne de vaccination a été grandement aidée par Doctolib et les données de Doctolib sont hébergées par AWS, Amazon Web Services. Donc pour les mêmes motifs – mêmes causes, mêmes conséquences – on a aussi attaqué la campagne de vaccination, pas Doctolib, l’État qui choisit Doctolib et Doctolib qui est chez Amazon.
C’est en effet toujours le même argument, c’est le risque qui est pointé par la CNIL, donc par le régulateur français qui veille à l’application du RGPD, le Règlement européen sur la protection des données en France, qui dit que les données peuvent être accédées, que les données ne sont pas protégées sur des serveurs sous juridiction américaine [16]. C’est vraiment ça le cœur de l’attaque. Vous avez peut-être vu que récemment la CNIL a émis un avis négatif face aux Google Analytics. Ce sont exactement les mêmes problématiques, c’est parce que les Google Analytics sont hébergées chez Google et qu’on peut accéder aux données via les États-Unis sans que les utilisateurs soient au courant.
Claire : Alors que ce n’est pas le cas en Europe du coup ? Il y a une différence de juridiction entre les deux.
Adrien Parrot : Oui. Je ne peux pas certifier qu’il y a zéro accès par les services de renseignement en Europe, clairement, par contre il y a un cadre juridique, c’est un cadre exceptionnel. Ce qui a fait arrêter les échanges de données entre l’Union européenne et les États-Unis et a fait la décision de la Cour de justice de l’Union européenne, c’est le caractère exorbitant et sans limitation de l’accès aux données. Le RGPD dit d’ailleurs qu’il peut y avoir des accès aux données, mais que ces accès aux données doivent être limités, sous condition, ce qui n’est pas le cas.
Claire : On voit que juridiquement le cadre est peut-être plus laxiste aux États-Unis, mais du coup techniquement ? Dans vos réquisitoires, je ne sais comment on appelle ça, au Conseil d’État, vous arguez aussi du fait que techniquement il y a un problème à la centralisation. Naïvement on pourrait se dire que c’est pratique, tout est au même endroit, on sécurise bien tout dans un coffre-fort, c’est vachement plus facile et, en fait, vous dites « non c’est l’inverse ». Pourquoi, techniquement, c’est compliqué de tout centraliser ?
Adrien Parrot : En fait ça dépend de la perspective. On ne remet pas en cause la qualité des outils américains contre un assaillant externe. C’est sûr qu’essayer de rentrer par l’extérieur dans un serveur Microsoft !, même s’il y a quand même beaucoup de failles, il y en a régulièrement, mais il y a des ingénieurs, beaucoup d’ingénieurs qui travaillent pour que les outils Amazon, les clouds des Américains soient protégés de l’extérieur. Ils ont quand même un niveau de sécurité qui est important.
La grosse problématique, ce qui peut très facilement se passer, c’est que les services de renseignement ont juste à aller voir Microsoft et lui dire « vous nous filez un accès à votre machine » et, du coup, ils peuvent récupérer les données directement. En fait c’est un accès root SSH classique, on se connecte et, si on a la clé, on rentre. Ce ne sont même pas des accès non voulus. Et Microsoft, en l’occurrence, est obligé de le faire. Ce qui est aussi dans le texte FISA, le texte américain que j’ai mentionné, ils doivent le faire sans que la qualité de leurs services soit impactée, ils sont obligés de faire ça. C’est un accès root.
Public : Du coup, vis-vis du Health Data Hub, c’est bien Microsoft qui hébergera les données, comme tu l’as dit ?
Adrien Parrot : Actuellement c’est Microsoft Azure qui les héberge.
Public : Du coup comment l’État français, qui doit chercher à défendre ses intérêts, peut décider de placer les données de la population dans les mains des Américains ? Comment en sont-ils arrivés à prendre cette décision ? Ce sont quand même les données de chez eux ! D’accord nous sommes amis avec les États-Unis d’Amérique, mais c’est quand même étrange qu’il place autant de données chez les Américains, c’est bizarre ! Vous savez comment ils en sont arrivés à cette conclusion ? Quels sont leurs arguments ? Ou pas ?
Claire : Je crois qu’il n’y a pas eu d’appel d’offres et que ça fait aussi partie des problèmes que vous avez soulevés.
Adrien Parrot : La conférence est enregistrée ! Il n’y a pas eu d’appel d’offres, en effet. Ce qui est sûr c’est que l’AP-HP, les hôpitaux de Paris ont été partie prenante initialement dans les missions de préfiguration du Health Data Hub ; je parle de l’AP-HP, mais sûrement d’autres hôpitaux, je l’ai vu de l’intérieur. On a proposé au Health Data Hub de leur filer le code qu’on avait fait pour qu’ils puissent faire leur entrepôt, l’améliorer, qu’on co-travaille ensemble. Le directeur de l’AP-PH a même proposé de filer des serveurs de l’AP-HP pour que le truc soit lancé.
Après, pourquoi c’est allé dans une autre direction ? Déjà il y a beaucoup d’habitudes. En ce moment les cabinets de conseil font un peu scandale. L’État est conseillé par des cabinets de conseil qui sont parfois, on va dire, américains et ces cabinets de conseil, même quand ils sont européens, ont l’habitude d’utiliser des technos américaines, donc il y a aussi cette habitude. En effet c’est malheureux, il y avait des alternatives.
Public : Est-ce que ce n’est pas aussi une question de coût, que le Health Data Hub proposait des coûts inférieurs. Est-ce qu’il y avait cette partie-là ? Vu qu’il n’y a pas eu d’appel d’offres, on ne sait pas.
Adrien Parrot : On connaît le prix et c’est plus cher que ce qu’on aurait fait payer pour qu’ils aient accès à notre code. On ne leur aurait pas fait payer. Après il y a le prix des serveurs, mais des serveurs OVH, ce n’est pas non plus... Ça coûte 20 à 30 fois plus cher par utilisateur.
Ce qui fait aussi peur, c’est que le logiciel open source – et ça, pour le coup, c’est un vrai argument pour les décideurs – ne fonctionne pas. Le problème du code open source c’est qu’il faut quand même des ingénieurs de qualité en face du code, tu ne peux ne pas réussir à le faire si tu n’es pas un peu fort. Tu payes cher Microsoft et, derrière, le truc fonctionne. Il y a aussi cet argument-là et, en tant que décideur, genre Cédric O secrétaire d’État chargé du Numérique, c’est un vrai argument.
Public : Bonjour. Avec l’affaire Snowden on a vu qu’il y a quand même une grosse différence entre ce qu’un État est censé faire et ce qu’il fait derrière en réalité, en soum-soum. À quel point peut-on envisager que les lois justement de l’Union européenne nous protègent vraiment à ce niveau-là ?
Adrien Parrot : Je suis d’accord. C’est d’ailleurs un argument qu’on nous a plusieurs fois rétorqués, en gros « vous critiquez les États-Unis, mais regardez en Europe, il y a sûrement des accès ». C’est clair. C’est juste que déjà, en termes purement juridiques, en droit, aux États-Unis c’est acté que les services de renseignement, même plus que les services de renseignement, que les services de l’État puissent avoir accès aux données sans limitation, sans que les services soient perturbés, c’est écrit noir blanc, c’est à la suite des attentats, PATRIOT Act, etc. Alors que dans l’Union européenne il y a un cadre réglementaire, il est écrit noir sur blanc que n’importe qui ne peut pas accéder n’importe comment aux données, surtout aux données de santé qui sont des données sensibles ; ce cadre-là est écrit.
Après qu’il y ait des dérives, certainement, mais les citoyens peuvent aller toquer à la CNIL ou aller voir un juge, aller voir leur avocat et dire « il y a des accès pas corrects à mes données, je porte plainte et je vais devant les tribunaux ». Si tu vas aux États-Unis, que tu fais la même chose, que tu dis « mes données dans le Health Data Hub », personne ne va te répondre. Du coup ce gros gap existe et c’est aussi un argument juridique. C’est la grosse différence que je vois, mais je suis d’accord avec toi, il y a forcément des accès.
Claire : Du coup on a conscience que ça nous amène sur un plan éthique. Tu disais que nos données de santé sont considérées comme des données très sensibles. Concrètement qu’est-ce ça fait ? je me dis que j’ai 25 ans, je suis en bonne santé, mes données leakent divulguées, qu’est-ce que ça fait ? Pourquoi ça doit nous préoccuper en tant que citoyen que potentiellement des gens de l’État, des services de l’État aient accès à nos données de santé ? En quoi sont-elles plus précieuses que d’autres types de données ?, ou peut-être tout autant ?
Adrien Parrot : Elles renseignent sur énormément de choses sur nous : même en étant en bonne santé, savoir que tu t’es tapée une IST [Infection sexuellement transmissible]> un gonocoque après un rapport sexuel à risque, sans être en mauvaise santé particulièrement. Il y a des maladies stigmatisantes, typiquement le gonocoque, le VIH. C’est le regard de la société pour trouver un emploi, pour avoir un prêt. Sans être même particulièrement en mauvaise santé, c’est par exemple beaucoup plus compliqué d’avoir un prêt si vous êtes diabétique que si vous ne l’êtes pas ; vous avez des primes d’assurance qui se majorent, des choses comme ça. En fait ça impacte beaucoup la vie et ce qu’on est, notre rapport avec l’extérieur, comment on se présente aux gens, premièrement.
Deuxièmement les GAFAM, Google et Amazon, se dirigent tranquillement, façon de dire, vers de l’assurance santé. Ces boîtes-là veulent faire des équivalents de la Sécurité sociale, donc évidemment que les données les intéressent puisqu’ils veulent rentrer dans ce champ-là, qui est un outil de développement comme un autre. La problématique c’est que la Sécurité sociale, telle qu’on la connaît en France, s’est construite comme un outil collectif de mutualisation des risques, c’est-à-dire que, en gros, c’est l’amphi ici qui est plutôt en bonne santé qui aide un patient dialysé trois fois par semaine et qui coûte 100 à 150 000 euros par mois à la société. On a décidé collectivement de s’entraider et de cotiser quand on est en bonne santé.
C’est contraire, en fait, à des logiques de prédiction et aux modèles que les GAFAM développent. Quand on fait de la data science c’est finalement quand même ça, c’est essayer de prédire le mieux pour un individu donné. On n’est pas dans des prises en charge de risques collectifs, on est dans des risques très individuels, en même temps c’est super. On vous soigne peut-être mieux vous, mais, en même temps, ça peut être très excluant si vous êtes à risque, c’est-à-dire que vous allez faire perdre de l’argent à Google, qui fait de l’assurance santé, et vous allez sûrement ne pas être très bien remboursé, voire être déremboursé potentiellement. Il y a ce risque et Guillaume Poupart qui est peut-être ex maintenant – je ne sais plus s’il l’est encore – patron de l’ANSSI, l’Agence nationale de sécurité des systèmes d’information, le dit, ce sont ses mots que je vous dis là, il l’a dit lors d’une conférence sur le covid : il y a vraiment un risque de faire imploser le système de Sécurité sociale français tel qu’on le conçoit. À mon sens, ça va loin dans le raisonnement.
Claire : Et justement à quel point c’est encore de l’ordre du tangible ou c’est encore une sorte de dystopie ? Pour l’instant on parle vraiment de l’hébergement des données de santé. On peut finalement se dire qu’on reste stricto sensu sur de l’hébergement. Est-ce que le passage d’un simple hébergement à une utilisation sera facile ? Est-ce que ce sera rapide ? À l’échelle de combien de temps pourrait-on le supposer ?
Adrien Parrot : C’est dur de savoir. Ce qui est sûr c’est qu’Amazon fait de la prise de rendez-vous comme Doctolib, par exemple, alors même que Doctolib est un concurrent d’Amazon par certains côtés : Amazon fait des rendez-vous par un autre côté en même temps qu’il héberge Doctolib qui fait du rendez-vous.
Dans quelle mesure ça va aller vite ou pas ? En tout cas c’est un vrai objectif financier pour eux, avec des moyens, de l’argent et des ingénieurs qui travaillent sur ça. Microsoft s’est allié avec Axa qui est, en même temps, un concurrent, ça revient au même. La santé et les données sont un levier de croissance. Je ne sais pas dans combien de temps, mais je sais que ce sont des sujets de préoccupation rien qu’en regardant les chiffres d’investissement.
Claire : Peut-être une nouvelle question sur cette question de la solidarité ou de la mise en cause.
Public : Je reviens juste sur ce que vous disiez au début de la conférence. Je voulais juste savoir, vu que vous faites quand même de la recherche avec de l’IA pour les données de santé, je suppose, si vous aviez quand même trouvé des solutions pour éviter de faire des fausses déductions ? Ou pas ? Pour éviter de faire des fausses corrélations.
Adrien Parrot : Par exemple, en tant que tech, on récupère la donnée, on a l’impression que la donnée c’est le chiffre. Par exemple une simple tension artérielle au brassard, en médecine, en fonction de si on est fatigué, pas fatigué, debout, pas debout, le brassard, la taille du brassard, s’il est serré, pas serré, limite quelle infirmière prend, la donnée varie. Donc déjà être conscient que la donnée n’est pas du tout objective, mais est très contextuelle. En fait il y a beaucoup de métadonnées autour d’une donnée, donc, première chose, il faut faire attention à ça.
Après, finalement, les corrélations peuvent être souhaitables, on peut les utiliser pour faire naître des hypothèses qu’ensuite on doit tester en recueillant des données, mais cette fois-ci en médecine de façon prospective. Souvent les données de corrélation sont des données rétrospectives, passées. L’entrepôt de données, ce sont les données des 20 dernières années que tu vas traiter. Ces données-là peuvent être utiles à faire naître des hypothèses qu’il faut tester dans le futur.
Claire : On peut plutôt rester sur le sujet de la solidarité. Juste s’il y a des questions d’ordre plus général, il y aura du temps à la fin. C’est sur ce sujet ? Oui ?
Public : Juste pour avoir un petit mot sur la certification HDS [Hébergeur de Données de Santé] qui est relativement récente dans sa forme actuelle. Déjà on peut voir qu’il y a pas mal de sociétés américaines qui sont certifiées HDS, ce qui est surprenant, ça témoigne presque plus ou moins d’une volonté, de la part du gouvernement, d’autoriser des acteurs étrangers sur ce secteur-là en France.
Deuxième point : est-ce que les praticiens sont sensibilisés aujourd’hui à ces problématiques de l’hébergement sachant, d’ailleurs, qu’ils sont censés informer leurs patients sur ce que vont devenir leurs données quand la donnée est exploitée ?
Adrien Parrot : La réponse à la deuxième question c’est simple, c’est non. C’est super compliqué de comprendre, franchement. À l’hôpital, le nom d’utilisateur et le mot de passe sont écrits sur l’écran, en bas, pour que ça soit plus facile. Il y a trop de mots de passe, ce n’est pas par stupidité, c’est juste que c’est trop, ils ne peuvent pas s’en souvenir. Je dirais de plus en plus, mais globalement pas du tout.
La problématique pour les certifications HDS c’est que les États-Unis, les Américains ont des visions décomplexées du libéralisme, ils font clairement de la protection, alors que nous, pour le coup, on applique vraiment la loi et on est très libéral. Au final s’il y a un cahier des charges pour le HDS et que ce cahier des charges n’inclut pas du tout des problématiques d’extraterritorialité du droit, que le droit américain s’applique sur le doit français ou européen, ça ne rentre pas dans la balance. Donc Microsoft remplit le cahier des charges et est certifié. Ça ne rentre pas dans ce qu’est le label HDS actuellement.
Public : Inaudible.
Adrien Parrot : La problématique du pourquoi du HDS alors que tous les services ne le mériteraient pas forcément, avec le taux de disponibilité, le SLA [Servicelevel agreement].
Public : D’un côté la disponibilité : pourquoi à ce point-là ? En fait quelle est la philosophie derrière ce HDS dont on se dit qu’il y a une notion de sécurité, de garder ses données anonymes et plus ou moins privées ? De l’extérieur ce n’est pas spécialement l’impression qu’on a quand on lit un peu les contraintes qui y sont associées.
Adrien Parrot : En effet, ce ne sont pas du tout des problématiques sur l’anonymat, le pseudonymat des données. Ce sont des contraintes qui sont assez techniques, en effet la disponibilité des services, la réplication, s’il y a un serveur qui pète il faut que ça soit redondé. On a vu qu’OVH ne le faisait pas forcément sur tous ses serveurs, avec le HDS ça aurait été le cas, il y aurait eu de la redondance. Après ça peut être sur le même rack, mais c’est un autre souci.
Après, est-ce que tous les services ont besoin du HDS par rapport à leur disponibilité ? Le HDS est nécessaire pour le soin, la directrice du Health Data Hub l’a clairement dit. En fait, le Health Data Hub n’a pas besoin d’être certifié HDS parce que c’est de la recherche uniquement. En effet, ce que tu dis sur le HDS, finalement pas pour tout, même quand ce sont des données de santé.
Je ne sais pas si c’est clair pour tout le monde HDS : hébergeur de données de santé. C’est un cahier des charges avec, par exemple, la redondance des données dedans. Il y a plusieurs activités, ça va du datacenter – il ne faut pas qu’il puisse prendre l’eau, il faut qu’il y ait un groupe électrogène – jusqu’aux couches logiques, logicielles. Il y a plusieurs activités.
Claire : Du coup on va peut-être parler maintenant de ce que vous proposez avec InterHop. Vous en avez déjà un peu parlé tout à l’heure en disant que les décideurs étaient peut-être un peu réticents à utiliser du logiciel libre ou des infrastructures qui ne soient pas celles des géants comme Microsoft, qui ont, peut-être, un effet rassurant pour des décideurs. Est-ce que concrètement on serait capable de se passer de ces grands acteurs et pourquoi ce n’est pas déjà fait ? Est-ce que l’État pourrait le faire ? Est-ce que c’est à des entreprises ou à des chatons de le faire ? Quel serait, pour vous, le modèle idéal pour ça ?
Adrien Parrot : Pour la recherche, les hôpitaux de Paris traitent 11 à 12 millions de données de patients dans leurs datacenters. Pour les problématiques de scalabilité, passer de 12 millions de patients à la population française, on n’est pas dans des échelles de logs qui partent… À mon sens, l’AP-HP montre que c’est possible, en tout cas pour la recherche, pour les entrepôts de données de santé, de faire ça actuellement avec du logiciel libre, du logiciel open source. Si à l’AP-HP il y a 200/300 utilisateurs c’est déjà une grosse journée, ils se sont motivés pour travailler ensemble. On n’est pas dans des problématiques où il y a des services très demandés, il y a aussi ça.
Sur ce type de service, notamment les outils collaboratifs, c’est vrai qu’il y a beaucoup de travail, à mon sens, par rapport à un outil par exemple comme Teams. Mais, en même temps, il y a aussi des boîtes qui proposent des outils collaboratifs, qui avancent, qui proposent des alternatives qui sont utilisées. La Sécurité sociale, par exemple, utilise un outil collaboratif, un produit de Jamespot [17] qui est une boîte française. Il y a plein d’autres outils open source comme Nextcloud [18]. Il y a plein de choses qui peuvent être utilisées.
Pour répondre très clairement, à mon sens, pour beaucoup, on peut le faire sur du logiciel open source. Sinon il faut travailler, il faut que 42 contribue à faire du code open source, il faut contribuer à Postgres, Postgres c’est du C, ici on est fort en C ; faire du Rust et collaborer. On en parlait juste avant, ce qui est peut-être dommage à 42 c’est de refaire la vie. Quand je suis arrivé, je savais faire des programmes en C, mais je ne savais même pas coder un programme en un truc de plus haut niveau. Il y a peut-être ici cette problématique qui serait de se rallier à des projets qui existent et de perfectionner.
Claire : En termes aussi d’échelle peut-être. Souvent, quand vous intervenez, vous défendez un modèle de stockage des données qui serait local. Pourquoi faudrait-il que ce soit local et pas un cloud européen par exemple ? Un truc qui vous satisfait moins, finalement, en termes d’infrastructure.
Adrien Parrot : C’est vrai que même si c’était OVH, Thales, Dassault, Free ou Scaleway qui stockaient les données, ça ne nous conviendrait pas totalement. De toute façon, les systèmes d’information sont vulnérables. Il y a des failles zero-day [Aucun correctif n’a été publié, NdT] dans tous les outils, il y a des failles qui arrivent, qu’il faut corriger ; c’est normal, c’est la vie d’un projet.
Plus les données sont centralisées dans un lieu, plus une faille humaine, sociale ou technique va avoir de conséquences, parce que plus de données vont potentiellement être leakées d’un seul coup. Un article d’IBM disait, je crois, que 70 % des leaks de données proviennent de leaks sociaux intra-organisation parce que, plus l’organisation grossit, plus les problématiques de partage de mots de passe au sein de l’équipe sont complexes, donc plus les mots de passe leakent et finalement quelqu’un leake son mot de passe. À mon sens, au sens de l’association, c’est la décentralisation, par essence, qui est protectrice des données.
Claire : Ça marche. Maintenant nous, que fait-on dans tout ça quand on est dev ? Quand est-ce qu’on se rend compte qu’on est en train de contribuer à quelque chose qui va potentiellement être dangereux pour les utilisateurs, pour la sécurité ? Comment s’en rend-on compte et à qui s’adresse-t-on quand on s’en rend compte ? Ou comment fait-on pour contribuer autrement ?
Adrien Parrot : Avec l’association nous sommes en contact avec plusieurs personnes qui ont lancé des alertes. Vous avez peut-être vu qu’il y a eu des accès non voulus à la société Dedalus qui gère des labos, c’est un exemple très connu. Il a eu un article dans Next Inpact [19] : le lanceur d’alerte, la personne qui a parlé de cette faille a justement tenté d’alerter. Comment s’en rendre compte ? Si le mot de passe n’est pas haché et que vous avez, par exemple, accès à la base de données, eh bien il faut lever la main et il faut le dire. À priori, à la Sécurité sociale il y a eu un leak de données de 500 000 patients. À priori les mots de passe ont leaké aussi de la base de données. J’ai du mal à comprendre comment les mots de passe peuvent avoir leaké s’ils sont hachés par exemple. Il faut dire ces choses-là.
C’est vrai que le développeur, le tech a un vrai impact dans la société aussi en tant que vigie de la démocratie et, du coup, en tant que lanceur d’alerte. C’est dommage que Juliette ne soit pas là, je lui vole la vedette. Elle travaille dans une association qui s’appelle La Maison des Lanceurs d’Alerte [20], dont l’objet social est de protéger les lanceurs et les lanceuses d’alerte sur plein de sujets et le numérique peut en être un.
Claire : Merci beaucoup. Il nous reste peut-être 20/25 minutes à peu près pour poser toutes les questions que vous voulez, je vais vous laisser deux micros. Sentez-vous libres sur n’importe quel sujet quand même relatif à l’objet de l’association.
Public : Tout à l’heure tu as dit que vous étiez allés deux fois devant le Conseil d’État. Quelles sont les suites ?
Adrien Parrot : Le Conseil d’État c’est compliqué, en fait nous y sommes allés trois fois.
On y est allé une fois avant la décision de la Cour de justice de l’Union européenne en juillet 2020. Nous y sommes allés en avril et là nous nous sommes fait dégager parce qu’il n’y avait même pas de texte qui dise que c’était à risque. Il y en avait mais aucun sous-juridiction européenne, donc le juge du Conseil d’État s’est référé aux textes français et européen et a dit « il n’y a pas de problème ».
Nous y sommes retournés après la décision de la Cour de justice et, cette fois-ci, la juge du Conseil d’État – déjà c’était une femme donc peut-être plus sensible, peut-être que ça a joué – nous a vraiment écoutés, nous nous sommes sentis écoutés et le Conseil d’État a reconnu que le risque [21] existait et qu’il fallait partir le plus rapidement possible de Microsoft ; sachant aussi que c’était une décision qui était prise dans l’état d’urgence sanitaire, que la juge ne voulait pas tout couper, parce qu’il y avait espoir que le Health Data Hub allait fournir l’étude miracle qui allait liquider le covid. Ça n’a pas marché.
Nous y sommes retournés pour Doctolib. On a perdu. Le juge n’a même pas reconnu le risque et, surtout, les données de rendez-vous ont été rétrogradées comme étant des données non sensibles alors même que la CNIL et, par exemple, l’Ordre des médecins le reconnaissent : si vous allez voir le cardiologue tous les mois c’est, à priori, que vous avez un problème au niveau du cœur qui est plutôt grave. À mon sens, c’est évidemment un marqueur de santé important et c’est reconnu par la CNIL et l’Ordre des médecins. Le juge, lui, a dit que ce n’était même pas une donnée sensible, donc même pas une donnée de santé. En effet là, pour Doctolib, ça n’a pas marché. Les combats juridiques c’est…
Public : Du coup, on a vu que c’est problématique que les données de santé personnelles soient accessibles par ces grandes organisations. Cela dit, on est à peu près aussi d’accord pour dire qu’avoir ces données anonymisées, accessibles pour la recherche c’est une très bonne chose et ça aide à la faire progresser. Comment fait-on pour concilier ces deux aspects qui apparemment s’opposent ?
Adrien Parrot : Tu as tout à fait raison. En fait on n’a jamais critiqué le projet Health Data Hub en tant que projet de promotion de la recherche et de partage des données pour faire de la recherche. Au sein de l’association nous sommes tous d’accord pour dire qu’il faut faire avancer la recherche, que les données peuvent faire avancer la recherche, c’est même comme ça que ça se passe depuis des dizaines d’années avec la recherche scientifique.
Par contre, les modalités sont clairement problématiques et la centralisation est clairement problématique d’autant plus chez Microsoft, à notre sens. Les alternatives sont la décentralisation et le logiciel open source. Le logiciel open source parce qu’on peut auditer le code potentiellement malveillant de Microsoft : si un programme envoie toutes les minutes les infos de logs, on ne peut pas l’auditer, on n’a pas la main sur ce qui se passe chez Azure, forcément. Donc le logiciel open source et la décentralisation. On promeut qu’il faut développer des logiciels open source qui peuvent aller tourner dans les différents centres hospitaliers par exemple, du coup ce ne sont pas les données qui bougent, il n’y a pas un transfert des données de Rouen, Lille, Paris au Health Data Hub, mais ce sont plutôt des algos qui sont développés à Paris, ou pas, qui sont envoyés dans des hôpitaux et qui tournent localement sur les données des hôpitaux par exemple.
Public : J’ai aussi une question. Est-ce que vous avez des conseils ou des alternatives à proposer justement aux particuliers qui se retrouvent notamment confrontés à Doctolib comme outil front pour prendre des rendez-vous ? Ça a l’air d’être un outil assez simple d’utilisation et assez accessible. Que proposez-vous par rapport à ça, mais aussi de façon générale par rapport à d’autres outils ?
Adrien Parrot : C’est là que la CNIL et l’association en général, nous nous rejoignons beaucoup. Ce sont les chatons de façon générale. Je vais finir par le rendez-vous.
Par exemple au lieu d’utiliser Word en traitement de texte, il y a des alternatives, LibreOffice. Au lieu d’utiliser Google Drive, Nextcloud, Cryptpad, etc., et promouvoir de façon générale les chatons pour la santé, pour les soignants de façon générale, infirmiers, infirmières, médecins, etc.
Pour l’outil de prise de rendez-vous là aussi il existe des alternatives. Il y a un super soft open source qui s’appelle Easy !Appointments [22] , qu’on est en train de tester dans dans plusieurs centres de santé ; c’est un développeur grec qui fait ça en PHP. On est en train de tester et de potentiellement l’utiliser. D’ailleurs s’il y a des volontaires pour nous aider c’est super.
Ce que nous imaginons c’est d’avoir un outil de recherche globale de tous les professionnels de santé français et que, par contre, les prises de rendez-vous soient décentralisées sur plusieurs centres. Ce qui est heureux c’est que si on met un serveur dans un centre de santé, il est HDS de fait, donc hébergeur de données de santé de fait, parce qu’on ne peut pas faire certifier un poste de médecin. On ne peut pas demander que le Mac du médecin soit redondé, on ne peut pas avoir le même niveau d’exigence que Microsoft. De fait le poste du médecin est HDS de base et si on met un serveur dans le cabinet il est HDS aussi. Potentiellement installer le soft dans plein de centres de santé avec, par-dessus, un outil de recherche global qui pointe vers des instances différentes. On est en train de tester ça.
Public : Je ne sais pas si tout le monde voit ce qu’est un chaton. CHATONS est le Collectif des Hébergeurs alternatifs, Transparents, Ouverts, Neutres et Solidaires. Il y a une centaine de structures, notamment en France mais aussi un peu partout dans le monde, qui hébergent des données personnelles, qui hébergent des petits services à destination d’à peu près tout le monde, généralement du grand public, par exemple des services mail, des services qui peuvent remplacer les services des géants du Web. À chaque fois qu’on parle de chaton dans cette conférence, on fait référence à ce collectif d’hébergeurs qui hébergent ces services à disposition de tout le monde.
Public : En attendant, à l’AP-HP, maintenant ils utilisent Doctolib !
Adrien Parrot : Hum ! J’avoue que si l’AP-HP, vu qu’on a plein de potes ingénieurs à l’AP-HP, disait à InterHop « vous gérez les rendez-vous de 11 millions, ce sont des données globales, mais de millions de patients », nous serions honorés, mais clairement on ne pourrait pas le faire, il faudrait que eux le fassent et c’est justement ça la problématique. Dans le service public, les ressources en ingénieur sont rares et, malheureusement, pas aussi bien payées que chez Google ou autre. Du coup c’est vrai qu’il y a un peu aussi cette problématique. Dernière problématique c’est que ça fait peur, encore une fois, aux décideurs. Aller voir Martin Hirsch, le patron de l’AP-HP, en lui disant « on va installer Easy !Appointments pour gérer les rendez-vous des patients versus Doctolib », ça risque de ne pas le faire ! Il y a aussi cette acculturation qui est nécessaire.
Public : J’ai vu que vous portez votre combat sur le plan juridique. Je suis très étonnée. Il y a un peu plus de cinq ans je m’étais rendue à une conférence au Sénat sur toutes ces problématiques. Il m’avait semblé que pas mal de sénateurs étaient très au fait de tout ça. Il y avait au moins deux rapports de sénateurs, notamment Olivier Marleix pour la droite, je ne sais plus qui à gauche. Je sais que c’est toujours un peu délicat de porter ce sujet en politique.
Adrien Parrot : Nous sommes en contact avec plusieurs sénateurs et députés sur ces sujets. C’est vrai qu’il y a eu des rapports. Je dirais que globalement le Sénat est plus au fait de ces problématiques-là que les députés.
Public : Et c’est souvent transpartisan au Sénat.
Adrien Parrot : C’est vrai. Là ça rentre vraiment dans de la politique politicienne pas très intéressante : les députés sont beaucoup République en marche et, du coup, c’est vrai que prendre un chemin orthogonal à celui décidé par le gouvernement au sein de l’Assemblée nationale c’est compliqué, il faut avoir un peu de cran. Du coup ça se fait moins à l’Assemblée en ce moment, on a eu un moins grand écho, même si parfois en off on discute, mais en on !
Public : C’est pour ça que le Sénat c’est pas mal, ils sont plus vieux, ils ont plus de leviers, ils sont mieux ancrés en politique, ils ont une réflexion à plus long terme.
Adrien Parrot : C’est vrai ! Je suis d’accord avec vous. Madame Morin-Desailly par exemple, une sénatrice centriste je crois, a vraiment essayé de porter ces sujets-là. En fait c’est compliqué. Le combat nous a montré que les institutions sont quand même de moins en moins indépendantes et, même quand elles le sont, elles n’ont pas forcément le choix et ne peuvent pas dire non de façon brutale. Par exemple, même si la CNIL dit « je ne suis pas d’accord », le gouvernement a le droit de continuer quand même. Sous Nicolas Sarkozy l’avis conforme de la CNIL a été perdu. Avant, si la CNIL disait non ça bloquait. Il y a eu très peu de décisions comme ça, mais il y en a eues. La CNIL a dit « je ne suis pas d’accord » notamment la deuxième fois au Conseil d’État, on a eu cet avis on s’est dit qu’on avait gagné, c’est bon ! Même si la CNIL dit que ça bloque, on peut continuer.
Pour la Sécurité sociale, le conseil d’administration de la CNAM, pareil. Cette année le conseil d’administration de la CNAM, de la Sécurité sociale, a dit « en l’état nous ne voulons plus refinancer le projet – elle donne quand même 12 millions par an –, le projet est bloquant, les données ne sont pas suffisamment protégées ». Pareil, sous Sarkozy, la CNAM a perdu son droit de veto. Les institutions sont un peu affaiblies sur ce terrain.
Public : J’ai une question. Si j’ai simplement envie d’avoir un rendez-vous chez un médecin, que me conseilles-tu concrètement ? Est-ce que je dois quand même me plier à l’usage et donc aller sur Doctolib ? Est-ce que tu vois aujourd’hui des alternatives, si j’ai envie de garder mes données personnelles ? Sur quel site puis-je m’orienter ? Que me conseilles-tu ?
Adrien Parrot : La première partie de la réponse c’est de ne pas aller Doctolib, c’est d’appeler. J’ai discuté avec un médecin généraliste qui avait deux logiciels, un qu’il avait fait développer et qui n’était pas interfacé avec la Sécurité sociale. La majeure partie des données étaient sur son PC et les données ne sortaient pas du PC.
Pour les données de remboursement, quand il était obligé, il envoyait des données à la Sécurité sociale et pour les données concernant, par exemple, les affaires de mœurs, les viols, il ne remplissait pas les données, dans aucun logiciel informatique.
La meilleure protection c’est finalement, surtout si ce n’est pas protecteur à un instant t, c’est d’essayer de ne pas le faire.
C’est vrai que j’ai pris un rendez-vous chez le dentiste, j’ai appelé et j’ai reçu un texto de Doctolib disant que j’avais bien pris un rendez-vous et que c’était cool. C’est vrai que c’est compliqué. Certain médecins utilisent Maiia ou KelDoc qui sont des alternatives propriétaires, pas open source, mais européennes, donc hébergées sur des serveurs européens. Sinon on se rencontre et on essaye de développer un nouveau truc avec Easy !Appointments ou d’autres trucs et d’avancer sur des alternatives open source décentralisées.
Public : Merci. Concernant Easy !Appointments ou d’autres logiciels open source ou libres, il y a parfois des solutions de supports payantes. Est-ce que ça ne peut pas rassurer les décideurs et les décideuses dans leurs choix, sachant que Nextcloud le fait, il me semble qu’Easy !Appointments le fait, j’ai regardé rapidement. Qu’est-ce qui empêcherait de passer le cap, sachant que les institutions publiques bénéficieraient du public aussi ? Ce serait donnant-donnant.
Adrien Parrot : Tu prêches un convaincu.
Public : Par exemple est-ce qu’en interne vous en avez déjà discuté ? Pour tous les outils que vous utilisez pour toute la recherche à l’AP-HP, est-ce qu’une partie du budget est reversée ? Est-ce que c’est quelque chose qui est présent dans la tête des gens déjà en interne ou est-ce que c’est quelque chose qui serait à discuter, qui serait discutable et potentiellement entendable.
Adrien Parrot : L’outil Goupile, qui est édité par un des membres de l’associaation InterHop, on l’héberge sur le serveur HDS qu’on loue auprès d’un prestataire. On fait un peu de support pour certains hôpitaux, certains centres de santé, des services, on le fait un peu. Après, c’est vrai qu’il faut quelque chose de solide, surtout quand tu vas dans le soin. Ce qui me fait un peu peur quand même : si le truc pète à deux heures du matin et qu’on ne peut pas rentrer des données pour de la recherche, c’est OK. Mais si un outil essentiel pète à deux heures du matin, tu as intérêt à avoir une hotline, un ingénieur d’astreinte et, du coup, ce sont des coûts. Je ne sais même pas comment fait Nextcloud pour des trucs très sensibles, alors qu’eux ont quand même, je pense, un support assez important, assez performant.
La meilleure protection c’est quand même de l’avoir au chaud aussi chez soi. Ça veut dire qu’il vaudrait mieux que les hôpitaux, par exemple, embauchent des ingénieurs en interne. C’est un peu comme les cabinets de conseil pour des rapports. Ils préfèrent sous-traiter à des prestataires, Sopra Steria, Cap Gemini, plutôt qu’embaucher en interne, alors que c’est ça qui permettrait de pérenniser les choses. Ce sont vraiment des changements de mentalité qui, finalement, sont liés à l’open source parce que, dans l’open source, on collabore, mais, à un moment, il faut quand même entretenir le machin. C’est complexe.
Claire : D’autres questions ? Merci beaucoup d’être venus.
Adrien Parrot : Merci.
Claire : On espère que ça a répondu à toutes vos questions, que vous avez appris plein de choses. Il n’y a pas de chute. Merci.
[Applaudissements]