- Titre :
- Open Source : liberté, égalité ?
- Intervenants :
- Stéfane Fermigier - Alexandre Hocquet - Voix off de Richard Stallman et de son traducteur - Ivaylo Ganchev - Antoine Beauchamp - Vincent Strubel - Nicolas Martin
- Lieu :
- Émission La méthode scientifique - France Culture
- Date :
- novembre 2018
- Durée :
- 58 min 50
- Site de l’émission
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l’April, qui ne sera en aucun cas tenue responsable de leurs propos.
Description
Qu’est-ce que l’open source ? Qui en sont les principaux acteurs ? Quel intérêt pour les développeurs, les administrations, les entreprises, les citoyens ? Comment ce mouvement influence-t-il la recherche en informatique ?
Remarque
L’April, association francophone de promotion et de défense du logiciel libre et des libertés numériques en général, préfère utiliser le terme « Logiciel Libre » plutôt qu’open source car il est plus précis et renforce l’importance des libertés.
Transcription
Nicolas Martin : Après Microsoft, qui s’est offert GitHub et sa plateforme au mois de juin dernier pour la coquette somme de 7 milliards et demi de dollars, c’est IBM qui est passée à la caisse au mois d’octobre pour acquérir Red Hat cette fois, pour 34 milliards de dollars. Le point commun entre ces deux rachats ? GitHub et Red Hat sont deux mastodontes de l’open source, ce mouvement initié à la fin des années 90 qui revendique le droit d’accéder au code, de le modifier, de le transformer et de le céder de façon libre. Un avatar du logiciel libre qui en serait, en quelque sorte, la philosophie sous-jacente. Est-ce à dire que l’informatique s’est radicalement convertie à une idéologie libertaire ? C’est assez loin d’être le cas.
Open source, logiciel libre : liberté, égalité ? C’est le problème à trous que nous allons examiner dans l’heure qui vient. Bienvenue dans La Méthode scientifique.
Et pour évoquer ces questions et ces philosophies de l’informatique nous avons le plaisir de recevoir aujourd’hui Stéfane Fermigier, bonjour.
Stéfane Fermigier : Bonjour.
Nicolas Martin : Vous êtes président du groupe thématique Logiciel Libre dans Systematic, coprésident du Conseil National du Logiciel Libre, et PDG de la société Abilian et Alexandre Hocquet, bonjour.
Alexandre Hocquet : Bonjour.
Nicolas Martin : Vous êtes historien des sciences, professeur attaché aux Archives Poincaré de l’Université de Lorraine.
Vous pouvez suivre cette émission, comme chaque jour en direct sur les ondes de France Culture, sur votre poste de radio mais aussi en replay sur le site franceculture.fr et en podcast quand bon vous semble via votre application préférée qui n’est vraisemblablement pas sous logiciel libre comme on aura l’occasion de le dire dans quelques instants.
Pour commencer rien de tel qu’une bonne petite analogie pour bien définir ce dont il va être question tout au long de cette heure via un extrait, celui d’un documentaire qui fait office un peu de référence en matière de vulgarisation du sujet. Ce documentaire s’appelle Nom de code : Linux [1], il est signé par Hannu Puttonen et il est sorti en 2002. Linux c’est ce système d’exploitation open source, un logiciel libre qui est l’un des piliers fondateurs de ces mouvements. Écoutez comment il est défini dans ce documentaire.
Voix off, traduction des propos de Richard Stallman : Permettez-moi de faire une analogie entre les programmes informatiques et les recettes de cuisine. Il existe de nombreux points communs entre un logiciel et une recette, avec une liste d’étapes à suivre, des règles qui déterminent à quel moment vous avez fini ou comment revenir en arrière. À la fin on obtient un certain résultat.
Si vous aimez cuisiner, vous échangez sans doute vos recettes avec vos amis et vous êtes probablement amené à les modifier. Si vous avez modifié votre recette, que le résultat vous plaît et que vos amis s’en régalent, il y a des chances pour que vous leur donniez la nouvelle version de cette recette.
Et maintenant imaginez un monde dans lequel vous ne pourriez pas changer votre recette parce que quelqu’un aurait décrété qu’il est impossible de la modifier. Et imaginez que si vous partagiez quand même la recette avec vos amis, il vous traiterait de pirate et ferait tout pour vous envoyer en prison pendant des années.
Nicolas Martin : Voilà le logiciel et la cuisine. Finalement cette analogie a du bon, elle est extrêmement claire. Une réaction, peut-être, Stéfane Fermigier.
Stéfane Fermigier : Il m’a semblé reconnaître la voix de Richard Stallman dans ce documentaire, qui est le père fondateur du logiciel libre en 1983. Pour moi le logiciel libre, l’open source c’est une continuité et il y a une évolution sur les 35 dernières années maintenant, où on est passé bien sûr d’une logique un peu idéaliste telle qu’elle est exprimée par Richard Stallman à une industrie qui représente les milliards et même les centaines de milliards de dollars maintenant comme vous l’avez évoqué en début d’émission.
Nicolas Martin : Alexandre Hocquet.
Alexandre Hocquet : Ce qui est intéressant dans l’analogie avec la recette de cuisine c’est qu’en fait il existe un entrepreneur qui a créé un repas complet dont la licence est une licence libre donc qui est modifiable, contrairement à la recette du Coca-Cola par exemple.
Nicolas Martin : Qui serait une sorte de recette propriétaire pour le coup.
Alexandre Hocquet : Bien sûr. La recette libre, ça s’appelle le Soylent. Son but c’est aussi de partager et de faire améliorer la recette au monde entier.
Nicolas Martin : Du moment que ce n’est pas Soylent Green…
Alexandre Hocquet : C’est la référence à Richard Fleischer…
Nicolas Martin : …Mais Soylent ce n’est pas forcément très bon à manger pour tout le monde. Peut-être un mot pour rappeler que ce qu’on va définir aujourd’hui, les débuts de l’informatique, même les débuts d’Internet se passent, au maximum, en tout cas les grands entrepreneurs du secteur essayent au maximum de développer des langages propriétaires. On l’a oublié aujourd’hui, mais au début d’Internet AOL, Infonie en France, essayent de développer des plateformes en langage propriétaire qui ne soit pas accessible, lisible, transformable par tout le monde, Stéfane Fermigier.
Stéfane Fermigier : Effectivement. Là on est sur la question des standards ouverts qui dépasse, d’ailleurs, et qui est plus profonde que la notion de logiciel libre puisqu’elle concerne l’interopérabilité entre différents types de logiciels. Là, en l’occurrence, ce sont les logiciels côté serveur qui restent la propriété des géants, maintenant des géants d’Internet, et puis ceux que l’utilisateur final ou l’entreprise a sur son poste de travail ou dans son téléphone qui est ce qu’on appelle le navigateur.
Là il y a eu un mouvement effectivement très fort à la fin des années 90 de standardisation, l’arrivée du Web, d’HTML[HyperText Markup Language], le standard HTTP [Hypertext Transfer Protocol] et tout ce qui est venu derrière et qui a aussi été un moteur formidable pour l’évolution du logiciel libre et le fait que le logiciel libre a réussi à percer face à des positions qui semblaient inexpugnables d’acteurs propriétaires comme Microsoft.
Nicolas Martin : Alexandre Hocquet on a dire qu’effectivement que l’âge d’or, un peu, du logiciel libre ce sont les années 90-2000 et qu’aujourd’hui on est dans une sorte de contre-mouvement avec l’arrivée massive de la téléphonie par des opérateurs qui font disparaître derrière des interfaces propriétaires tout ce qui peut être justement accessible, programmable, développable. Est-ce que c’est la réalité ? Est-ce que c’est ce que vous ressentez ?
Alexandre Hocquet : Oui. Je peux aussi rebondir sur le fait de citer Microsoft. En tant qu’historien du logiciel, il y a une chose qui est intéressante, c’est que l’histoire de l’ordinateur est souvent faite sous l’angle de l’histoire du matériel. C’est une histoire à la limite hollywoodienne dans le fait d’être de plus en plus puissant, de plus en plus rapide, ce qui est vrai et le software, là-dedans, est souvent un peu laissé de côté. Depuis que le software existe, si vous voulez, c’est une industrie qui est en crise, en fait. Le software crisis c’est quelque chose qui date de 1967, si je me souviens bien, et qui est, grosso modo, l’idée que le design, la programmation, la diffusion, la portabilité, la maintenance, le support, tout ça font que le rythme de production est impossible à tenir vu l’évolution du matériel et que le software n’est jamais un produit fini en fait.
Donc la stratégie de Microsoft dans les années 80, qui a quand même supplanté en tant qu’entreprise de logiciels IBM qui était une entreprise de matériel, c’est qu’elle a eu une stratégie de captivité : le logiciel s’en sort, en fait il est florissant si les utilisateurs ne peuvent pas partir, puisque de toute façon le logiciel ne marche pas. D’où l’idée de propriétaire, et le Libre et l’open se sont construits en réaction à cette ambiance-là. Si vous me permettez juste un détail à propos du matériel cette fois, c’est que si le Libre de Stallman, de tout ce qui est free, a pu dans les années 80 s’implanter c’est aussi que le matériel, le personal computer, le PC qui est un objet standard, modulable l’a permis et, pour rebondir sur votre question, effectivement depuis que le téléphone a supplanté l’ordinateur alors ça devient de plus en plus dur.
Nicolas Martin : Oui, Stéfane Fermigier.
Stéfane Fermigier : Je ne suis pas d’accord pour dire que l’âge d’or du logiciel libre serait derrière nous ; au contraire ! Quand on regarde le poids économique de la filière du logiciel libre, je pense qu’on en reparlera, quand on regarde les opportunités qu’elle offre aux gens qui veulent démarrer, les start-ups. On parle de « start-up nation » depuis un an ou deux en France, mais c’est un phénomène mondial et ça ne pourrait pas être possible si tous les outils de développement pour développer des applications web, des applications mobiles, de l’intelligence artificielle depuis un ou deux ans qu’on s’y intéresse de près, n’étaient pas disponibles aujourd’hui en logiciels libres, avec tout ce qui va autour, même les outils pour apprendre. Et on voit aussi dans la réforme de l’enseignement scolaire en France qu’on va apprendre à nos jeunes à coder ; on utilise le mot « coder » ; moi je préfère « programmer ». Allez, on va utiliser la terminologique ambiante.
Nicolas Martin : On avait consacré justement une émission entière à l’apprentissage du code ou du programme informatique sur lequel nous avions largement débattu. On va mettre le lien sur le fil Twitter de l’émission. Un mot pour conclure cette introduction, si vous m’autorisez cet oxymore ; le film d’Hannu Puttonen se conclut par cette phrase que je trouve intéressante : « ce serait peut-être l’une des plus grandes opportunités manquées de notre époque si le logiciel libre ne libérait rien d’autre que du code ». Vous avez le sentiment qu’aujourd’hui le logiciel libre a libéré un peu plus que du code ? Ou au contraire, que les portes se sont refermées un peu plus vite que ce qu’on imaginait, Stéfane Fermigier ?
Stéfane Fermigier : Certainement ; c’est un mouvement bien sûr économique, technologique quand on le regarde uniquement sous l’angle du logiciel, mais on voit que ça a influencé d’autres domaines : on parle d’open hardware, donc du matériel libre, bien sûr des recettes de certains produits alimentaires on va dire ; on parle d’open data, en partant aussi de la phrase connue qui est que la donnée serait l’essence ou le pétrole du 21e siècle ; on parle d’open science aussi. On est dans une émission scientifique, le logiciel libre vient au départ peut-être de concepts qui venaient de la science : l’idée de revue par les pairs est absolument fondamentale dans la recherche scientifique. Eh bien maintenant la science reprend l’idée du logiciel libre qui est la reproductibilité, donc l’idée qu’il faut absolument publier l’ensemble des outils qui ont été utilisés pour produire un résultat scientifique et non pas simplement une feuille de papier avec des mots et quelques formules.
Nicolas Martin : Alexandre Hocquet.
Alexandre Hocquet : C’est la devise de Framasoft [2], en fait, la citation que vous venez de citer. Il y a un autre exemple encore plus simple, que le grand public connaît bien, c’est Wikipédia en fait. Wikipédia c’est la transcription dans un monde connu du grand public de principes politiques du logiciel libre.
Voix off : La Méthode scientifique – Nicolas Martin
Nicolas Martin : À 16 heures 10 sur France Culture nous parlons de logiciel libre et d’open source ; vous allez voir que ça n’est pas tout à fait la même chose, mais on va justement essayer de préciser cette différence dans quelques instants. Nous en parlons avec Stéfane Fermigier et Alexandre Hocquet. Eh bien justement, commençons peut-être par là, Alexandre Hocquet : logiciel libre, open source, est-ce qu’on parle de la même chose ? Est-ce qu’on ne parle pas de la même chose ?
Alexandre Hocquet : Bien sûr, cette fameuse distinction est source de tensions. Si vous me permettez de remonter dans le temps un peu plus loin que les années 80 et Richard Stallman.
Nicolas Martin : Bien sûr.
Alexandre Hocquet : En fait le mot open on le retrouve chez un philosophe que vous aimez bien citer, Nicolas, qui est Karl Popper.
Nicolas Martin : On en parle effectivement assez souvent dans cette émission.
Alexandre Hocquet : Vous connaissez Popper pour sa méthode de la réfutation. Le but de la réfutation c’est de tracer une frontière entre ce qui est science et ce qui ne l’est pas. L’idée derrière la tête de Karl Popper, ce qu’il visait comme n’appartenant pas à la science c’était le marxisme, le marxisme en tant que théorie scientifique de l’histoire. Pour Popper tout ce qui est vérité réfutable ne fait pas partie de la science. De la philo des sciences à la philo politique, Popper a écrit un libre pendant la Deuxième guerre mondiale qui s’appelle The Open Society and Its Enemies.
Nicolas Martin : La société ouverte et ses ennemis, donc.
Alexandre Hocquet : Voilà, exactement. Les ennemis de Popper, en l’occurrence, sont le communisme et le fascisme ou ce qu’il appelle le totalitarisme ; ce livre est une espèce de plaidoyer pour une société ouverte qui, grosso modo, correspond à la démocratie occidentale. La vision politique open de Popper est une critique de ce qui est immuable, une théorie individualiste pour qu’il y ait une diversité de la critique. Ce livre a été repris par Hayek, la Société du Mont-Pèlerin ; en fait il a été enrôlé dans une doctrine ultralibérale. Et c’est ça être open.
Open c’est un mot qui veut dire « gentil » en général, qui est facile à se définir contre ce qui est fermé mais qui est flou sur ce que c’est vraiment. Le paradoxe des années 80 c’est que pour les gens comme Stallman et donc du logiciel, c’est que l’ennemi c’est devenu justement cette société ultralibérale qui était promue par Hayek, ses multinationales, ses monopoles et donc le fait que ça provoquait quelque chose de fermé.
Du coup les principes ne sont pas si différents : anti-monopole, compétition juste, liberté en tant que libre marché, etc. Et c’est là où politiquement on fait une différence entre open et free, si vous voulez entre open et libre, c’est que la vision open est pragmatique, il s’agit de mettre la participation, la transparence, au service de l’efficacité qu’elle soit technique ou même business, tandis que la version free c’est un programme politique de résistance on peut dire, de lutte contre ce qui est propriétaire.
Nicolas Martin : On dit souvent effectivement pour essayer de distinguer, de faire le distinguo entre logiciel libre et open source, Stéfane Fermigier, que le logiciel libre ce serait finalement l’articulation philosophique de l’open source qui en serait l’adaptation méthodologique en quelque sorte.
Stéfane Fermigier : On peut voir ça comme ça. J’ai quand même tendance à dire que la différence entre les deux est très ténue. Donc il faut revenir un peu à l’histoire.
Nicolas Martin : À l’histoire peut-être. Repartons effectivement de Stallman.
Stéfane Fermigier : Pourquoi le mot open source a été introduit. Free software est une expression qui a été inventée essentiellement en 1983 ou 1984 par Richard Stallman et pendant 15 ans il y a eu un développement déjà assez considérable ; des dizaines, des centaines de logiciels libres ont été produits pas la Foundation Free Software Foundation [3], l’organisation qui a été montée par Richard Stallman, et plein d’autres gens, et on avait déjà une offre tout à fait foisonnante en 1998, mais il y avait deux problèmes. Pour moi le principal c’est quand même le mot free en anglais qui veut dire à la fois libre et gratuit. Et quand vous dites free software ou freeware on disait aussi à l’époque.
Nicolas Martin : Gratuiciel, si on peut le traduire en français.
Stéfane Fermigier : On pensait essentiellement à la gratuité. Je vais dire que le sujet est encore d’actualité aujourd’hui. Ce matin, en lisant mon flux d’actualités, je tombe sur un article en anglais, c’était I have made a free Photoshop clone, ask me anything. ; « J’ai fait un clone free de Photoshop, posez-moi toutes vos questions ». Je me suis demandé, allez 50-50, 90, c’est quoi la probabilité que le mot free veuille dire « libre » et quelle est la probabilité qu’il veuille dire « gratuit » dans ce domaine qui est quand même le domaine du logiciel ; on parle d’un domaine sur lequel l’expression free software existe depuis 35 ans. Évidemment, le clone en question était gratuit, il n’était pas libre. Donc il y a vraiment un problème de branding.
Nicolas Martin : De marque.
Stéfane Fermigier : De marque pour un certain nombre de personnes dont certaines étaient des entrepreneurs ou associés, proches d’entrepreneurs, et qui se sont dit : on n’arrivera jamais à vendre quelque chose en le qualifiant avec un mot sur lequel il y a un risque fort d’ambiguïté. Elles ont inventé l’expression open source. Après elles ont pris une définition, qui n’est pas exactement la même que celle de Richard Stallman, mais, en pratique, il s’avère que ce sont tout le temps les mêmes logiciels qui sont à la fois free software et open source software. Donc en pratique, quand on a un logiciel, que l’on vous dise : « Tiens, prends ça c’est du logiciel libre » ou « Tiens c’est de l’open source » c’est la même chose.
Les gens qui travaillent dans ce domaine vont parfois avoir tendance à s’identifier plus à un mouvement qu’à un autre ou à une expression qu’à une autre. Il y a des gens qui sont effectivement plus attachés à l’éthique du développement logiciel et donc ils vont plutôt essayer d’utiliser « logiciel libre » ; d’autres, aussi parce qu’il y a une mode malheureuse en informatique en France qui est d’utiliser systématiquement les mots américains ; on n’ose même plus dire « informatique » on dit « je fais de l’IT », c’est beaucoup plus fashionable.
Nicolas Martin : À la mode.
Stéfane Fermigier : Voilà ! Donc on dit open source soit pour faire plus américain, ça fait plus sérieux ! Ou simplement pour lever l’ambiguïté, même si certains Français n’ont pas pensé que « libre », finalement, il n’y avait pas le problème en français, donc on peut continuer. Moi, personnellement, j’utilise les deux indifféremment ; j’essaie dans mes phrases, dans le même paragraphe, d’utiliser une fois l’un une fois l’autre pour ne vexer personne et surtout pour essayer d’unifier, de garder une cohésion au sein de notre communauté.
Nicolas Martin : L’open source, Alexandre Hocquet, ce serait du coup, une sorte de compatibilité de la logique d’entreprise avec ce qu’est, finalement, la pensée éthique du logiciel libre.
Alexandre Hocquet : Effectivement et rhétoriquement c’est assez compatible avec le fait que les gens qui sont plutôt du côté open source considèrent que finalement c’est à peu pareil, tandis que ceux qui sont du côté free software considèrent, que eh bien non, c’est vraiment différent. Une manière technique mais simple de résoudre l’ambiguïté c’est de s’intéresser à la licence du logiciel. Il y a des licences qui sont clairement du côté free software et d’autres qui ne sont pas compatibles avec le free software.
Stéfane Fermigier : Non !
Alexandre Hocquet : Eh bien si ! Tout simplement, par exemple, si on s’intéresse aux licences Creative Commons.
Nicolas Martin : On peut redire en quelques mots de quoi il s’agit pour les gens qui ne sont pas complètement bilingues avec le langage informatique et avec ce type de terminologie.
Alexandre Hocquet : La licence, c’est ce qui va permettre la diffusion du logiciel sous certaines conditions. En particulier, pour ce qui est de la licence Creative Commons [4], ça peut s’appliquer à autre chose que des logiciels, par exemple une recette de cuisine.
Nicolas Martin : À une photographie ; à un document que l’on met en ligne dont on accepte qu’il soit partagé indéfiniment, par exemple.
Alexandre Hocquet : Par exemple une encyclopédie en ligne ; c’est ça.
Donc il y a une clause dans la licence Creative Commons qui s’appelle Share Alike, qu’on peut mettre ou ne pas mettre, et qui fait toute la différence entre quelque chose qui est considéré comme du coup free et quelque chose qui est considéré comme open. C’est-à-dire que le fait de mettre Share Alike ça oblige celui qui reprend à rester dans le monde du free. Ça veut dire que la vision politique du free c’est de dire, idéalement, le monde entier serait sous cette forme-là, donc on va essayer de propager cette idée. Tandis que du côté open, là on est beaucoup plus pragmatique.
Nicolas Martin : Peut-être un mot pour préciser cette mention Share Alike, c’est-à-dire que concrètement qu’est-ce que ça change vis-à-vis de la capacité à partager ou à modifier le document ou le logiciel quel que soit ce qui a été mis en ligne.
Stéfane Fermigier : J’ai deux objections.
La première c’est d’introduire les licences Creative Commons qui ne sont pas faites pour le logiciel, effectivement qui viennent de l’univers du logiciel libre mais qui ont été appliquées à des objets qui sont plutôt des œuvres d’ordre artistique, on va dire.
La deuxième, effectivement, c’est de dire qu’il y aurait des licences qui seraient open source au sens reconnu par l’Open Source Initiative qui est l’organisme qui certifie les licences open source.
Nicolas Martin : L’OSI [5].
Stéfane Fermigier : Et le free Software.
Nicolas Martin : La FSF, la Free Software Foundation.
Stéfane Fermigier : Encore une fois les définitions précises sont différentes mais sont vraiment très similaires. La définition FSF est plus vague, elle rentre moins dans les détails. La définition OSI est plus opérationnelle. La définition OSI vient de la communauté Debian qui est une communauté de gens qui sont vraiment à fond pour le logiciel libre, donc on ne peut les accuser d’avoir de mauvaises intentions.
Maintenant dans les licences il est vrai aussi qu’il y a essentiellement deux grands types de licences, les licences dites à copyleft [6] et les licences dites permissives — on utilise souvent ce terme —, qui viennent aussi de deux idéologies différentes et qui ont des applications business différentes.
Copyleft c’est essentiellement ce que vous appelez Share Alike, c’est-à-dire on demande aux gens qui vont utiliser mon logiciel de respecter ma volonté, de faire en sorte qu’il soit diffusé plus largement et donc de rediffuser toute modification dans certaines circonstances — il y a un certain nombre de points de détails —, mais de façon à en faire profiter le maximum.
Et les licences dites permissives, la plus connue étant la licence BSD [7] qui vient d’une communauté très forte aussi, celle des UNIX BSD, qui est une autre forme de système d’exploitation libre où, au contraire, les gens sont tout à fait contents qu’on utilise le logiciel sans qu’il y ait forcément de réciprocité.
Donc il y a tout un éventail, il y en a peut-être 70 ; il y en a une dizaine ou une quinzaine qui sont vraiment importantes. Elles peuvent être classées en deux ou trois catégories. Il est important de bien les connaître. Il y a des enjeux juridiques forts quand on est développeur, quand on est chef d’entreprise, quand on est chercheur et qu’on veut valoriser sa recherche pour choisir les bonnes licences en fonction d’un usage. Évidemment ça peut être aussi en fonction d’une idéologie qu’on a soi-même, mais c’est aussi en fonction de l’usage qu’on veut en faire en termes, par exemple, de valorisation.
Nicolas Martin : On en va pas trop s’éterniser non plus sur ces différences-là qui sont certes importantes, mais il y a quand même énormément d’autres choses à dire. Peut-être qu’on peut revenir quelques instants sur l’évolution de la pensée et de l’introduction dans le monde de l’informatique de cette pensée du logiciel libre, de comprendre en quoi elles s’opposent. Quel est le point de départ en fait ? On a parlé de Richard Stallman, on l’appelle rms parce qu’il s’appelle Richard Matthew Stallman tout simplement, à l’origine il est programmeur au MIT. D’où ça vient ? Pourquoi cette volonté à un moment donné de sortir, de casser le langage propriétaire pour pouvoir donner accès au plus grand nombre, Alexandre Hocquet ?
Alexandre Hocquet : Il y a la fameuse anecdote de l’imprimante Xerox de Richard Stallman [8] ; elle est fondatrice au sens où la vision, du coup, du free software, la vision Stallman compatible est très liée à une opposition à ce qui est propriétaire, qui prive les utilisateurs de possibilité de voir le code, possibilité de modifier le code ; ce sont les quatre libertés fondamentales.
Nicolas Martin : Qui sont les fondatrices de la FSF, les 4 libertés fondamentales numérotées de 0 à 3.
Alexandre Hocquet : C’est ça. Politiquement il y a vraiment un côté résistance de ce point de vue-là qui, à mon avis, est absent de la culture open source qui, au contraire, s’adapte.
Nicolas Martin : On peut les redonner rapidement :
- la liberté 0, c’est la liberté d’exécuter le programme pour tous les usages ;
- la liberté 1, la liberté d’étudier le fonctionnement du programme et de l’adapter à ses besoins ;
- la liberté 2, la liberté de redistribuer des copies du logiciel ;
- la liberté 3, la liberté d’améliorer le programme et de publier ses propres améliorations.
Alexandre Hocquet : C’est ça.
Nicolas Martin : Donc ça c’est le point de départ. À partir de là Stallman ne se contente pas de développer, enfin de poser les jalons, les bases de ce que veut être la FSF ; il va développer ce qu’on appelle le projet GNU ; vous voulez nous en dire un mot, s’il vous plaît, Stéfane Fermigier.
Stéfane Fermigier : Il y a, à un moment, le double génie de Richard Stallman c’est à la fois d’avoir des idées d’ordre philosophique et de les traduire sous une forme juridique assez complexe, comme tous les sujets juridiques, mais ça a été aussi de mettre en œuvre son programme. Parce que s’il s’était contenté d’être juste un agitateur d’idées, on n’en serait pas là.
Il a commencé d’abord tout seul, ou avec peut-être avec deux ou trois personnes, à créer les logiciels nécessaires pour faire ce qu’on appelle un système d’exploitation ; donc c’est l’ensemble des logiciels qui sont nécessaires pour faire tourner un ordinateur d’usage courant. À l’époque, le système dominant c’était déjà Windows, on connaît MacOS qui existait déjà aussi. Lui il est parti d’un truc qui était moins connu du grand public certainement, qu’on appelle UNIX, qui remontait aux années 70, qui pendant toutes les années 70 avait été essentiellement libre ; il était libre dans les faits mais pas juridiquement au sens où les universités, les laboratoires de recherche et certains industriels s’échangeaient librement le code source, amélioraient le code source du système UNIX jusqu’au moment où AT&T est arrivé.
Nicolas Martin : AT&T qui est un grand opérateur téléphonique américain.
Alexandre Hocquet : Voilà, et qui a racheté Bell Labs d’où sortait le système UNIX et qui a dit : « À partir de maintenant on passe à la caisse, on va essayer de monétiser », pour utiliser ce mot affreux.
Richard Stallman était contre la monétisation, en tout cas par le biais de la vente de licences, et il a entrepris, vraiment avec son talent de développeur et l’aide de quelques personnes, d’écrire les outils fondamentaux pour créer un système d’exploitation complet en commençant par ce qu’on appelle le compilateur, c’est-à-dire l’outil qui permet de traduire d’un langage source vers un programme exécutable. C’est un effort colossal, monumental et, à la fin des années 80, au début des années 90, il n’avait toujours pas vraiment avancé sur un sujet primordial qu’on appelle le noyau. Le noyau c’est le bout de programme qui est vraiment l’interface entre la machine et les programmes que l’utilisateur exécute. Et c’est là qu’il y a un deuxième programmeur extrêmement doué et également une personnalité extrêmement forte qui est arrivé, Linus Torvalds [9] qui lui, jeune étudiant d’une vingtaine d’années s’est dit : pour m’amuser je vais faire un noyau et je vais l’appeler Linux parce que ça sonne bien avec mon prénom.
Comme on dit le reste appartient à l’Histoire. Linux est devenu un système dominant. Il faut savoir que c’est le système qui est dans Android.
Nicolas Martin : Aujourd’hui.
Alexandre Hocquet : Android équipe 90 % des téléphones portables dans le monde. Il y a, je ne sais trop combien de milliards de téléphones, de smartphones dans le monde donc presque tout le monde a un Linux dans sa poche.
Nicolas Martin : Peut-être un mot aussi de contexte sur la popularité des débuts de ce mouvement puisque Stallman fonde la Free Software Foundation en 1985. On est vraiment au tout début de l’informatique grand public, à l’époque de la multiplication des marques encore une fois, des langages propriétaires où, au contraire, il y a plein d’opérateurs qui apparaissent dans le secteur et qui comptent bien monétiser au maximum leurs programmes, leurs langages à eux développés maison et de les rendre les moins compatibles. On n’est pas du tout dans une logique de réseau et de partage à cette époque-là, Alexandre Hocquet.
Alexandre Hocquet : Oui. Mais paradoxalement ces deux idées, à la fois le côté Microsoft de cette époque-là de la domination du monde par le logiciel et, comment dire, toutes les histoires à propos de Stallman et ensuite de Linus Torvalds qu’on vient de raconter, leur point commun est d’avoir, ce que je disais tout à l’heure, un matériel qui était le personal computer, le PC, qui s’adaptait à ça. C’est-à-dire qu’avant le PC on avait des superbes computers ou des minis-computers, des modèles qui étaient tous différents ; des marques avec toutes leurs propres systèmes d’exploitation, complètement incompatibles les uns avec les autres et depuis on a des téléphones qui effectivement sont tous, à 90 % sous un système Linux, mais un système Linux proposé par Android, donc par Google, qui est partiellement libre.
Nicolas Martin : Ou partiellement propriétaire.
Alexandre Hocquet : Ou partiellement propriétaire. Du coup, comme les téléphones sont eux aussi très différents matériellement, c’est très compliqué d’avoir par exemple Lineage [10], un système Android Linux débarrassé de Google ; chaque protocole pour chaque téléphone est très différent : c’est très complexe d’avoir quelque chose d’effectivement entièrement libre dans son téléphone.
Nicolas Martin : Entre 1985 et 1998, entre Stallman, Eric Raymond et Bruce Perens qui vont être à l’origine justement de l’Open Source Initiative que se passe-t-il ? Et pourquoi ce besoin de traduire cette Free Software Foundation, ce logiciel libre dans une autre forme, finalement, plus « entreprise compatible » entre guillemets. Alexandre Hocquet ?
Alexandre Hocquet : J’en reviens aux licences. C’est-à-dire que si vous considérez que votre but ce n’est pas que le monde entier soit libre, mais de développer des outils qui soient le plus possible compatibles avec vos outils et les outils qui existent dans le monde, du coup vous développez des choses que vous allez pouvoir essayer de rendre compatibles avec des choses qui sont propriétaires. Effectivement par exemple, que ce soit Google ou Microsoft, ce sont aujourd’hui des entreprises qui contribuent énormément au logiciel open source, pas avec la philosophie de rendre le monde entier libre, mais avec la philosophie, comment dire ça, de développer des communautés qui puissent participer à des outils, donc de rendre compatible cette vision du logiciel avec leur propre agenda économique ou politique.
Nicolas Martin : Stéfane Fermigier.
Stéfane Fermigier : Ce qui s’est passé effectivement autour de 1997-1998, c’est l’émergence de sociétés de plus en plus importantes qui ont fondé leur modèle d’affaires et, comment dire, qui ont réutilisé de manière extrêmement profonde le logiciel libre qui avait été développé un peu dans la nature soit par la Free Software Foundation de manière très structurée, mais aussi de manière beaucoup plus diffuse par une multitude d’acteurs, y compris Linus Torvalds et tous les gens qui tournaient autour du noyau Linux. Donc il y a un certain nombre de sociétés qui se sont créées pour distribuer sous une forme packagée, sous une forme vraiment utilisable par, je ne dirais peut-être pas déjà le grand public mais en tout cas un public beaucoup plus large que le public d’informaticiens qui était celui du départ et ces sociétés sont montées en gamme. Au début elles ne faisaient essentiellement que vendre des CD, souvent par correspondance, avec des petites annonces dans les magazines et, progressivement, elles se sont dit : non, si on veut vraiment développer notre activité il faut aller voir des entreprises » ; des entreprises qui déjà à l’époque pensaient à remplacer leurs UNIX propriétaires, donc des machines assez chères, avec des marges énormes côté constructeur, par du PC générique, du PC finalement acheté à un coût beaucoup moins élevé, mais avec le logiciel qu’il fallait trouver pour avoir le même type de service que ce qu’on avait avant.
Donc il y a eu cette bascule. C’est vraiment le monde économique ou, en tout cas, une partie du monde économique qui a voulu s’emparer, qui s’est emparé du sujet, mais qui s’est retrouvé face à ce problème de marque, d’image de marque et de branding dont je parlais tout à l’heure.
Pause musicale : Logiciel par Isolee.
Nicolas Martin : Le titre de ce morceau ne vous aura certainement pas échappé. Morceau du groupe Isolee qui s’appelle donc Logiciel, puisque nous parlons d’open source et donc de logiciel libre tout au long de cette heure. Nous en parlons avec Stéfane Fermigier qui est président du groupe thématique Logiciel Libre dans Systematic, coprésident du Conseil National du Logiciel Libre et PDG de la société Abilian ; avec Alexandre Hocquet, historien des sciences, professeur attaché aux Archives Poincaré de l’Université de Lorraine. Comme tous les mercredis aux alentours de 16 heures 30 c’est l’heure de retrouver La Recherche montre en main.
Tous les mercredis la voix d’un jeune ou d’une jeune chercheuse qui vient nous parler de ses travaux de recherche ; aujourd’hui c’est un jeune chercheur. Ivaylo Ganchev bonjour.
Ivaylo Ganchev : Bonjour.
Nicolas Martin : Vous êtes en thèse au laboratoire d’informatique avancée de Seine-Saint-Denis de l’Université Paris 8 Vincennes – Saint-Denis ; vous travaillez sur « Bugs, failles et sécurité dans la conception, la construction et la compréhension de logiciels. Applications au logiciel libre ». Bienvenue à La Recherche montre en main ; c’est à vous.
Ivaylo Ganchev : Merci beaucoup ; merci pour cette invitation.
Nous voulons tous utiliser des logiciels sans bogues et bénéficier d’une expérience utilisateur décente. Or la maintenance, dans le logiciel, est une activité très coûteuse. Selon les auteurs, les estimations varient entre 40 % et 90 % du coût initial du projet. Eh oui, ça coûte presque aussi cher de maintenir un logiciel que de le produire.
Pour cette raison, les éditeurs de logiciels essaient d’anticiper, de corriger les bogues avant le lancement d’une version. Pour cela différentes techniques sont utilisées.
Historiquement la méthode formalisée et la plus ancienne est celle qu’on appelle la complexité cyclomatique de McCabe.
Une autre méthode consiste à utiliser des fuzzers.
Ma recherche fait partie d’une troisième voie : l’analyse des métadonnées des dépôts logiciels. Dans mon cas il s’agit bien de dépôts de logiciels libres.
Métadonnées, ce sont des données qui expliquent des données. Par exemple, si on considère qu’un fichier de code source est une donnée, les métadonnées sont des informations comme : qui a produit la dernière modification du fichier, à quelle heure et depuis où ; ou encore combien de lignes ont été modifiées depuis la dernière version. On peut appeler cela des métadonnées simples ou non-liées.
On distingue aussi des métadonnées complexes qui nécessitent le recoupement de plusieurs métadonnées simples voire des informations provenant de plusieurs dépôts différents, par exemple combien de personnes ont travaillé sur un fichier, comment organiser le réseau des développeurs entre différents modules d’un programme, le temps de résolution d’un bogue ou bien le nombre de bogues par version.
Ma recherche consiste dans le fait d’explorer différents dépôts de données, principalement des dépôts de code source ou des dépôts de bogues, de récupérer et d’analyser les métadonnées à la recherche d’informations pertinentes.
La plupart du temps la récupération est simple, car les dépôts sont ouverts et en ligne. Il suffit de lancer des petits robots qui vont aller récupérer les métadonnées et les intégrer à une base de données locale.
Par la suite je procède au traitement et à l’analyse des données. J’utilise soit des outils disponibles librement, soit des outils que j’ai fabriqués dans le cadre de ma recherche. La plupart des problèmes que je rencontre sont des problèmes propres au domaine des mégadonnées ou big data en anglais. Par exemple, la qualité des données n’est souvent pas au rendez-vous et on doit passer un certain temps à les nettoyer. Ou bien on doit interconnecter des bases qui ne sont que très peu liées entre elles.
Finalement, si j’observe des résultats intéressants, je gratte un peu plus pour voir si on n’a pas trouver une métrique intéressante.
Actuellement je me focalise sur la recherche des métriques autres que celles déjà trouvées qui me permettent de déceler des parties d’un logiciel qui contiennent des bogues.
Eh oui, en analysant seulement les métadonnées on peut trouver, avec une confiance relativement importante, les endroits qui contiennent potentiellement des bogues. On peut aussi trouver des périodes de la semaine ou de la journée pendant lesquelles, statistiquement, on commet le plus de bogues et attirer l’attention des meneurs d’un projet sur ces points.
Au-delà de la recherche des endroits avec des bogues, je m’intéresse aussi à des questions comme les cycles de vie d’un logiciel et les étapes de son évolution.
Bien sûr, au-delà des dépôts de code source et des bogues, on peut analyser d’autres types de dépôts comme les archives des listes de diffusion, les archives de chat IRC ou encore les archives documentaires comme les wikis.
Du fait de l’ouverture du processus de développement les logiciels libres et à code ouvert fournissent d’énormes quantités de données qui ne demandent qu’à être explorées et exploitées.
Ces données peuvent être et sont utilisées à dresser des profils des projets : combien de développeurs actifs se trouvent derrière un projet ; est-ce qu’il y a des sociétés derrière un projet libre ; est-ce qu’il y a une communauté active ; quel est le temps moyen de résolution d’un bogue, etc.
Tout ceci est fait dans le but d’améliorer la qualité des programmes et de permettre aux utilisateurs d’avoir des logiciels avec moins de bogues. Cela permet aussi à des décideurs de savoir facilement si l’intégration d’un logiciel libre dans un système d’information est risquée ou non.
Cette activité de recherche fait partie d’un domaine de recherche qui s’appelle Empirical Software Engineering. Plusieurs conférences et journaux existent sur le sujet comme la conférence annuelle Mining Software Repositories.
Ce domaine n’est pas propre au logiciel libre. Les grands groupes industriels se sont approprié ces techniques et les utilisent en permanence pour améliorer la qualité de leurs produits.
Ce qu’apportent les logiciels libres, ce sont les grandes quantités de données disponibles librement. Ceci facilite énormément la recherche. Par exemple on n’est pas lié par des clauses de non-divulgation ou bien des restrictions d’accès au code source. Le point le plus important est certainement le fait que toutes les découvertes peuvent être vérifiées et toutes les expériences refaites.
De plus, personnellement étant utilisateur de logiciels libres de longue date, c’était un moyen modeste de faire un retour à la communauté et ainsi de contribuer à ce mouvement extraordinaire que sont les logiciels libres.
Nicolas Martin : Merci beaucoup Ivaylo Ganchev pour votre présentation. Je vous voyais sourire, à un moment donné, Alexandre Hocquet. Effectivement on sent, et c’est quelque chose d’important qu’on n’a peut-être pas vraiment évoqué dans la première partie de cette émission, l’importance, la puissance de la communauté qui est autour de la notion de logiciel libre qui est effectivement une communauté qui est soutenue par ce mouvement qu’on pourrait considérer comme un mouvement social.
Alexandre Hocquet : La communauté c’est effectivement ce qu’il y a de plus important. Dans l’introduction, si je me souviens bien, vous mentionniez le rachat de GitHub par Microsoft.
Nicolas Martin : Par Microsoft, on en a parlé.
Alexandre Hocquet : En fait GitHub est une plateforme qui est propriétaire et qui est rachetée par une entreprise propriétaire. Pourquoi la communauté du Libre pourrait s’émouvoir d’un tel rachat ? C’est qu’en fait GitHub est l’endroit où la communauté du Libre dépose ses logiciels. Donc c’est un endroit qui est important pour la communauté.
Et il y a quelque chose de très important dans le Libre, pour le coup que ce soit open source ou free software, c’est la notion de forking, l’idée qu’un projet peut se séparer en deux à n’importe quel moment : c’est à la fois une grande liberté propre au Libre et une grande menace parce que ce qui fait qu’un projet logiciel va mourir ou pas c’est la vitalité de sa communauté. Si on la divise en deux, on prend beaucoup de risques.
Une autre chose qui est importante dans la question de la communauté, qui est très liée à la période actuelle qui est différente de celle des débuts du Libre, c’est que le logiciel lui-même devient plus rarement le composant critique de la compétitivité. Du coup c’est plus facile de libérer beaucoup de code et de se concentrer sur rendre propriétaire seulement ce qui est à reprendre, comme GitHub par exemple, et la stratégie consiste à rendre open tout ce qui n’est pas grave d’être piqué. Donc pouvoir profiter d’une communauté de développeurs, du coup c’est typique du capitalisme qui absorbe sa critique, si vous voulez ; c’est profiter d’une main d’œuvre.
Nicolas Martin : Stéfane Fermigier.
Stéfane Fermigier : J’ai une remarque par rapport à tout le travail qui a été présenté, c’est qu’il s’appuie sur un corpus de méthodologies de développement qui s’est développé on va dire depuis peut-être une vingtaine d’années à peu près, à la création de SourceForge, ce qu’on a appelé les forges logicielles. Une forge logicielle c’est une application web, un site web collaboratif, l’ancêtre des réseaux sociaux si on veut, où les développeurs se regroupent autour de projets et vont contribuer en utilisant des outils de développement, mais des outils de développement qui sont faits pour le 21e siècle on va dire, donc des outils pour gérer le code source, des outils pour communiquer et, notamment, des outils pour communiquer les problèmes ou les améliorations à apporter sur une base de code.
À l’aide de ces différents outils on est capable de récupérer, comme l’a dit Ivaylo, les données ou les métadonnées ; il y a plusieurs types de recherche, là il s’attache aux métadonnées ; on peut aussi travailler directement sur les données, sur le code source lui-même, analyser les milliards de lignes de code source. Ça a un intérêt scientifique, ça a aussi un intérêt, maintenant, business. Il y a des entreprises, j’en connais quelques-unes, qui fournissent des outils d’analyse de code, en ligne, qui vont permettre aux entreprises qui prennent un abonnement d’améliorer, en tout cas de détecter les erreurs qu’il peut y avoir sur leur code, et qui sont, en général, mis à disposition gratuitement pour les logiciels libres. C’est à la fois du marketing, il ne faut pas le nier, mais c’est aussi une façon de redonner à la communauté quelque chose en retour.
Nicolas Martin : On en arrive aux temps présents, à l’heure actuelle avec un exemple important, une question centrale en tout cas, qui est la position de rôle de l’administration et des entités publiques vis-à-vis de l’open source et du logiciel libre. Bonjour Antoine Beauchamp.
Antoine Beauchamp : Bonjour Nicolas. Bonjour à tous, bonjour à toutes.
Nicolas Martin : Vous vous êtes rendu à l’ANSSI, qui est l’Agence nationale de la sécurité des systèmes d’information, pour examiner un système qui s’appelle CLIP OS, un système qui a pour vocation, précisément, de renforcer la sécurité informatique.
Antoine Beauchamp : Oui l’ANSSI, cette agence est rattachée en France au cabinet du Premier ministre et son but est d’assurer la défense des systèmes d’information de l’État mais aussi de conseiller et de soutenir les administrations et les opérateurs d’importance vitale dans leur sécurité informatique.
J’ai rencontré Vincent Strubel qui est sous-directeur de l’ANSSI et qui m’a parlé de CLIP OS, ce système d’exploitation développé par l’Agence et qui s’ouvre, grâce à l’open source, aux contributions extérieures. Vincent Strubel nous explique l’intérêt de l’open source dans le développement d’un système informatique comme CLIP OS et nous dit aussi pourquoi l’open source peut jouer un rôle dans la sûreté informatique et la protection d’informations sensibles, que ce soit au sein de l’administration ou bien d’industries dites critiques.
Vincent Strubel : CLIP OS est un système d’exploitation Linux, donc c’est ce qu’on appelle une distribution Linux. C’est un ensemble de logiciels qui forme tout l’environnement logiciel d’un ordinateur. Sa spécificité, c’est qu’il a été non pas écrit mais adapté par l’ANSSI pour renforcer sa sécurité. En particulier, il permet de cloisonner plusieurs environnements logiciels sur le même poste, c’est-à-dire qu’on a deux bureaux complètement isolés entre eux qui permettent de traiter des informations sensibles d’un côté et non sensibles de l’autre. Parce que par exemple on est connecté sur Internet mais en même temps on veut faire de la messagerie sensible ou administrer à distance des systèmes d’information critiques ou des choses comme ça, donc ça permet d’isoler ces deux cas d’usage. Plus généralement, c’est quelque chose qu’on a pensé pour résister aux attaques informatiques qu’on connaît, soit ne pas y être vulnérable, soit y être vulnérable mais moins qu’un système d’exploitation classique. Je prendrais l’analogie de la construction navale : quand on veut faire un bateau qui ne coule pas, non seulement on lui donne une coque solide mais en plus on le découpe en compartiments de telle sorte que quand il y a un trou dans la coque on perd un compartiment mais pas tout le bateau. Eh bien là on a fait pareil en informatique avec CLIP OS qui est découpé en compartiments, de telle sorte que si un virus, par exemple, prend la main quelque part sur un compartiment du système, il n’infecte pas tout et donc on garde l’essentiel.
Antoine Beauchamp : Ce système est développé en open source. Est-ce que tout le monde peut y contribuer ?
Vincent Strubel : Il n’a pas été initialement développé en open source. C’est quelque chose qui existe depuis plus dix ans à l’ANSSI, qui n’était pas conçu à la base pour faire de l’open source. Ça fait un moment qu’on se dit qu’on veut le publier ; on a été confronté au dilemme classique dans ce cas qui est : on a fait un développement insulaire, en vase clos, et ouvrir ça à des contributeurs externes ce n’est pas forcément leur faciliter la tâche parce que c’est devenu quelque chose de très compliqué. Donc là on saisit l’occasion d’une réécriture partielle, de reposer un certain nombre de concepts de base qui ont un peu vieilli ou qui pourraient être mieux faits maintenant et donc on ouvre une nouvelle version. On a publié la version antérieure à titre de référence, je ne pense pas qu’elle soit utilisable telle quelle par un extérieur à l’ANSSI. On ouvre le développement d’une nouvelle version, qui est dans un état assez préliminaire à ce stade, mais là-dessus toutes les contributions sont évidemment bienvenues.
Antoine Beauchamp : Qu’est-ce que vous répondez à ceux qui vous disent qu’une agence nationale de sécurité informatique ne doit pas se mélanger avec l’open source, avec l’ouverture ?
Vincent Strubel : Fondamentalement on ne s’interdit rien ; on cherche à remplir notre mission le mieux possible. Après il y a beaucoup de simplifications, on en sort un petit peu, mais sur l’open source et la sécurité, c’est peut-être l’occasion d’en contredire certaines. On affirme parfois un peu rapidement que l’open source c’est contraire à la sécurité parce que l’attaquant peut voir le code source du logiciel qu’il cherche à attaquer. Ce n’est pas vrai en général. D’un point de vue théorique il y a quelque chose qui s’appelle le principe de Kerckhoffs, qui vient de la cryptographie, qui dit qu’une solution ne doit pas reposer pour sa sécurité sur le secret de son implémentation ; c’est un peu complexe à dire mais ça veut dire que si la solidité de la solution dépend du fait que l’attaquant ne sait pas comment elle est conçue ça ne marchera jamais. Et c’est très vrai dans la pratique puisqu’un attaquant qui a accès à un logiciel, même sans son code source, peut largement conduire les analyses dont il a besoin pour ses finalités à lui.
A contrario on dit aussi, parfois, que l’open source c’est mieux pour la sécurité parce que tout le monde regarde le code source et donc les bugs sont trouvés plus vite. C’est potentiellement vrai pour certains grands projets open source qui ont des millions et des millions d’utilisateurs et de contributeurs ; c’est quand même beaucoup moins vrai pour la majorité des projets open source parce qu’ils sont potentiellement développés par deux-trois personnes et franchement il n’y a pas grand monde qui va se livrer de son plein gré et de sa propre initiative à l’analyse d’un code source pour en chercher les faiblesses potentielles.
Donc il n’y a pas de plus ou de moins, il n’y a pas de positif ou de négatif dans l’open source ; c’est à peu près équivalent de ce point de vue-là avec du logiciel propriétaire.
Après, notre intérêt pour l’open source au-delà de notre propre contribution, ce sont les possibilités qu’elle offre. Avec l’open source on peut évaluer, de fait, la sécurité en regardant le code source, en l’analysant. Ce n’est pas magique mais si on s’en donne les moyens on peut le faire. C’est quelque chose qu’on pousse beaucoup de manière générale : l’évaluation par un tiers est un de nos fondamentaux historiques et on continue à le faire et on développe très largement de labelliser des solutions informatiques.
Avec l’open source on peut le faire, si j’ose dire, sans la coopération du développeur. Et on le fait dans la pratique, on lance de notre propre initiative des évaluations de logiciels open source qui nous semblent intéressants. On informe le développeur, on lui donne les résultats, il en fait ce qu’il veut, on n’attend rien de lui, donc c’est quand même intéressant.
Et l’autre possibilité c’est ce qu’on a fait avec CLIP OS, c’est que l’open source on peut l’adapter. Donc si on a un cas d’usage bien spécifique en tête, on peut adapter la solution à ce cas d’usage, la sécuriser mieux pour ce cas d’usage, quitte à perdre un peu de généricité ou d’ergonomie le cas d’échéant, mais on peut faire beaucoup plus dans ce cas-là.
Antoine Beauchamp : Est-ce qu’il y a beaucoup d’autres acteurs institutionnels de l’envergure de l’ANSSI qui se reposent sur l’open source ? Et si oui, est-ce que vous avez des exemples à me donner ?
Vincent Strubel : Qui se reposent sur l’open source, je pense que toute l’administration française s’appuie dans une large mesure sur l’open source, sans que ce soit une exclusivité, on a aussi du logiciel propriétaire évidemment, mais on a un large recours à des briques open source assez classiques comme n’importe quelle organisation aujourd’hui. Et de plus en plus on a une politique active au niveau de l’État de contribution à l’open source et des acteurs. Il y a évidemment la DINSIC et Etalab qui sont la DSI, direction informatique de l’État, qui sont en pointe là-dessus, qui, à la fois, contribuent elles-mêmes et encouragent les différentes administrations à contribuer. Là encore pas pour des raisons philosophiques mais simplement pour des considérations pragmatiques, que ça nous aide à travailler mieux et à mieux faire notre travail.
Nicolas Martin : Voilà le reportage du jour sur ce système CLIP OS développé par l’Agence nationale de la sécurité des systèmes d’information. Peut-être une réaction simplement à ce que vous venez d’entendre, Alexandre Hocquet ?
Alexandre Hocquet : Là on parle de problématiques de défense nationale en fait et du coup on parle de système d’exploitation fait pour résister aux attaques. Ce qui m’a fait sourire c’est que, par exemple, le ministère de l’Éducation nationale, lui, est complètement inféodé à Microsoft, les contrats… Mais là, quand il s’agit de problèmes sérieux, contrairement à ce qui est suggéré dans le reportage, effectivement il vaut mieux et clairement, ils ne font pas appel à Microsoft pour ce genre de problèmes ! Effectivement, bien que ça soit open source, ils font des choix pour des questions de sécurité, des choix ouverts.
Nicolas Martin : Stéfane Fermigier pourtant il y a une loi en France, la loi du 7 octobre 2016, pour une République numérique, qui impose l’ouverture par défaut des codes sources composant les logiciels des administrations.
Stéfane Fermigier : Oui. C’est un de ses aspects, d’ailleurs on pourrait dire que c’est finalement la traduction de cette loi. Elle contient aussi un passage qui nous intéresse nous, promoteurs disons du logiciel libre, c’est l’idée que l’État doit faire la promotion du logiciel libre au sein de l’administration qu’elle soit centrale, services déconcentrés, services hospitaliers, enfin tout ce qui dépend de l’État. Ça c’est aussi quelque chose sur lequel on attend encore des actions je dirais fortes de l’État sachant que la DINSIC, par exemple, doit être le bras armé.
Nicolas Martin : La DINSIC qui est la direction…
Stéfane Fermigier : Interministérielle sur les systèmes d’information. Il y a un mot clef sur ce sujet c’est « souveraineté numérique ». Donc qu’on parle de sécurité avec l’ANSSI, mais qu’on parle plus généralement de l’utilisation du logiciel libre au sein de l’administration, c’est probablement le principal argument pour utiliser le logiciel libre : c’est à la fois de garder au sein de l’appareil de l’État la maîtrise de son informatique, de son système d’information, une chose qui devient de plus en plus cruciale et stratégique. On pense aussi que c’est l’occasion de renforcer une filière en France et en Europe d’entreprises qui sont spécialisées dans le logiciel libre et qui représente aujourd’hui 5 milliards d’euros de chiffre d’affaires, 50 000 emplois ; un secteur qui recrute, sur lequel on espère aussi que les universités, les écoles d’ingénieurs, etc. vont continuer à former et former de plus en plus d’ingénieurs ou de développeurs à ces méthodes de travail, à ces outils de développement, à ces langages de programmation qui sont au cœur du développement logiciel open source.
Nicolas Martin : Ivaylo Ganchev, vous voulez réagir à ce reportage ?
Ivaylo Ganchev : Oui je voulais réagir un petit peu, surtout à la remarque de monsieur Hocquet. Effectivement, on peut penser que stratégiquement c’est plus intéressant pour un pays comme la France de privilégier le logiciel libre quand il s’agit d’infrastructures stratégiques. Mais bizarrement il y a l’exemple de l’armée : depuis 2009 l’Armée [le ministère des Armées, NdT] continue à souscrire un contrat de type Open Bar avec Microsoft.
Nicolas Martin : Open Bar ça veut dire tous les logiciels Microsoft, tout gratuit jusqu’au bout ?
Ivaylo Ganchev : C’est à peu près ça.
Stéfane Fermigier : Ce n’est pas gratuit !
Nicolas Martin : Pas gratuitement !
Stéfane Fermigier : On paye une cotisation globale et après on est encouragé à utiliser le maximum. Du coup ça n’encourage pas, au contraire, à l’utilisation de solutions alternatives.
Ivaylo Ganchev : C’était à peu près ça en fait ma remarque. C’est un sujet qui est très délicat, sur lequel plusieurs ministres ont été importunés, mais sur lequel il n’y a pas vraiment de position claire de la part du gouvernement, malheureusement je dirais. En plus de la loi pour une République numérique, on peut citer des lois un petit peu plus anciennes comme la loi sur l’Enseignement supérieur qui préconise la préférence du logiciel libre, son utilisation dans le cadre de l’Enseignement supérieur et de la Recherche.
Nicolas Martin : Alexandre Hocquet.
Alexandre Hocquet : Voilà ! Mais le ministère de l’Éducation nationale signe des contrats avec Microsoft. Là c’est carrément une question d’éducation et de culture ! Le projet de Microsoft c’est comme un dealer : habituer les gens aux outils pour ne plus s’en passer.
Stéfane Fermigier : Notre constat au sein du CNLL et d’autres organisations comme l’Aful [Association Francophone des Utilisateurs de Logiciels Libres ], l’April et plein d’autres, ça fait 20 ans qu’on discute avec des décideurs publics, avec des administrations, les représentants d’agences qui sont dédiées au numérique au sein de l’État ; on constate le plus souvent avec nos interlocuteurs directs vraiment un intérêt fort, plus que fort pour certains, une véritable volonté d’encourager le développement du logiciel libre dans l’administration.
Maintenant il faut savoir aussi qu’il y a des enjeux économiques majeurs, il y a du lobbying, comme on dit, d’acteurs qui ont un intérêt différent. C’est aussi pour cela qu’on essaie de se structurer, d’avoir un discours clair, d’avoir un discours à la fois clair mais aussi actionnable, de pouvoir dire : sur tel type de solutions, notamment les solutions infrastructures, mais aussi un certain type d’applicatifs il y a des solutions et il vaut mieux utiliser ces solutions, encourager le développement de logiciels d’origine française et garantir l’indépendance des services.
Nicolas Martin : Un tout dernier mot pour conclure, genre un tour de table pour vous entendre toutes les trois sur la question. On parle de l’effet incitatif des administrations ; on sait qu’il y a un certain nombre de décisions de justice antitrust qui ont empêché les constructeurs de vendre leurs logiciels, d’intégrer leurs logiciels propriétaires à l’intérieur des machines, etc. Néanmoins, aujourd’hui, quels sont les mouvements à faire quand on est face à des terminaux qui sont de plus en plus fermés, qui sont de moins en moins accessibles comme évidemment les téléphones portables ? Comment faire pour encourager, aujourd’hui, les citoyens, les consommateurs à avoir plus facilement recours à des logiciels libres, à des logiciels open source plutôt qu’à des logiciels propriétaires auxquels effectivement on a été certainement habitués comme des consommateurs par des dealers ? Votre avis rapidement Alexandre Hocquet, pour un dernier tour de table.
Alexandre Hocquet : Je pense qu’au-delà de la question de la technique et donc de la formation d’informaticiens, d’apprendre à coder ou ce genre de choses, il y a aussi une question de culture. Par exemple j’enseigne Wikipédia et Wikipédia c’est une façon d’essayer de comprendre des enjeux liés à tous ces problèmes dont on vient de parler dans un monde grand public, dans un monde qui n’est pas celui de l’informatique.
Nicolas Martin : Ivaylo Ganchev.
Ivaylo Ganchev : Aujourd’hui il faut absolument une approche stratégique, parce que les lois ne suffisent pas pour décréter le déploiement des logiciels libres. On a eu plusieurs cas de déploiements avortés qui ont mené à une catastrophe parce qu’il n’y a pas de méthodologie ; on ne déploie pas des logiciels libres comme ça ! Donc il faut absolument se munir d’une méthodologie de déploiement avec des documentations, des formations ; c’est un cycle qui est relativement complexe. Il ne faut pas penser qu’on peut changer les habitudes et les technologies qui sont quand même très ancrées aux usages quotidiens, juste comme ça par un coup de baguette. Il y a deux méthodologies : par top-down, du haut vers le bas avec des décisions ministérielles, mais il y en a une autre qui est le bottom-up qui est du bas venant de l’intérêt des usagers, des utilisateurs qui demandent à avoir plus d’outils maniables, libres, interopérables. Je pense que le secret se cache quelque part dans le rapprochement de ces deux méthodes.
Nicolas Martin : Stéfane Fermigier pour conclure.
Stéfane Fermigier : Il y a plusieurs types d’utilisateurs de logiciels. Il y a d’un côté le grand public et de l’autre les entreprises et les administrations. On va avoir des problématiques complètement différentes que ce soit d’un point de vue stratégique à long terme ou simplement de satisfaction de besoins immédiats. La recommandation qu’on peut faire pour le grand public c’est d’utiliser les logiciels libres les plus en vue, donc un navigateur libre Firefox bien connu, la suite bureautique LibreOffice, VLC un logiciel libre d’origine française que pratiquement tout le monde a sur son portable.
Alexandre Hocquet : Avec lequel on peut écouter votre émission, utilisé par des millions d’utilisateurs.
Nicolas Martin : Exactement, on peut écouter La Méthode scientifique, regarder ses vidéos.
Stéfane Fermigier : Ça c’est pour le grand public. Après pour s’initier au codage on peut partir sur des plateformes de développement qui sont très ouvertes comme le Rasberry Pi, avec lequel il y a possibilité pour les jeunes de s’éclater complètement en utilisant toutes sortes d’outils de développement et permettant d’expérimenter. Et puis, pour les entreprises, c’est d’avoir effectivement une stratégie plus sur le long terme que sur le court terme et communiquer, comment dire, aller voir les gens qui font du logiciel libre.
Nicolas Martin : Les gens qui font du logiciel libre.
Stéfane Fermigier : Exactement.
Nicolas Martin : On est très en retard, merci beaucoup.
Alexandre Hocquet : Et piratez vos téléphones !
Nicolas Martin : Et piratez vos téléphones !
Alexandre Hocquet : Arrêtez on va avoir des problèmes après !
Nicolas Martin : Merci beaucoup à tous les trois. Merci Stéfane Fermigier, Alexandre Hocquet, Ivaylo Ganchev. Merci à toute l’équipe de La Méthode scientifique. N’oubliez pas qu’aujourd’hui vous pouvez retrouver le podcast des Idées claires sur la question : est-ce que les aides sociales coûtent vraiment beaucoup trop de pognon à l’État ? La réponse est sur Facebook, Twitter et sur votre application de podcast préféré. Demain nous parlerons des biais idéologiques dans certaines études scientifiques, que ce soit dans les sciences humaines et sociales mais aussi dans les sciences dures. On se donne rendez-vous demain à 16 heures jusqu’à preuve du contraire.