Partager

5 min
5 min

Enka Blanchard : “Exigeons la transparence des technologies publiques”

Alors que d’importants débats ont lieu sur les systèmes de vote des primaires à l’élection présidentielle, la chercheuse Enka Blanchard* appelle à la transparence sur le fonctionnement des systèmes informatiques de consultation ou de votation, et plus largement de tous les outils numériques développés et utilisés par les administrations.

Les dernières années n’ont fait qu’accélérer l’importance des outils technologiques dans les rapports qu’ont les citoyens aux institutions : impôts en ligne, applications contre le Covid-19, budgets participatifs, vote aux primaires. Certains de ces développements proviennent de logiques gouvernementales produisant du code et des données ouvertes, comme Code.gouv.fr, Data.gouv.fr et tout ce que produit notamment Etalab. D’autres constituent des marchés de choix pour les start-up de civic tech, répondant souvent à des logiques de réductions des coûts de l’État par l’automatisation et les économies d’échelle.

Malgré ces développements, nous n’avons pas encore bénéficié d’un débat public suffisant sur les responsabilités de ces outils et des personnes qui décident de leurs utilisations. En l’état, ces technologies souffrent d’un défaut majeur venant du manque de transparence, qui couvre plusieurs aspects tant techniques qu’administratifs. En dehors de rares exceptions et des initiatives internes au gouvernement, une partie conséquente des projets est confiée à des prestataires de services (souvent via des appels d’offres). Ces derniers n’ont généralement pas d’obligation de produire du code ouvert, même pour des applications sensibles. Les institutions commanditaires se retrouvent donc avec des boîtes noires techniques dont l’entretien a un coût non négligeable et ne peut être effectué que par le prestataire initial, verrouillant ainsi le marché. Le souci n’est pas ici de s’opposer à une logique lucrative (le développement technologique coûte de l’argent, qu’il soit en logiciel libre ou non), mais de s’opposer à une absence de contrôle public et à la déresponsabilisation qui y est liée. Prenons donc deux exemples significatifs pour illustrer les problèmes qui peuvent être engendrés par cette opacité.

Considérons d’abord la question des scrutins en ligne, utilisés désormais non seulement pour certaines élections primaires mais aussi extrêmement répandus dans les votes en entreprise et dans les institutions publiques, pour leurs élections professionnelles ou des consultations citoyennes par exemple. Malgré des grandes avancées techniques ces vingt dernières années, le vote par Internet reste une source d’inquiétude majeure pour les universitaires experts du domaine. Le problème de la coercition semble notamment presque insoluble quand on vote à domicile et l’identification de la personne qui vote est aussi problématique. Si l’on ignore un instant ces deux vulnérabilités, on a cependant un avantage majeur : on peut désormais créer des systèmes vérifiables, c’est-à-dire où tout votant peut être sûr que son vote est bien comptabilisé. Cette vérifiabilité est fondée sur des protocoles cryptographiques complexes, faciles à utiliser sur ordinateur mais presque impossibles à gérer logistiquement dans une élection avec des bulletins papier. Elle requiert cependant que le protocole de vote soit bien défini et publiquement accessible, tout comme le code informatique correspondant.

Avoir un code source public rentre de plus en plus dans les pratiques des grandes entreprises informatiques car c’est avant tout une garantie de sécurité et de fiabilité.

Ces principes sont a priori indissociables du vote vérifiable : si l’électeur ne sait pas quelles opérations le serveur effectue en gérant son vote, il n’a aucune manière de vérifier qu’il les effectue correctement. Il semblerait donc logique que tous les systèmes de vote utilisés suivent cette logique de transparence technique. C’est déjà le cas pour certains logiciels, comme Helios ou Belenios, développé dans une université française, ou ElectionGuard, produit par Microsoft. Les appels d’offres sont toutefois rarement adaptés aux solutions produites par des universités, qui sont à la pointe technologique mais rarement compétitives — par défaut de marketing. Et donc, tout comme les machines de vote utilisées aux États-Unis (dont la sécurité est sans cesse remise en question car leurs détails techniques sont gardés secrets pour protéger la propriété intellectuelle de quelques entreprises), de nombreux systèmes utilisés en France ne respectent pas ces principes de transparence. Certains promettent même une simili-vérifiabilité, dont la valeur technique est invérifiable car le votant ne sait pas exactement ce qu’il vérifie ou comment agir en cas de soupçon de fraude. Soulignons que, comme indiqué par l’évocation de Microsoft ci-dessus, avoir un code source public rentre de plus en plus dans les pratiques des grandes entreprises informatiques car c’est avant tout une garantie de sécurité et de fiabilité. Cacher son code permet, certes, de décourager certaines attaques, mais il permet surtout à l’entreprise victime d’une attaque de dissimuler celle-ci, sans prévenir les utilisateurs, risquant donc que l’attaque affecte tout l’écosystème.

Assurer la confiance citoyenne sur ces sujets passe par une transparence non seulement sur le plan technique mais aussi sur le choix même des prestataires (transparence des critères, modes de décision des appels d’offres) et des techniques utilisées. Par exemple, on peut parfaitement justifier le choix récent d’utiliser le jugement majoritaire comme mode de scrutin pour la primaire populaire, bien qu’il ait récemment été critiqué par des militants car défavorable à certains candidats (dont Jean-Luc Mélenchon et Yannick Jadot). En réalité, l’argument est bancal car aucun choix du mode de décompte ne peut être neutre : chaque possibilité avantage certains candidats et les travaux mathématiques de Kenneth Arrow ont prouvé, en 1951, que le problème était irrésolvable. Seule la transparence du processus de décision permet donc d’éviter les accusations de biais.

Il semble souhaitable d’exiger de la part des prestataires de produire des outils que l’administration puisse s’approprier avec le temps, en construisant peu à peu sa propre expertise si elle le juge nécessaire.

Pour continuer avec une note plus positive, prenons l’exemple de Taïwan, dont la politique gouvernementale est résolument tournée vers la transparence depuis 2016. Au début du Covid-19, alors que le souvenir de la mauvaise gestion du Sars en 2002 était encore vif, le Parlement n’a pas autorisé le gouvernement à instaurer l’état d’urgence. Sans pouvoirs coercitifs, le gouvernement a été forcé de miser sur la responsabilisation du peuple et sur la transparence complète de la gestion de la pandémie : le gouvernement avait obligation de répondre à toutes les questions posées en ligne par les citoyens. Autre point remarquable, le suivi des cas contacts s’est fait de manière décentralisée, empêchant toute accusation de traçage des individus à des fins politiques. Comme l’expliquait la ministre taïwanaise du Numérique, Audrey Tang, lors d’une conférence récente [voir la vidéo], la performance de l’île dans cette gestion de crise — 50 fois moins de morts par habitant qu’en France — est liée à la confiance élevée envers le gouvernement. Plus encore, elle réfutait l’hypothèse que la source de cette confiance tienne à une quelconque “différence culturelle” : il y a quelques années, avec un mouvement protestataire massif à l’époque, la confiance était évaluée en dessous de 10 %. La gestion facilitée de la crise actuelle était donc due à une forte capacité d’État, liée à une confiance mutuelle entre citoyens et gouvernement favorisée par la transparence.

La dépendance à ces boîtes noires va aussi à l’encontre de l’effort que fait aujourd’hui l’État français pour réduire sa dépendance aux cabinets de conseil, en limitant l’externalisation des contrats aux seuls cas où l’administration ne dispose pas des compétences en interne. Il est normal de manquer de certaines compétences techniques, surtout sur des sujets très spécialisés. Il semble cependant souhaitable d’exiger de la part des prestataires de produire des outils que l’administration puisse s’approprier avec le temps, en construisant peu à peu sa propre expertise si elle le juge nécessaire. Cette exigence de transparence ne correspond après tout qu’à l’application directe des dispositions de la loi “République numérique” de 2016.

* Enka Blanchard est mathématicienne et membre de la chaire d’intelligence spatiale de l’Université polytechnique Hauts-de-France. Elle a soutenu en 2019 une thèse sur les aspects humains de l’authentification et des systèmes de vote. Ses travaux de recherche et publications sont disponibles sur son site

Partager cet article

Club des acteurs publics

Votre navigateur est désuet!

Mettez à jour votre navigateur pour afficher correctement ce site Web. Mettre à jour maintenant

×