Partager

10 min
10 min

Henri Verdier : “ Un consensus international est en train d’émerger sur ce qu’on nomme une IA responsable”

Pleinement mobilisé sur les enjeux de l’intelligence artificielle (IA) au niveau international, et notamment sur la question de sa régulation, appelant la mise en place d’une véritable gouvernance en la matière, l’ambassadeur pour le numérique souligne que “les avancées de l’IA devront avoir lieu dans un cadre transparent, réfléchi et conforme aux règles de l’État de droit”. Il revient notamment sur le Partenariat mondial pour l’IA, lancé en juin dernier par la France et 14 autres États.

Quel est le rôle de l’ambassadeur pour le numérique sur un sujet comme l’intelligence artificielle ? 
Pour vous répondre, il faut d’abord préciser le rôle de l’ambassadeur pour le numérique. La révolution numérique pèse de plus en plus lourdement sur le destin des États et sur leurs relations. Elle comprend désormais des enjeux majeurs de sécurité, de souveraineté, d’indépendance économique et de géopolitique. C’est donc un objet à part entière pour la politique extérieure de la France. Ma mission est de conduire cette diplomatie numérique, qui concerne de nombreuses actions du ministère de l’Europe et des Affaires étrangères : sécurité, gouvernance d’Internet, diplomatie économique, ou encore de protection des droits fondamentaux comme la liberté d’expression, l’accès à la culture et à l’éducation. Or l’intelligence artificielle est une de ces technologies “transformantes” que l’on retrouve dans tous ces sujets. Elle pose des questions de cybersécurité, elle permet des manipulations de l’information avec les deepfakes, elle repose sur des échanges de données pour lesquels les grands ensembles géopolitiques peinent à trouver un cadre commun. Ce sera à l’évidence l’un des ressorts majeurs de la prospérité à venir, et elle appelle une gouvernance, notamment du fait des questions éthiques qu’elle soulève... Les États, les entreprises et la société civile sont-ils capables de décider ensemble, de manière alignée et à l’échelle internationale, d’un futur désirable pour l’IA ?

Votre rôle est donc d’animer toutes ces réflexions au niveau mondial ?
Mon rôle est de défendre les positions françaises à l’international. En tant qu’ambassadeur, je participe à certaines négociations, ce qui suppose une implication dans le travail interministériel. Mais nous avons également de nombreuses initiatives qui relèvent plus de l’influence ou de coopérations. En matière de numérique, et a fortiori d’IA, nous avons deux enjeux principaux : le premier est de progresser vers une souveraineté numérique européenne. Ce chantier dépasse bien entendu le travail de la diplomatie française et implique la recherche, les entreprises, la régulation, ou bien la fiscalité. Mais dans ce travail d’équipe, le rôle de la diplomatie française est de convaincre nos partenaires européens qu’une souveraineté européenne est possible et même nécessaire, et qu’il est possible de redevenir un acteur véritablement géostratégique, capable d’imposer des visions et des normes. Le deuxième enjeu est justement de défendre les valeurs européennes face au développement rapide de l’IA, y compris, parfois, dans le dialogue avec les entreprises.

Nous avons besoin d’une réflexion et d’institutions aussi approfondies que pour la bioéthique en son temps.

Quelle est donc la position de la France que vous êtes amené à défendre sur un sujet critique comme l’IA ?
Il ne fait aucun doute que l’intelligence artificielle est l’un des principaux vecteurs de progrès aujourd’hui. Mais elle s’accompagne aussi de risques, notamment pour les libertés fondamentales. Nous avons besoin d’une réflexion et d’institutions aussi approfondies que pour la bioéthique en son temps. Le président de la République a clairement exprimé, notamment en octobre dernier, au cours du Global Forum on Artificial Intelligence for Humanity organisé à Paris, la nécessité de trouver un cadre de régulation impliquant les États, les entreprises et la société civile. Nous ne pouvons tolérer ni les apprentis sorciers ni la loi du plus fort ni le contrôle de masse. Les avancées de l’IA devront avoir lieu dans un cadre transparent, réfléchi et conforme aux règles de l’État de droit.

On retrouve ici la troisième voie dessinée par Emmanuel Macron, entre les États-Unis et la Chine…
Oui. La France cherche avant tout à promouvoir des usages qui soient profondément ancrés dans les droits humains, la déclaration des droits de l’Homme et les objectifs du millénaire pour le développement. Or nous avons le sentiment que nos partenaires pèchent un peu, soit par retrait excessif de l’État, soit au contraire par contrôle excessif. Comme pour la question des données personnelles, l’Europe a son mot à dire et est capable de se faire entendre.

Et comment ces prises de position vont-elles se concrétiser ?
Nous avons de nombreuses initiatives, comme le débat que nous allons organiser en novembre prochain au forum de Paris pour la paix sur la gouvernance algorithmique. Mais notre initiative phare est sans doute le Partenariat mondial sur l’intelligence artificielle. Lancé par la France et le Canada, ce projet vise à rassembler les meilleurs experts mondiaux pour échanger avec les décideurs publics sur le futur de l’IA et les éventuels besoins de régulation. Il a désormais été rejoint par une quinzaine de pays attachés à un développement de l’IA fondé sur le respect des droits de l’Homme. La France est assez avancée en la matière et pourra partager son expérience. Son droit comporte déjà des sécurités contre les décisions automatisées, à travers la loi pour une République numérique. Notre pays a été l’un des artisans du RGPD [le Règlement général sur la protection des données, entré en vigueur en mai 2018, ndlr], a une recherche et une industrie de rang mondial. Nous souhaitons prendre appui sur ces acquis pour peser sur un cadre international.

Un encadrement et une gouvernance internationale de l’IA sont-ils devenus inévitables ?
L’IA est une technologie profondément transformatrice. Elle déterminera l’avenir de nombreuses industries, comprend des risques de biais discriminants et peut aussi figer des inégalités actuelles… Donc oui, une régulation internationale semble nécessaire, notamment pour en garantir une véritable transparence. Vue de France, une telle ambition semble banale, mais nous avons besoin d’un consensus international. Au niveau mondial, une sorte de convergence commence à se dessiner sur des principes directeurs, tels que la redevabilité des algorithmes, c’est-à-dire la possibilité d’auditer les IA, de comprendre ce qu’elles font et de pouvoir en particulier détecter leurs erreurs ou leurs biais. Ce sont des principes que l’on retrouve globalement dans les différentes initiatives de régulation, que ce soit avec la charte de l’OCDE et son observatoire de l’IA, le Partenariat mondial pour l’IA (PMIA) que nous avons lancé avant l’été, ou bien la déclaration du Japon… Un consensus international est donc bien en train d’émerger sur ce qu’on nomme une “IA responsable”. Et ce mouvement implique les laboratoires de recherche eux-mêmes. À Stanford ou Berkley, comme en France, tous cherchent à s’assurer que l’on ne joue pas aux apprentis sorciers et que l’on n’enclenche pas des choses incontrôlables. La gouvernance de l’IA peut évidemment aller plus loin que ces principes de bonnes pratiques scientifiques ou que ces principes éthiques. C’est, disons, un premier socle minimal de régulation.

À propos du PMIA, que va-t-il changer dans la gouvernance mondiale de l’IA ?
Les enceintes dans lesquelles les États discutent de la gouvernance de l’IA ne manquent pas. Mais le président de la République a constaté que ce débat était en train de voir diverger les experts et les régulateurs au moment même où une forme d’inquiétude sociale se faisait jour sur les dérives de l’IA. En lançant le PMIA, la France souhaite éviter de répéter le scénario des OGM (absence de débat social, des recherches pour le seul profit des semenciers, rejet social, puis arrivée tardive des politiques et enfin bannissement de ces technologies, alors même qu’elles auraient pu être employées pour d’autres fins, plus désirables), en assurant cette fois-ci un dialogue de très haut niveau entre sachants, décideurs publics et société civile, comme nous y sommes parvenus sur la question ­climatique avec le Giec.

Que va-t-il ressortir concrètement de ce PMIA ?
Le PMIA se matérialise aujourd’hui par deux centres d’expertises, l’un en France avec l’Institut national de recherche en informatique et en automatique (Inria) et le second au Canada. Leur rôle sera d’animer les communautés de recherche pour rassembler les connaissances disponibles, susciter de nouvelles directions de recherche, voire conduire des programmes de travail dédiés. Et puis, bien entendu, d’organiser la “conférence des parties” chaque année. La liste des premiers experts est en cours de finalisation par les pays fondateurs. Cette liste sera ensuite renouvelée par les experts eux-mêmes grâce à un mécanisme de cooptation.

La grande spécificité du PMIA est de créer un cadre pour un dialogue de haut niveau entre experts et décideurs politiques.

Quelle sera la contribution de ces experts ? À quelles questions pourront-ils répondre ?
Il existe de nombreuses enceintes, comités d’éthique du numérique, chartes et autres codes de bonne conduite pour défendre certains grands principes. La grande spécificité du PMIA est de créer un cadre pour un dialogue de haut niveau entre experts et décideurs politiques, impliquant également la société civile et ses exigences. Par ailleurs, il ne s’interdit pas de mener ses propres recherches-action.

Sur quels enjeux ?
Un exemple de recherche-action concerne l’association des citoyens à la conception d’un algorithme. Chacun s’accorde à dire que le déploiement d’un algorithme de prise de décision, comme Parcoursup [la plate-forme numérique d’affectation des bacheliers dans l’enseignement supérieur, ndlr], par exemple, devrait faire l’objet de l’accord des citoyens. Nos voisins britanniques l’ont constaté ces jours derniers à travers une violente polémique qui a contraint le gouvernement à reculer. Mais comment faire concrètement pour que les citoyens puissent délibérer au sujet d’un algorithme aussi technique ? Nous avons peu d’expérience en la matière et moins encore de méthode standardisée. Il est impossible d’organiser un véritable débat démocratique simplement en mettant un code source sur Github. Ce code doit être traduit en ­langage politique, et inversement, il faut pouvoir traduire en code ce que décident les citoyens. Nous sommes convaincus, avec les Canadiens, qu’il faut justement commencer quelque part, en organisant des conventions citoyennes, des hackathons, pour constater concrètement ce qui marche le mieux pour expliquer le fonctionnement d’un code, ou ce qui ne marche tout simplement pas.

Quel doit être le point de chute de ce nouveau partenariat ?
De nombreux pays étaient prêts à nous rejoindre, mais voulaient d’abord avoir une idée du point d’arrivée. C’est pourquoi une charte des valeurs a été élaborée. Ce processus a posé des questions sur le niveau d’ambition de ces valeurs communes. Devait-on poser des principes très universels mais qui risquent de former le plus petit dénominateur commun entre les pays du monde, ou se devait-on d’être plus exigeants sur les valeurs des droits de l’Homme ? En l’occurrence, le PMIA réunit des États partageant l’idée que le développement de l’IA doit être ancré dans les droits de l’Homme et assume qu’il devra s’opposer à la vision de certains pays.

Les planètes sont-elles alignées pour que ce mouvement de régulation dépasse l’Europe, souvent isolée sur ces sujets ?
Nous sommes partis d’un noyau franco-canadien, que nous avons réussi à étendre aux pays du G7, puis à des membres de l’OCDE, y compris les États-Unis depuis cet été, puis prochainement quelques autres démocraties. Il a fallu mener une vraie négociation avec les États-Unis mais nous avons su leur montrer qu’il y avait besoin de certains principes unanimement partagés, notamment pour que, lorsqu’il s’agira de bannir certains usages de l’IA, nous puissions le faire au nom de principes consensuels et non arbitrairement. Le Japon, la Corée, Singapour ou encore le Mexique figurent parmi les membres fondateurs. Le partenariat ne repose donc pas que sur un bloc européen, mais sur un ensemble de continents, de pays, de cultures et de traditions. Cela prouve qu’il est possible de faire naître un bloc de pays partageant et défendant cette vision, que nous porterons ensuite à l’ONU.

Il suffit de regarder l’état de la planète pour voir que ne pas réguler n’est pas non plus une option.

Pourquoi reviendrait-il à la France de porter l’ambition d’une régulation de l’IA ?
La France n’est peut-être pas le leader mondial de la révolution numérique, mais nous en sommes un acteur conséquent, qui a son poids et ses succès. Par ailleurs, la France a toujours défendu des valeurs, les libertés, le multilatéralisme. Elle est en capacité, surtout quand elle entraîne l’Europe, d’être une puissance d’équilibre dans un monde qui se cherche entre d’un côté, un libéralisme débridé et de l’autre, un contrôle de l’État très verrouillé. Si elle arrive à faire levier sur l’Europe, la France peut faire pencher la balance du bon côté. Et elle a tout intérêt à le faire si elle entend continuer à avoir son mot à dire dans le futur du numérique et donc sur l’IA.

La Commission européenne a jeté les bases d’une future régulation de l’IA. Qu’en pensez-vous ?
La France soutient la Commission dans sa démarche, qui consiste à refaire de l’Europe un acteur géostratégique. La souveraineté numérique et la souveraineté européenne ne sont, pour cette nouvelle Commission, plus des gros mots. Et elle entend visiblement investir et mener une politique industrielle en matière de données et d’intelligence artificielle. Ce qu’elle n’a pas fait à temps avec la 5G et pas encore avec l’informatique quantique.

Est-il seulement possible d’encadrer une technologie en devenir sans la freiner ? Autrement dit, comment concilier régulation et innovation ?
Avec la régulation, il y a toujours deux risques : celui de trop réguler, ce qui revient à interdire des recherches et usages qui se révéleraient féconds, et donc à affaiblir sa propre industrie en alourdissant la réglementation, au risque que les leaders mondiaux d’autres pays imposent finalement leurs solutions. Et celui de mal réguler, en écrivant des textes trop rigides et détaillés, ou trop dépendants d’un certain état de l’art, et donc soumis à un risque d’obsolescence. Mais il suffit de regarder l’état de la planète pour voir que ne pas réguler n’est pas non plus une option. Avec le PMIA, nous cherchons justement à éviter ces deux travers, en privilégiant l’adoption de principes certes généraux, mais auxquels les États souscrivent pleinement.

L’Europe, en régulant, ne se mettrait-elle pas en retard face aux Américains et aux Chinois ?
L’Europe a ses cartes à jouer. Et par ailleurs, empêcher des usages dont on ne veut vraiment pas n’est pas se mettre une épine dans le pied. Cela peut même devenir un avantage. Regardez l’exemple du RGPD. Nous arrivons finalement dans un monde où cette réglementation devient progressivement un avantage compétitif, notamment parce qu’elle fait des émules et devient un standard international que vous avez mis en application avant tout le monde. Un accord d’adéquation a été signé avec le Japon… La Californie a voté une loi très proche du RGPD, le Mexique et l’Inde finalisent les leurs. Bientôt, le plus grand marché mondial sera le marché régulé à la manière du RGPD et nos entreprises y auront une très grande aisance.

Propos recueillis par Émile Marzolf

Henri Verdier en quelques dates
1988 
École normale supérieure
2008 Président du pôle de compétitivité Cap Digital
2013 Directeur d’Etalab
2015 Directeur interministériel du numérique et du système d’information et de communication de l’État (Dinsic)
2018 Ambassadeur pour le numérique.

Partager cet article

Club des acteurs publics

Votre navigateur est désuet!

Mettez à jour votre navigateur pour afficher correctement ce site Web. Mettre à jour maintenant

×