Partager

8 min
8 min

Sondage exclusif : les priorités des Français sur l’usage de l’intelligence artificielle

L’utilisation de l’intelligence artificielle par l’administration est connue de 46 % des Français et les trois quarts d’entre eux se disent préoccupés par cet usage, selon l’enquête Acteurs publics/EY pour l’Observatoire des politiques publiques réalisée par l’Ifop. Une enquête présentée et commentée le 14 mai 2024 après-midi au centre de conférences Pierre Mendès France au ministère de l’Économie, des Finances et de la Souveraineté industrielle et numérique, à l’occasion du Grand débat de la souveraineté numérique (voir le programme).
Cliquer ici pour assister à cet événement

Alors que le recours à l’intelligence artificielle (IA) dans les services publics s’étend, comment cette tendance est-elle perçue par les usagers ? Voient-ils arriver cette vague qui va bouleverser les usages ? “Oui”, répond près d’un Français sur 2, selon l’enquête Acteurs publics/EY pour l’Observatoire des politiques publiques réalisée par l’Ifop  [lire la tribune d’Alena Martinez, associée EY Technology Consulting, et Yaël Cohen-Hadria, associée EY Avocats, droit du numérique].

Ils sont 46 % à se dire au courant de l’utilisation de l’IA dans l’administration et parmi ceux qui le savent, une minorité juge l’utilisation comme positive. Au total, une personne interrogée sur 3 dit savoir que l’administration dispose d’outils d’IA et s’en inquiète. Les moins préoccupés sont les moins de 35 ans (27 % contre 41 % pour les 65 ans et plus).

Soutien à l’innovation et à la recherche

Parmi les politiques publiques jugées prioritaires pour l’utilisation de l’IA, les Français désignent un bloc “défense, sécurité et surveillance” (44 % des citations), suivies par la santé (38 %), le soutien à l’innovation et à la recherche dans tous les domaines (38 %). Le secteur jugé le moins prioritaire dans l’utilisation de l’IA est l’aide sociale (16 %). L’éducation et la formation sont citées par 32 % des moins de 35 ans.

Plus précisément, les Français jugent prioritaire l’utilisation de l’IA dans l’administration d’abord pour renforcer la lutte contre la fraude sociale et fiscale (51 % des citations et même 60 % pour les sympathisants de la majorité présidentielle, du RN et de Reconquête, 61 % pour électeurs de droite), la sécurité publique et la prévention de la criminalité (45 %), l’amélioration des services publics de santé (34 %).

Risque de perte d’emploi

L’utilisation considérée comme la moins prioritaire est l’automatisation et la personnalisation des services aux publics, comme les déclarations d’impôts ou les demandes de documents officiels (22 %).

Concernant les risques jugés “majeurs” dans l’utilisation de l’IA par l’administration, les Français pointent du doigt les risques d’erreurs liés à cette technologie (55 % des citations totales, 61 % pour les agents publics), au même niveau que la perte de contact humain dans les services publics. Suivent, de près, les atteintes à la vie privée et aux données personnelles, citées par 52 % des Français.

Les risques de perte d’emploi sont évoqués par 4 personnes interrogées sur 10 (39 %). Les actifs sont de loin les plus inquiets. La moitié des moins de 35 ans, des employés et des ouvriers citent ce risque.

Frédéric Dabi, directeur général de l’Ifop

L’enquête Acteurs publics/EY pour l’Observatoire des politiques publiques réalisée par l’Ifop a été menée par questionnaire auto-administré en ligne du 28 au 29 mars 2024 auprès d’un échantillon de 983 personnes représentatif de la population française âgée de 18 ans et plus. La représentativité de l’échantillon a été assurée par la méthode des quotas (sexe, âge, profession du chef de famille) après stratification par régions et catégories d’agglomération.

ANALYSE

L’IA et l’IA générative au service de l’administration : les 4 piliers de la confiance 

Par Alena Martinez, associée EY Technology Consulting,
et Yaël Cohen-Hadria, associée EY Avocats, droit du numérique

Les projets d’intelligence artificielle (IA) et IA générative sont déployés dans les administrations de manière prudente et encadrée. En effet, le secteur public se doit d’être exemplaire, même si les règles juridiques et les contraintes techniques sont à géométrie variable.

Aujourd’hui, l’IA s’immisce dans nos vies comme le prédisait la littérature de sciences fiction. L’administration française n’échappe pas à cette tendance. Classée 6e mondiale selon l’indice de préparation des administrations à l’IA en 2023 (étude Oxford Insights), la France se distingue par son adoption proactive de l’IA pour transformer ses services. Dans son rapport “IA et action publique” publié en 2022, le Conseil d’État avait déjà répertorié des centaines de cas d’usage où l’IA améliore les opérations, les prises de décision et les relations aux citoyens. Depuis, le nombre des applications IA a considérablement augmenté et s’est ancré dans les pratiques. Nous observons également que les projets IA améliorent indirectement de nombreux autres aspects du fonctionnement des administrations : approches plus agiles, itératives et collaboratives, harmonisation des pratiques ou encore digitalisation de fonctions traditionnellement moins digitales.

Si l’intérêt d’adopter l’IA dans le secteur public n’est plus à démontrer, il est important de ­comprendre les facteurs qui contribuent à créer un environnement propice à son adoption, tels que l’identification des cas d’usage, des talents, des financements, de l’infrastructure, la réglementation, l’éthique, et la confiance du public et des agents, qui est fondamentale pour les projets d’IA. Sans cette confiance, les outils les plus performants sont inévitablement voués à l’échec. Quatre piliers fondamentaux constituent les bases de cette confiance : la culture numérique, la technologie et les infrastructures, la valorisation de l’information et la réglementation.

1er pilier de la confiance : l’acculturation
Pour exploiter pleinement le potentiel de l’IA, il est crucial que les administrations s’engagent dans un processus d’acculturation des dirigeants et de formation des collaborateurs. Cette démarche permet de démystifier l’IA, travailler sur des cas d’usage par métiers pour démontrer comment l’IA peut alléger les tâches ­répétitives ou soutenir la prise de décision, tout en reconnaissant ses limites et le besoin d’intervention humaine. L’acculturation permet également d’aborder l’éthique de l’IA, les risques et les responsabilités adjacentes, les impacts de l’IA sur les processus et les principes de l’IA responsable.

En déployant l’acculturation à l’IA, les administrations permettant aux équipes d’exploiter pleinement le potentiel innovant de l’IA et de mettre en place des processus adaptés au fonctionnement interne de chaque organisme.

2e pilier de la confiance : fiabilité et robustesse des technologies et infrastructures
La fiabilité et la robustesse des technologies et des infrastructures qui soutiennent l’IA sont bien plus que de simples caractéristiques techniques. Elles constituent un pilier essentiel pour bâtir la confiance des utilisateurs envers ces systèmes. Chaque défaillance peut avoir des répercussions durables sur la perception de l’IA. Le choix des technologies pour chaque application requiert une expertise approfondie et une attention méticuleuse, afin de trouver un équilibre optimal entre la simplicité de déploiement, la performance, la sécurité et la protection des données, la robustesse de la technologie, tout en gérant les risques potentiels. Le choix technologique doit être ensuite suivi par l’implémentation d’un système rigoureux de tests, de mesure et de gestion permettant d’évaluer la précision, la robustesse et la sécurité de l’IA, dès la conception du produit et dans son cycle de vie.

3e pilier de la confiance : qualité et disponibilité de la donnée
Alors que le volume de données générées chaque jour croît exponentiellement, l’intelligence artificielle offre des possibilités sans précédent pour transformer l’information en véritable levier d’action. Mais la fiabilité des résultats de l’IA dépend intrinsèquement de la qualité et de la disponibilité des données. La priorité est donc d’être vigilent et de bien préparer sa stratégie de gouvernance des données.

Les administrations ont clairement saisi cette nécessité et intensifient les projets dédiés à la gouvernance des données, renforcés par un soutien significatif de l’État pour l’open data et l’interopérabilité des données entre les différentes administrations.

Sans aucun doute, des initiatives comme le “Cadre général d’interopérabilité”  (RGI), qui définit des normes de partage des ­données, et “DataPass”, facilitant un accès sécurisé aux données pour les fonctionnaires, sont voués à prendre encore plus d’ampleur. Les efforts déployés en matière de gouvernance des données sont cruciaux pour solidifier les fondations des projets d’IA.

4e pilier de la confiance : la réglementation
L’IA dans les systèmes actuels suscite à la fois beaucoup d’enthousiasme, mais également des réserves fortes sur les modalités d’utilisation de l’IA. Ces enjeux sont partagés par les gouvernements à travers le monde : les uns légifèrent pour accompagner ces innovations, d’autres pour les contrôler, tandis que certains préfèrent attendre. En Europe, le choix est fait et reste précurseur : légiférer. L’AI Act vise à encadrer la conformité et le développement des systèmes d’IA sur le territoire de l’Union européenne. Il impose la mise en place de mesures spécifiques selon le niveau de risque des systèmes d’intelligence artificielle (SIA), tout en listant des SIA interdits (analyse des émotions sur le lieu de travail, notation sociale…). L’adoption définitive et la publication de l’AI Act dans le JO de l’UE sont imminentes, mais rappelons que les SIA sont déjà soumis à l’ensemble des règles applicables aux systèmes d’information.

Force est de constater que l’IA a la capacité d’assister les agents dans leurs tâches, sous réserve que l’administration crée un environnement propice aux expérimentations, à l’industrialisation et à la mutualisation de briques réutilisables. Cet environnement commence par une bonne ­compréhension de la technologie, et se poursuit par la mise en place d’une gouvernance de l’IA responsable, par la gestion des talents, et par la priorisation des investissements. La collaboration avec des acteurs privés au service de l’administration pour coconstruire des solutions permet de répondre aux enjeux de souveraineté, notamment en ce qui concerne les données qui servent à l’entraînement des modèles et la protection des données traitées.

Une démarche d’exploration bien engagée dans les administrations
L’utilisation de l’IA reçoit un fort soutien politique en France, visant à positionner le pays comme un leader de l’innovation responsable. Lors du Comité interministériel de la transformation publique du 23 avril 2024, le Premier ministre, Gabriel Attal, a déclaré vouloir accélérer le déploiement de l’IA et de l’IA générative dans les services publics pour permettre aux agents de mieux répondre aux citoyens. Nous observons que cette ambition a déjà commencé à être mise en pratique : dans la quasi-totalité des administrations, une démarche d’exploration de l’IA générative est lancée, a minima pour acculturer les collaborateurs et identifier les cas d’usage. Sur les six derniers mois, EY a mené plus d’une vingtaine de programmes d’acculturation, permettant d’engager dans l’action les plus enthousiastes et de transformer les appréhensions en curiosité et intérêt.
La plupart des administrations ont également engagé des expérimentations à plus ou moins grande échelle. Parmi les cas d’usage les plus largement plébiscités par les administrations en France, nous retrouvons très systématiquement des projets autour du traitement des données (anonymisation des dossiers, extraction des informations à partir des données non structurées, comme des courriers entrants), de la création et optimisation des contenus (comme la reformulation des courriers, e-mails, pages Web) et de l’amélioration de la relation avec les usagers par le déploiement de chatbots de nouvelle génération, l’assistance à la rédaction des réponses, la rédaction des synthèses d’appels. De nombreuses expérimentations visent à améliorer la gestion de la connaissance, ainsi que les processus de recrutement et de formation des agents.
Ces premières applications de l’IA générative dans les administrations montrent des résultats très prometteurs. Dans Services publics +, l’utilisation de l’IA a considérablement réduit les délais de réponse, tout en suscitant des retours positifs tant de la part des agents que des usagers. À la DGFIP, le résumé des amendements réalisé par l’IA est indiscernable de celui réalisé par des humains. À l’Urssaf, le chatbot RH interne est désormais optimisé grâce à l’IA générative, et une grande partie des pages Web a été reformulée en s’appuyant sur cette technologie pour améliorer leur clarté.
Ces résultats illustrent clairement les bénéfices en termes de qualité de service et d’efficience opérationnelle, et confirment le potentiel de l’IA à transformer positivement le secteur public, plus efficace et innovant. Le temps ainsi libéré pourrait être consacré à plus de temps pour accueillir les publics, notamment ceux les plus éloignés du numérique, mais aussi à développer les talents ou encore à traiter plus de projets de numérisation de nos administrations.

Partager cet article

Club des acteurs publics

Votre navigateur est désuet!

Mettez à jour votre navigateur pour afficher correctement ce site Web. Mettre à jour maintenant

×