• Secteur public

  • Mesures publiques

  • IA responsable

Les mesures publiques dans les stratégies gouvernementales en matière d’intelligence artificielle : une perspective internationale

Publié le 21/10/25

Les auteurs

Steve Jacob est Professeur titulaire de la chaire de recherche sur l’administration publique à l’ère numérique de l’Université de Laval (Québec) et directeur du laboratoire de recherche sur la performance et l’évaluation de l’action publique (PerfEval). Steve Jacob codirige la fonction Politiques publiques de l’Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique (OBVIA).

Justin Lawarée est Professeur adjoint à l’École nationale d’administration publique (ENAP) à Québec et titulaire d’un doctorat en sciences politiques et sociales de l’Université Catholique de Louvain (Belgique).

Les auteurs

Steve Jacob est Professeur titulaire de la chaire de recherche sur l’administration publique à l’ère numérique de l’Université de Laval (Québec) et directeur du laboratoire de recherche sur la performance et l’évaluation de l’action publique (PerfEval). Steve Jacob codirige la fonction Politiques publiques de l’Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique (OBVIA).

Justin Lawarée est Professeur adjoint à l’École nationale d’administration publique (ENAP) à Québec et titulaire d’un doctorat en sciences politiques et sociales de l’Université Catholique de Louvain (Belgique).

En matière d’innovation technologique et d’IA, la dimension éthique est un facteur déterminant de réussite. Il est nécessaire de s’interroger : au regard de sa finalité, un projet d’IA est-il éthique en matière de traitement et de collecte de données ?

L’IA suscite beaucoup de fantasmes, ce qui peut engendrer des craintes chez des agents de la fonction publique redoutant d’être remplacés à terme par des machines. Ce n’est pas la réalité, même si on a tendance à présenter l’IA comme un phénomène disruptif. 

De manière générale, pour l’ensemble des organisations, la caractéristique de l’innovation par l’IA, est la déshumanisation. C’est en cela qu’elle diffère des autres technologies numériques : certaines tâches ne sont plus réalisées par des agents humains.

Dans les faits, lorsque l’on parle de projets d’IA, il faut savoir que 87% des projets d’innovation et d’automatisation en matière d’IA échouent. Ceci explique aussi en partie pourquoi il est difficile en tant que chercheurs d’avoir accès à des projets d’IA, au-delà de l’aspect de confidentialité.

Dans le discours dominant portant sur l’IA, les innovations n’ont pas pour mission principale de répondre à l’intérêt public. Elles ont surtout pour objectif d’apporter un avantage différenciatif et comparatif. Il y a donc une volonté d’utiliser l’IA et ses technologies comme un moyen de créer de l’activité économique afin de contribuer à la croissance.

Notre étude (8), menée dans une perspective internationale, a porté sur une méthode d’analyse des documents des différentes stratégies gouvernementales afin de repérer les mesures publiques prises en matière d’intelligence artificielle. L’objectif était de répondre à deux questions principales :

  • Quelles sont les mesures prévues dans le cadre de la stratégie gouvernementale pour l’IA ?
  • Quelles sont les différences entre les logiques d’action des différents pays ?

Nous avons retenu dans notre cadre de référence :

  • l’intelligence artificielle telle que définie par Wirtz et Muller[1] ;
  • les systèmes d’Intelligence Artificielle tels que défini par la Commission européenne[2] ;
  • une stratégie gouvernementale conjugue explicitement une vision, des orientations et des objectifs que les autorités gouvernementales cherchent à atteindre. Elle se définit comme l’utilisation systématique des ressources et du pouvoir d’organisations publiques en vue d’atteindre un objectif spécifique[3] ;
  • des mesures publiques sont définies comme les moyens d’action à mettre en œuvre pour maximiser les avantages potentiels ou minimiser les éventuelles externalités négatives de l’IA.

5 « études de cas » ont été réalisées au niveau de 4 pays de l’OCDE d’une part, et l’Union européenne d’autre part.

 

[1] « La capacité d'un système informatique à présenter un comportement intelligent semblable à celui de l'homme, caractérisé par certaines compétences essentielles, notamment la perception, la compréhension, l'action et l'apprentissage. Dans cette optique, nous entendons par application de l'IA l'intégration de la technologie de l'IA dans un domaine d'application informatique avec interaction homme-ordinateur et interaction des données » (Wirtz et Muller, 2019, p. 599, notre traduction).

[2] « Conçus par des êtres humains et qui, ayant reçu un objectif complexe, agissent dans le monde réel ou numérique en percevant leur environnement par l’acquisition de données, en interprétant les données structurées ou non structurées collectées, en appliquant un raisonnement aux connaissances, ou en traitant les informations, dérivées de ces données et en décidant de la/des meilleure(s) action(s) à prendre pour atteindre l’objectif donné » (Commission européenne, 2020, p. 19).

[3] Mulgan, 2009

Le Canada

57 mesures publiques ont été répertoriées au sein de 3 stratégies gouvernementales :

  1. Génome Canada (2000) ;
  2. La Stratégie pancanadienne en intelligence artificielle (2017) ;
  3. La Stratégie d’intégration de l’IA dans l’administration publique québécoise (2021-2026) (9)

 

Un des leitmotivs au Québec est de miser sur l’IA « responsable », en respectant des principes éthiques.

Au regard des changements et des améliorations que peut apporter l’intelligence artificielle dans les administrations publiques, le respect des employés de l’État est au cœur de la stratégie. Il garantit à chaque employé la possibilité de prendre le temps de changer sa façon de travailler. Le respect de la vie privée est également dominant dans le discours lié au développement de l’IA. La prise de décision n’est pas entièrement confiée à l’IA, l’agent de la fonction publique conserve une responsabilité.

La stratégie s’appuie sur une véritable volonté d’utiliser l’écosystème québécois, l’un des plus dynamiques au monde pour doter l’administration de solutions en matière d’IA.

L’acteur étatique devient ainsi un acteur de l’innovation à travers différentes mesures telles que des programmes destinés à recruter les talents nécessaires afin de répondre au manque d’expertise dans l’administration, ou bien encore la mise en œuvre d’un laboratoire d’expérimentation en matière d’IA. 

Si l’on répartit les mesures publiques par catégories, la première catégorie concerne le développement des capacités des organisations avec 32 mesures sur les 57 listées. Ces mesures incluent notamment les plateformes de collaboration, de réseautage et d’échange, telles que le partenariat mondial sur IA (PMIA)[1] – soutenu par la France – et la création de centres d’excellence et de recherche. 

La deuxième catégorie concerne le développement économique, où l’on retrouve principalement trois types de mesures : les subventions de projets de recherche (chaires, programmes de recherche, bourses d’études…), la création de connaissances (sur la base de consultations) et les politiques que nous qualifions de « constitutives » (création d’un comité conseil ou d’un comité consultatif scientifique international).

Une seule mesure réglementaire a été identifiée visant à faciliter le recrutement d’experts en IA.
 

[1] Le PMIA est une initiative internationale conçue et lancée en 2020 par le Canada et la France lors de leurs présidences du G7 visant à promouvoir une utilisation responsable de l’IA qui respecte les droits de l’homme et les valeurs démocratiques.

Les États-Unis

Sur 46 stratégies identifiées, 9 ont été retenues pour analyse :

  1. Automated Vehicles 3.0: Preparing for the Future of Transportation (2017);
  2. Big Data to Knowledge (2021);
  3. Department of Defense (DOD) Artificial Intelligence Strategy (2018);
  4. Federal 5-Year Stem Education Strategic Plan (2018);
  5. Federal Data Strategy Action Plan (2020);
  6. National AI R&D Strategic Plan (2018);
  7. National Security Commission on AI (2018);
  8. National Strategy for Critical and Emerging Technologies (2020);
  9. The Aim Initiative: a Strategy for Augmenting Intelligence Using Machines (2019).

 

Au total, 123 mesures publiques ont été répertoriées relevant de ces 9 stratégies. La plupart d’entre elles (109) sont réparties entre trois catégories majeures qui portent sur :

  • les moyens économiques (38 mesures), déclinés entre les subventions de projets de formation, les subventions de projets R&D, les bons d’innovation, les bourses d’étude, les programmes d’approvisionnement public, les subventions de projets de recherche, les créations d’un fonds de recherche, et une mesure dédiée au financement en fonds propres ;
  • la réglementation (37 mesures), dont la grande majorité des mesures concerne la régulation des systèmes techniques (encadrer l’accès aux données sensibles, établir des normes pour la labellisation des données…) ;
  • le développement des capacités organisationnelles (34 mesures), à travers les services à l’information et à l’accès à l’ensemble des données, la surveillance et le conseil éthique, le développement des plateformes de collaboration et d’échange, le soutien public aux infrastructures et à la création d’un centre d’excellence.

Les autres catégories de mesures concernent les instruments de politique constitutive, des programmes d’information, et la création de connaissances.

La France

Une stratégie gouvernementale a été retenue dans l’étude, sur neuf stratégies potentielles. Il s’agit de AI for Humanity présentée par le président de la République Emmanuel Macron en mars 2018, dont le principal objectif est de faire de la France un pays leader en IA. Cette stratégie s’étend sur la période 2018-2022 avec un budget alloué de 1,5 milliard d’euros.

Elle s’articule autour de 3 axes : « miser sur nos talents », « Rassembler nos forces » (ouverture de bases de données centralisées) et « poser un cadre éthique » (transparence et fiabilité de la décision automatisée).

34 mesures publiques ont été identifiées dans le cadre de cette stratégie. 18 d’entre elles concernent le développement des capacités organisationnelles, à travers les services à l’information et à l’accès à l’ensemble des données, les outils d’aide à la décision, les formations en matière d’enjeux et d’impacts éthiques, la création de lieux d’expérimentation, d’un centre d’excellence et d’une plateforme de réseautage et de collaboration.

8 mesures sont dédiées aux moyens économiques, avec des bourses d’étude, la subvention de projets de formation, de projets de R&D et de projets de recherche, ou encore la valorisation des salaires pour les personnes compétentes dans le domaine de l’IA.

6 mesures concernent la réglementation, essentiellement la régulation des systèmes techniques.

La dernière catégorie de mesures est dédiée aux politiques constitutives (2 mesures) et notamment à la création de nouvelles structures de gouvernance.

Le Royaume-Uni

Sur 39 stratégies gouvernementales identifiées par l’équipe de recherche, 7 stratégies ont été retenues :

  1. AI UK Sector Deal (2018);
  2. Government Technology Innovation Strategy (2019);
  3. Industrial Strategy Challenge Fund (2017);
  4. Industrial Strategy: Building a Britain Fit for the Future (2017);
  5. Online Harms White Paper and Bill (2019);
  6. Scotland’s National AI Strategy (2020);
  7. Welsh Language Technology Action Plan (2018).

 

170 mesures publiques ont été identifiées sur l’ensemble de ces 7 stratégies. Avec 84 mesures, la catégorie principale concerne les moyens économiques. Il est notamment question de subventions de R&D et d’innovation, de financement de projets de formation et de recherche, d’achat public d’innovation et de R&D, de la création d’un fonds de recherche, de bourses d’étude, de financements propres et d’allègement de l’impôt.

La deuxième catégorie de mesures vise le développement des capacités organisationnelles (36), via le soutien au développement des infrastructures de recherche, la mise en place de plateformes de réseautage et de collaboration, la création de centres d’excellence, l’accès aux données, les outils d’aide à la décision et les activités de formation.

21 mesures dédiées à la réglementation ont été répertoriées. La plupart visent la création de nouveaux organismes de surveillance. Les autres mesures sont réparties entre la régulation des systèmes techniques et la mobilité de la main d’œuvre.

17 mesures concernent la création de connaissance ou la validation des apprentissages via la consultation d’experts et des parties prenantes (citoyen, universités, entrepreneurs…).

10 mesures sont dédiées aux programmes d’information et 2 sont liées à la politique constitutive.

L’Union européenne

8 stratégies gouvernementales ont été retenues sur 56 stratégies recensées : 

  1. Le Livre blanc sur l’Intelligence artificielle – Une approche européenne axée sur l’excellence et la confiance (2018);
  2. Governance of the Artificial Intelligence Strategy for Europe (2018);
  3. La charte des droits fondamentaux dans le contexte de l’intelligence artificielle et de
  4. La transformation numérique (2020);
  5. Building Trust in Human-Centric Artificial Intelligence (2018);
  6. Boussole numérique pour 2030 : l’Europe balise la décennie numérique (2021);
  7. Favoriser une approche européenne en matière d’intelligence artificielle (2021);
  8. Plan coordonné dans le domaine de l’intelligence artificielle (2021) ;
  9. Stratégie d’implantation pour Horizon Europe (2020).

 

109 mesures ont été recensées sur les huit stratégies. Près de la moitié (51) vise l’amélioration des capacités et des décisions organisationnelles, notamment à travers le développement d’une infrastructure collaborative.

Viennent ensuite les mesures réglementaires (19), essentiellement consacrées à la régulation des systèmes techniques.

La troisième catégorie correspond aux moyens économiques (18), via des bons d’innovation, des bourses d’études, ainsi que des subventions de projets R&D.

11 mesures portent sur la politique constitutive, à travers la réforme des structures de gouvernance existantes et la création de nouvelles structures de gouvernance.

8 mesures sont consacrées à la création de connaissances et 2 sont dédiées à des programmes de formation.

Les conclusions de l’étude

Le développement des capacités organisationnelles, la réglementation et les moyens économiques sont les trois catégories qui reviennent le plus, tout pays ou groupes de pays confondus. 

Sur la base de près de 500 mesures recensées dans 28 documents, le développement des capacités organisationnelles ressort de façon nette avec notamment le développement d’infrastructures de recherche de pointe en matière d’IA et des subventions de R&D et de recherche.

En revanche, l’information, la médiatisation, ou à la vulgarisation de l’IA sont relativement peu présentes (seulement 16 mesures), à l’instar des politiques constitutives. Les pays reconnaissent l’importance de l’IA mais cela n’apporte pas encore de changement majeur en matière de logique constitutionnelle

Concernant la réglementation, les principales mesures visent à réglementer de nouveaux systèmes techniques, essentiellement par la confidentialité, la transparence et la sécurité, ce qui ne constitue pas une avancée extraordinaire.

Peu d’accent est mis sur le développement de la main d’œuvre, le développement et la rétention des experts. Les publics « minoritaires » qui pourraient être marginalisés par l’utilisation de l’IA sont également très peu – voire quasiment pas – identifiés, ce qui constitue une véritable piste d’amélioration.

C’est aussi le cas des enjeux éthiques qui ne sont pratiquement pas abordés de façon explicite et systématique, ce qui nous semble aussi être un point d’amélioration de ces stratégies.

De même, la formation et la consultation des parties prenantes (citoyens, utilisateurs des systèmes d’IA…). devraient être davantage développés.

Article précédent

Article suivant

Ceci pourrait vous intéresser