• Systèmes d'intelligence artificielle (SIA)

  • Politique européenne

  • IA Act

L’approche de la Commission européenne sur l’intelligence artificielle et son impact sur le monde du travail

Publié le 21/10/25

L’IA est une technologie très récente utilisée au quotidien dans beaucoup d’applications et de services y compris dans les services publics. Il faut la développer afin que toutes nos entreprises et nos concitoyens puissent en bénéficier. Nous savons aussi qu’elle peut générer des risques pour la sécurité des consommateurs comme pour celle des utilisateurs. Nous avons une protection robuste des données et des droits fondamentaux en Europe, mais cette nouvelle technologie les remet en cause et crée de l’incertitude juridique pour les acteurs.

Les systèmes d’IA reposent sur les données. Ils sont caractérisés par un degré de complexité élevé, une opacité avec un fonctionnement qui n’est pas toujours compréhensible, un niveau élevé d’imprévisibilité avec différents niveaux d’autonomie possibles. Ils doivent fiables et sûrs. 

La méfiance sociale est forte, par exemple lorsque l’on entend parler « d’utilisation discriminatoire ». Les salariés détiennent certains droits. Si vous pensez être victime de discrimination vous avez des recours possibles, vous pourrez faire appel aux autorités de surveillance. Il faut d’ailleurs étudier la façon dont ces autorités peuvent intervenir, ’accéder à des documents, conduire des audits, enquêter pour déterminer s’il s’agit ou non de discrimination. Les entreprises auront également la possibilité d’informer le fabriquant pour prendre une action corrective ou retirer un produit du marché. 

Il y a un besoin croissant de soutien des initiatives éthiques qui sont à l’œuvre auquel nous devons répondre. Il faut aussi essayer de comprendre les règles juridiquement contraignantes mises en place dans ce domaine pour les entreprises.

Nous essayons également d’adapter l’Union européenne face à l’impact de l’IA sur le marché du travail, en particulier le défi des compétences qu’il nous faut relever pour bénéficier de cette technologie et devenir leader dans ce domaine.

La politique européenne en matière d’intelligence artificielle (2018-2021)

Depuis 2018, l’Union européenne a beaucoup travaillé pour aboutir progressivement à une à stratégie européenne de l’IA. 

  • premières réflexions de la Commission européenne en avril 2018 avec une communication intitulée  « l’intelligence artificielle pour l’Europe », première version d’un plan coordonné pour l’IA en décembre 2018, publication de lignes directrices pour une IA de confiance en avril 2019 par un groupe d’experts dit de « haut niveau » (High-Level Expert Group on Artificial Intelligence) ;
  • publication d’un livre blanc sur l’IA en 2020 suivi d’une consultation publique pour créer un écosystème de confiance (plus de 1200 répondants, entreprises, société civile, syndicats). 

Grâce à ces travaux, la Commission a proposé en avril 2021 le « Package IA » avec le plan coordonné sur l’IA révisé qui va de pair avec la proposition d’une première réglementation sur l’IA en Europe.

Le plan coordonné 2021 sur l’intelligence artificielle s’appuie sur la collaboration établie entre la Commission et les États membres au cours du plan coordonné de 2018.

Avec 70 actions, il entend mettre en place les conditions propices au développement et à l’adoption de l’IA en Europe, faire de l’UE le lieu où l’excellence passe « du laboratoire au marché », veiller à ce que l’IA soit au service des personnes et constitue un atout pour la société, renforcer le leadership stratégique dans les secteurs à fort impact.

Il est important par exemple de créer nos propres services et technologies européennes, en permettant aux entreprises, y compris les PME, d’accéder à des centres d’innovation digitale dans le domaine de l’IA. Il s’agit aussi de mettre en place des actions concrètes dans des secteurs à fort impact sur l’environnement, comme la mobilité et l’agriculture.

La proposition de réglementation sur l’IA

Il s’agit d’une législation horizontale car de nombreux défis s’appliquent à tous les secteurs (emploi, commerce, éducation, police, finance…). Afin de se montrer cohérents et pour créer un seul marché pour une IA de confiance, il s’agit d’adopter un cadre juridique unique, un seul règlement pour l’UE, en complément des lois existantes. Il s’agit également de créer un marché unique en application du droit classique du marché interne européen. Il ne s’agit pas de réduire ou d’impacter la protection existante des salariés. Nous avons essayé d’harmoniser les différentes situations et de renforcer la confiance dans le marché, en créant des conditions de concurrence équitables pour les acteurs européens et non européens, applicable indépendamment de l’origine du producteur ou de l’utilisateur, tout en tenant compte des évolutions futures.

Une définition de l’IA, reconnue au plan international, suffisamment large et souple, a été retenue dans le projet de directive: « A software that is developed with one or more of the techniques and approaches listed in Annex I and can, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations, or decisions influencing the environments they interact with. »[1]

« Nous n’essayons pas de réglementer l’IA pour réglementer ». Notre approche est basée sur les risques, en nous centrant sur les usages. Avec 4 niveaux de risques (minimal ou nul, limité, élevé, inacceptable), il est important de ne pas avoir une réglementation trop détaillée ni trop lourde. La plupart des applications ne représentent pas de danger pour la sécurité, les droits fondamentaux, ou la transition écologique.

 e risque limité introduit des obligations de transparence spécifiques pour veiller à ce que les êtres humains soient informés lorsque cela est nécessaire, ce qui favorise la confiance. Lors de l'utilisation de systèmes d'IA tels que les chatbots, les humains doivent être informés qu'ils interagissent avec une machine, qu’il ne s’agit pas d’une vraie personne. Les textes générés par l’IA publiés dans le but d’informer le public sur des questions d’intérêt public doivent être étiquetés comme étant générés artificiellement, tout comme les contenus audio et vidéo constituant des contrefaçons profondes. 

Les systèmes à haut risque (risque élevé) nécessitent de nouvelles exigences de conformité et sont soumis à des obligations strictes avant de pouvoir être mis sur le marché. Ils concernent de multiples domaines (systèmes d'identification biométrique à distance, aide à la décision en matière RH dont le recrutement des personnes, formation scolaire ou professionnelle qui peut déterminer l’accès à l’éducation et au parcours professionnel d’une personne, services publics et privés essentiels, services répressifs susceptibles d’interférer avec les droits fondamentaux des personnes, la gestion des migrations avec les demandes de visa, …).

Bien sûr, ces systèmes impactent les droits des personnes. Que ce soient des salariés ou des travailleurs indépendants, il sera important de s’assurer que ces systèmes sont conformes pendant leur conception et leur intégration en milieu professionnel.  Ces exigences portent notamment sur une demande d'évaluation et d'atténuation des risques, une traçabilité des résultats, une information suffisamment claire, suffisamment compréhensible pour l’utilisateur, surtout quand ils sont utilisés pour fournir des recommandations ou prendre des décisions qui peuvent entraîner des conséquences importantes sur les personnes. 

Cela signifie que les employeurs qui utilisent ces systèmes devront avoir suffisamment d’informations sur leur capacités et leurs limites pour les utiliser sans enfreindre les droits fondamentaux. 

D’autres exigences importantes portent sur des « garde-fous », le suivi humain avec des mesures de surveillance mise en place par les utilisateurs eux-mêmes, des exigences de robustesse, de précision et de cybersécurité.

On essaye d’ores et déjà d’avoir une estimation de ces systèmes à haut risque en essayant d’identifier des cas d’usage. Si l’on prend l’exemple des systèmes utilisés pour le recrutement ou la formation dans des entreprises, le fournisseur de l’IA devra être conscient de ces besoins et atténuer les risques. On doit également prévenir une atteinte potentielle au droit des travailleurs (égalité, sécurité, conditions de travail, vie privée). 

Avec une couche de protection supplémentaire, les pratiques interdites (risque inacceptable) sont celles que l’on ne veut pas voir se développer au sein de l’UE : la manipulation subliminale ou l’exploitation des vulnérabilités entraînant un préjudice physique/psychologique pour les personnes, le « scoring » social par des autorités publiques, l’identification biométrique à distance « en temps réel » à des fins policières dans les espaces accessibles au public (avec des exceptions).

La règlementation sur l’IA entend encourager l’innovation et aider les utilisateurs à s’approprier cette technologie. Nous avons créé des groupes de tchats avec des entreprises. Nous avons également mis en place des mesures pour soutenir les PME et les start-ups qui devront se conformer à cette réglementation et qui auront besoin d’aide pour rendre leurs systèmes conformes. 
 

[1] « Un logiciel développé avec une ou plusieurs des techniques et approches énumérées à l'Annexe I et qui peut, pour un ensemble donné d'objectifs définis par l'homme, générer des résultats tels que du contenu, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels ils interagissent. »

La gouvernance et l’application de la réglementation sur l’IA

Le niveau national des États membres jouera un rôle clef dans la mise en place du règlement. Des autorités de surveillance nationales seront mandatées par les États membres. Ces autorités pourront décider quels systèmes pourront être intégrés ou pas, et pour quelles utilisations. 

Nous envisageons une collaboration étroite entre ces autorités de surveillance et les autres autorités nationales qui ont en charge la défense des droits fondamentaux (attribution de pouvoirs, accès aux documents, possibilité de réaliser des test conjoints). 

Le niveau européen va se doter d’un conseil de l’intelligence artificielle (European Artificial Intelligence Boardcomposé de toutes les autorités de suivi nationales. Son secrétariat sera assuré par la Commission. Les États membres pourront ainsi coopérer, échanger sur les pratiques. Les SIA (Systèmes d’Intelligence Artificielle) identifiés comme étant à haut risque peuvent effectivement évoluer, et il faudra s’assurer de pouvoir faire évoluer la règlementation en conséquence. 

Avec le groupe d’experts de haut niveau (industrie, recherche, société civile, syndicats…), nous avons souhaité tenir compte de la dimension sociale. L’équilibre est difficile à mettre en œuvre mais nous avions pour objectif de mettre en place un groupe fédérateur des différentes parties prenantes. Des discussions sont en cours pour intégrer ce groupe dans le cadre de la gouvernance afin de le rendre plus efficace.

Le plan coordonné européen prévoit un volet sur la formation et le développement des compétences des salariés dans le domaine de l’IA. Il peut s’agir de professionnels qui surveillent les systèmes ou d’un utilisateur quotidien. Au-delà de ce plan d’action, nous encourageons les États membres à inclure un accompagnement et une formation dans leur stratégie en matière d’IA. Le fournisseur devra aussi informer l’utilisateur pour être certain qu’il utilise ces systèmes en toute connaissance de cause. C’est d’ailleurs plutôt de la responsabilité du fournisseur d’assurer la formation pour que les humains gardent le contrôle sur le système d’intelligence artificielle.

Les prochaines étapes

Le Parlement européen et le Conseil, en tant que colégislateurs, négocieront la proposition et conviendront d'un compromis dans le cadre de la procédure législative ordinaire.

Une fois le règlement adopté, une période de transition de deux ans sera prévue avant qu’il ne devienne directement applicable dans toute l'UE.

Parallèlement, les normes harmonisées du CEN/CENELEC devraient être prêtes et aider les opérateurs dans la mise en œuvre pratique des nouvelles règles et procédures d'évaluation de la conformité.[1]
 

[1] Publié au Journal officiel le 12 juillet 2024, le règlement sur l’IA est entré en vigueur le 1er août 2024. Son entrée en application est échelonnée : 2 février 2025 pour Ies interdictions relatives aux systèmes d’IA présentant des risques inacceptables, 2 août 2025 pour l’application des règles pour les modèles d’IA à usage général et la nomination des autorités compétentes au niveau des États membres. Le 2 août 2026 puis le 2 août 2027, toutes les dispositions du règlement sur l'IA deviendront applicables avec ces 2 échéances en fonction des catégories des SIA à haut risque.

Article précédent

Article suivant