Systèmes d'intelligence artificielle (SIA) Chartes éthiques IA L’encadrement éthique de l’IA Lyse Langlois Lyse Langlois Publié le 21/10/25 Sommaire Pourquoi a-t-on besoin de chartes éthiques en IA ? Qu’est-ce qu’une charte et comment la formaliser ? Quelle utilisation des chartes ? L'auteur Lyse Langlois est Directrice générale de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA), Professeure titulaire en éthique de l’Université Laval. Fermer L'auteur Lyse Langlois est Directrice générale de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA), Professeure titulaire en éthique de l’Université Laval. L’émergence des chartes proposant un cadre éthique de l’IA remonte à 2016 (USA, lancement en Californie). Elles édictent des « principes » issus de diverses parties prenantes (monde académique, entreprises, organisations civiques, organisations publiques) qui portent sur des enjeux de gouvernance, de démocratie et d’opérationnalisation de l’IA. L’Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique (OBVIA) a engagé plusieurs initiatives interrogeant ces démarches délibératives en travaillant notamment sur l’élaboration de scénarios prospectifs portant sur ces principes (Hydro-Québec, le CHUM de Montréal, l’autorité des marchés financiers) et la mise en place d’un outil concret pour l’industrie. Pourquoi a-t-on besoin de chartes éthiques en IA ? Leur élaboration est justifiée pour 3 raisons : L’IA a un pouvoir de transformation Les algorithmes peuvent affecter la manière dont nous conceptualisons le monde et modifions son organisation sociale et politique. L’IA peut donc avoir un fort impact et des conséquences sur les individus, les groupes et des segments entiers d’une société. Des enjeux éthiques ont été soulevés à partir de cette transformation. L’incertitude et l’opacité du travail effectué par les algorithmes et leur impact sont également problématiques Les algorithmes reposent de plus en plus sur les capacités de l’apprentissage profond (deep learning) et il est de plus en plus difficile de comprendre comment l’algorithme prend les décisions. Cela confère aux algorithmes un certain degré d’autonomie qui peut être questionné. Les algorithmes constituent en soi un défi éthique, notamment en raison de l’ampleur de l’analyse et de la complexité de la prise de décision. Les chercheurs ont accès à des données numérisées. La manière dont ces données sont acquises soulève de plus en plus de questions, illustrées par des affaires récentes, tel que le scandale Cambridge Analytica, la question de l’influence du vote, la vente de l’image de personnes pour faire de la reconnaissance faciale sans leur accord via Clearview, ou bien encore le logiciel Compass qui détermine les probabilités de récidive d’un condamné en fonction de son origine ethnique et de son apparence. L’IA reflète des réponses qui sont ancrées dans des données sur lesquelles les algorithmes d’IA ont été entraînés. Cela nécessite à juste titre de questionner les bases de données. Qu’est-ce qu’une charte et comment la formaliser ? Les chartes éthiques sont venues « soulever » les enjeux évoqués précédemment : les biais dans les bases de données, l’opacité de l’algorithme, la manipulation. Une charte éthique a pour objet d’expliquer et de déterminer une manière d’agir afin d’être en accord avec les valeurs prônées par la charte elle-même. Elle constitue un outil plus souple et plus immédiat que la loi, qui permet de justifier ses décisions en fonction de valeurs connues et acceptées. Il faut être très attentif à la construction d’une charte : quel en a été le processus d’élaboration ? quels en sont les outils de mesure et qui l’a créé ? Le processus d’élaboration Différentes questions se posent lorsque l’on étudie une charte : « Ses créateurs faisaient-ils partie d’un groupe homogène ? » ; « Dans ce cas, s’agissait-il d’une entreprise, d’un consultant, d’un groupe public ? » … Si le groupe constituant n’était pas un groupe homogène, intégrait-t-il des représentants de la société civile, du gouvernement, et/ou de multiples intérêts privés ? Le processus de création était-il un processus vertical ou horizontal ? Était-il dirigé de la base au sommet ou du sommet à la base ? Des principes majeurs L’élaboration des chartes éthiques repose sur certains principes dont le choix détermine les usages. Il existe ainsi différents cas de figure, par exemple : lorsque les chartes sont basées sur les droits essentiels et les libertés fondamentales (la vie, la liberté de conscience et de religion, l’intégrité…) ; lorsque les chartes sont fondées sur des valeurs (la non-discrimination, la tolérance…) ; lorsque les chartes sont fondées sur des normes déontologiques (par exemple, une charte émise par un conseil de l’ordre) ; lorsque les chartes sont attentives aux impacts environnementaux et sociétaux. Nous avons au Québec le concept « d’innovation responsable », tandis que d’autres entités vont s’appuyer sur le développement durable, par exemple. La finalité est de garantir le fait que l’IA doit améliorer les capacités de la personne et ne pas la supplanter : L’intelligence artificielle doit être au service de l’humain. Des principes font aujourd’hui consensus en matière d’élaboration des chartes : la sécurité ; l’explicabilité et la transparence ; la protection de la vie privée ; la défense de l’EDI (équité/diversité/inclusion) ; l’autonomie et le bien-être ; le développement soutenable ; la responsabilité. Soulignons que l’explicabilité a mis du temps à apparaître dans les débats, aussi bien au Québec qu’à l’échelle internationale. Les outils de mesure Les principes doivent se décliner en outils de mesure basés sur l’évaluation des risques. La construction de ces outils se base sur la notion de risque élevé, modéré ou faible. Il faut alors pouvoir évaluer les risques en les mesurant, par exemple, par des chiffres (notion de « score »). Il existe aussi des outils basés sur des questionnements. Un questionnaire permet de réfléchir à l’intelligence artificielle et à l’usage que l’on en fait. Ainsi, en fonction des réponses que l’on se donne, on sait où l’on se trouve. Ces outils sont plus longs à mettre en place que les outils de chiffrage, mais leur impact est plus fort en matière de sensibilisation des individus aux différents enjeux. Des exemples de chartes à travers le monde On recense plus de 200 chartes éthiques à travers le monde. Parmi elles, la déclaration de Montréal date de 2018. Il s’agit d’une déclaration citoyenne dans laquelle de nombreuses parties prenantes ont été impliquées. En 2017, l’association internationale des ingénieurs électriciens et électroniciens a posé des principes qui ont influencé les normes ISO. On peut également citer la charte européenne « L’IA digne de confiance ». En 2022, la charte éthique de l’Unesco a montré l’intérêt porté au niveau international pour cette question. Le gouvernement québécois s’inspire d’ailleurs beaucoup des principes répertoriés par l’Unesco. Quelle utilisation des chartes ? Il faut passer de la signature sans réel engagement, de « l’intention louable » à l’engagement réel. Certains marqueurs sont pour cela importants : la charte est-elle prise en compte dès la conception de l’outil d’intelligence artificielle (« ethic by design ») ? la charte permet-elle de réfléchir en équipe pour s’améliorer ? la charte permet-elle de planifier et d’évaluer l’action ? la charte apparaît-elle dans les différents rapports ? Une charte permet aussi de maintenir une bonne image ainsi qu’une bonne réputation vis-à-vis des utilisateurs de l’intelligence artificielle. Cela impose le respect des obligations posées par la charte à la lumière des résultats obtenus grâce aux outils de mesure. En conclusion, les chartes ne doivent pas servir à évaluer les gens mais elles doivent constituer un vecteur de prévention et d’amélioration dans l’utilisation de l’IA. Elles représentent une première réflexion sur la technologie, mais elles doivent s’accompagner de réflexions permanentes pour suivre les évolutions de l’IA. Enfin, Les chartes doivent s’inscrire dans un plan de formation des utilisateurs de l’IA et doivent être expliquées à ces derniers. Il apparaît donc que l’éthique est un chantier permanent qui doit permettre la cohérence entre ce qui est dit et ce qui est mis en œuvre. A consulter : Grille de réflexivité sur les enjeux éthiques des systèmes d’intelligence artificielle à partir de la déclaration de Montréal pour un développement responsable de l’intelligence artificielle PDF - 1 774.3 Ko Article précédent Article suivant Article précédent Introduction aux outils « responsables » en IA Article suivant Les chartes éthiques en IA au service des acteurs du dialogue social ? Ceci pourrait vous intéresser L’usage de l’IA dans la gendarmerie nationale L'usage de l’IA redéfinit les pratiques professionnelles en sécurité et en ressources humaines, en aidant à mieux anticiper, analyser et décider, tout en exigeant une compréhension fine de son mode de... Gendarmerie nationale L’utilisation de l’IA dans le domaine des ressources humaines : quels objectifs ? ... Secteur bancaire L’introduction de l’IA : vers le travailleur augmenté ou vers l’organisation augmentée ? ... Usage de l'IA Tout découvrir