IA de confiance Analyse des besoins Conduite du changement Algorithmes et ressources humaines : une exposition à des risques majeurs Abdé Essaidi Abdé Essaidi Publié le 21/10/25 Sommaire Promouvoir l’IA de confiance Un premier cas d’usage : un calculateur de l’empreinte carbone des chantiers dans le secteur du BTP Un second cas d’usage : l’aide aux réfugiés face à une gestion de crise dans une ONG L'auteur Abdé Essaidi est Vice-président Exécutif, Axionable. Fermer L'auteur Abdé Essaidi est Vice-président Exécutif, Axionable. Créée en 2016, la société de conseil Axionable s’est spécialisée, à travers les données et l’IA sur le développement durable, notamment dans le domaine de la décarbonation des organisations publiques et privées. Avec deux bureaux, en France et au Canada, l’entreprise s’est développée en auto-financement, sans levée de fonds. Après un parcours d’ingénieur informaticien et la conduite de nombreux projets, Abé Essaidi a créé la filiale d’Axionable de Montréal en 2019 dont il assure aujourd’hui la direction. Promouvoir l’IA de confiance Derrière un algorithme, il y a une séquence de lignes de codes. Quand on va sur excel et que l’on trie une colonne, c’est un algorithme. Il y a donc des algorithmes plus ou moins sophistiqués, « apprenants » ou « non apprenants ». Dans l’exemple trivial d’excel, il n’y a aucun impact si ce n’est pour celui qui trie les données. Des algorithmes « apprenants » vont aller chercher des données pour comprendre, prévoir, visualiser des processus. Ils vont avoir un impact sur plusieurs personnes, au premier rang desquels figure l’utilisateur, celui qui, face au système, va devoir en tirer un bénéfice, prendre une décision, surtout s’il y a en jeu des sujets de décision. Aujourd’hui, nous sommes face un changement de paradigme, surtout en Europe. L’IA Act va changer la donne, et cela finira par advenir pour les clients d’Axionable en Amérique du Nord. Dans le contexte actuel, la relation de confiance entre l’humain et l’IA, ou plus exactement l’algorithme d’IA, est devenue indispensable. Avec différentes sources[1], un consensus mondial s’est progressivement établi autour du concept d’IA de confiance, nommé d’abord IA éthique, IA responsable. L’encadrement de l’IA favoriserait son adoption par toutes les parties prenantes, et à grande échelle, en particulier pour les systèmes critiques autour de 7 exigences clés : le contrôle humain (Human In The Loop), la robustesse technique et la sécurité, le respect de la vie privée et la gouvernance des données, la transparence, la diversité, la non-discrimination et l’équité, le bien-être environnemental et sociétal, les responsabilités associées au traitement. Parmi ces 7 piliers de l’IA de confiance, le contrôle humain, avec le bien-être environnemental et sociétal, est l’un des plus importants. Aujourd’hui, un algorithme qui apprend tout seul et prend des décisions tout seul, cela n’existe pas. En tout cas, la réglementation est là pour empêcher que cela existe. Cependant, il s’agit par des actions concrètes de maîtriser et de mitiger les risques en produisant des efforts majeurs. Le premier effort porte sur la conduite du changement. Développer un algorithme en deep learning avec des couches de neurones peut être très intéressant et stimulant techniquement. Mais, qu’est-ce que je fais de la prédiction qui m’est fournie ? de la reconnaissance d’images qui m’est donnée pour détecter un vol, une agression ? sachant que ce sont bien des personnes qui vont prendre in fine des décisions. Il ne sert à rien de résoudre un problème avec une solution compliquée. Quand on part de ce postulat, on parle plutôt du besoin, on rentre dans un autre niveau de discussion. Le second sujet concerne l’internalisation des compétences. En tant que prestataire de services, avec une équipe dotée de ressources humaines dédiées, data scientist, développeur, mathématicien, il est possible de proposer des solutions sur mesure, très sophistiquées. Mais lorsque l’on a donné « les clefs du camion » au client, comment fait-on pour s’assurer que le projet a bien été assimilé et internalisé ? La vocation du prestataire, c’est de bâtir des logiciels. C’est aussi d’éviter, 6 mois après son départ, que le projet n’échoue, comme on le constate trop souvent, notamment dans les PME. Intégrer les solutions dans les processus RH et repenser l’organisation sont deux autres défis, certes communs à tous les projets informatiques, mais d’autant plus cruciaux pour assurer le contrôle humain de l’IA. Avoir la main sur un algorithme et ses sorties suppose en quelque sorte une chaîne de commandement dans l’organisation qui doit être pilotée. Pour passer de la théorie à la pratique, prenons deux cas pratiques. [1] Union européenne, Directive sur la prise de décisions automatisée du gouvernement du Canada, Déclaration de Montréal, Rapport Villani. Un premier cas d’usage : un calculateur de l’empreinte carbone des chantiers dans le secteur du BTP La réduction de l’empreinte carbone est un objectif majeur du secteur de la construction. Il s’agit d’abord de développer des solutions pour mesurer les émissions de carbone des organisations et en assurer le pilotage. L’objectif peut être aussi d’utiliser les données pour aider les entreprises à évaluer leurs trajectoires de décarbonation. Dans cet exemple, l’outil proposé à un grand groupe du BTP entendait répondre à cette double vocation. Comme dans beaucoup de grandes entreprises du secteur, souvent soumises à des fusions-acquisitions, les données et les calculs existants étaient par conception hétérogènes. Le sujet de la décarbonation et de son pilotage était essentiellement traité par des processus manuels, en ayant recours à un audit externe. Chaque année, l’auditeur réalisait l’audit carbone de l’ensemble des filiales. La tâche était quasiment titanesque, à la maille de tous les chantiers de l’entreprise. Elle nécessitait, pour publier un bilan carbone en février de l’année N, de commencer le travail en février de l’année N-1, avec la difficulté de recueillir des données à jour et des approximations importantes. La solution mis en place a comporté deux volets. Le premier volet a porté sur la collecte des données pour l’ensemble des sites en Europe et en Amérique du Nord. Le second volet a permis d’agréger les données au niveau du groupe, de prendre des décisions opérationnelles en actionnant des leviers de réduction des émissions de CO2 puis d’utiliser les données produites pour le bilan carbone annuel. En s’appuyant sur une ingénierie de données aujourd’hui très standardisée, l’enjeu principal n’a pas été la complexité du développement mais bien la stratégie de conduite de changement mis en place avec l’entreprise. L’objectif premier était d’obtenir une collecte de données environnementales de qualité afin de produire un reporting de qualité et des algorithmes prédictifs permettant de calculer des trajectoires de décarbonation correctes. Trois actions originales ont été mises en œuvre pour maximiser la qualité des données : la possibilité pour les employés sur site, en l’intégrant dans les évaluations annuelles, de s’engager sur un objectif environnemental lié à l’utilisation de l’outil ; l’instauration d’une règle de bonus-malus budgétaire pour les directions d’exploitation ; la mise en place d’une hotline data d’une cinquantaine de personnes pour répondre à vos questions sur le logiciel face à votre écran. Avec donc beaucoup de moyens, l’accompagnement du projet a duré quasiment 2 ans et l’on constate avec le suivi réalisé depuis la livraison de l’outil une baisse des valeurs extrêmes ou aberrantes, par exemple en termes de tonnage, de matières recyclées ou de matières résiduelles. Un second cas d’usage : l’aide aux réfugiés face à une gestion de crise dans une ONG Dans cette ONG, l’activité repose beaucoup sur des volontaires, des bénévoles. Il existait une réelle déconnexion entre les tâches exercées par les bénévoles et la capacité pour l’organisation d’obtenir une rétroaction satisfaisante. Cette fracture numérique en quelque sorte était encore plus vraie avec les personnes aidées, les bénéficiaires en situation précaire. Dans un contexte précis de gestion de crise, la demande visait à mettre à disposition un site internet en 4 langues qui permette de collecter les demandes d’aide des réfugiés, de renseigner les personnes qui voulaient être aidantes puis de faire un rapprochement. Un 2ème set de fonctionnalité visait à mettre en place un suivi en back-office, avec des métriques plus ou moins complexes à calculer. Les matching sont-ils de qualité ? Assure-t-on un bon niveau de soutien aux personnes qui sollicitent de l’aide ? Dans un contexte d’urgence, on ne pouvait pas se permettre d’avoir un projet qui dérive, un algorithme qui apprend mal. Il s’agissait d’aller au plus simple pour que cela fonctionne. L’objectif était de maximiser la rapidité de prise en main de la solution retenue, et de maximiser le temps de réponse de l’ONG. L’enjeu majeur a été d’intégrer la solution dans le système d’information existant, construit au fil des années, avec des données en conséquence, et de composer avec ces contraintes. Point important, l’ONG a également nommé par site d’accueil un responsable « efficacité du jumelage » disposant de fonctionnalités plus avancées, pour suivre le déploiement de l’outil à partir d’un certain nombre de critères d’efficacité. Dans ce projet, il n’y avait pas d’IA. Plus il y a de complexité dans un algorithme, plus il y a d’apprentissage, moins on est capable d’expliquer la réponse fournie. Ce sont des algorithmes simples, non apprenants qui ont été mis en place, des règles de gestion, afin de minimiser les risques de désengagement. De manière générale, ce risque de désengagement est présent dans les projets avec de l’apprentissage, où l’on pousse les prédictions, les recommandations, les sorties de l’algorithme. Avec leur propre intuition de terrain, les utilisateurs ne comprennent pas bien pourquoi on leur demande telle tâche, et finissent par sortir de l’application pour revenir à leurs habitudes antérieures. Ces deux cas d’usage relèvent d’organisations plutôt robustes qui disposent de moyens. Une PME a besoin d’aller vite et se dit « je ne veux pas me casser la tête, je veux une solution qui fonctionne », au risque de partir « droit dans le mur », voire de mettre « la clef sous la porte » en ratant par exemple l’intégration d’un projet dans un système critique d’une chaîne de production. Article précédent Article suivant Article précédent Droit du travail et intelligence artificielle : quelques éléments d’analyse Article suivant L’introduction de l’IA : vers le travailleur augmenté ou vers l’organisation augmentée ? Ceci pourrait vous intéresser L’état des lieux de l’usage de l’IA en GRH au Québec L’usage de l’intelligence artificielle en RH au Québec croît rapidement, et la démocratisation de nouveaux outils comme ChatGPT pourrait réduire les écarts entre petites et grandes entreprises. Québec Le ciblage des interventions sur les risques humains et l’automatisation des tâches simples ... Secteur bancaire Relever le défi de l’industrie 4.0 dans l’aérospatiale au Québec : quel est le point clef retenir ? ... Québec Tout découvrir