Usage de l'IA Droit du travail Pouvoir de l'employeur Droit du travail et intelligence artificielle : quelques éléments d’analyse Patrice Adam Patrice Adam Publié le 21/10/25 Sommaire Sur la question la subordination Sur la question du pouvoir patronal Sur la question de la responsabilité Les outils actuels du Droit positif D’éventuels nouveaux outils juridiques L'auteur Patrice Adam est Professeur à l’Université de Lorraine. Avec Martine Le Friant et Yasmine Tarasewicz, Patrice Adam a coordonné au sein de l’Association française de droit du travail et de la sécurité sociale les premiers travaux en droit du travail réalisés en France autour des algorithmes : Intelligence artificielle, gestion algorithmique du personnel et droit du travail ; les travaux de l'AFDT, Dalloz, 2020. Fermer L'auteur Patrice Adam est Professeur à l’Université de Lorraine. Avec Martine Le Friant et Yasmine Tarasewicz, Patrice Adam a coordonné au sein de l’Association française de droit du travail et de la sécurité sociale les premiers travaux en droit du travail réalisés en France autour des algorithmes : Intelligence artificielle, gestion algorithmique du personnel et droit du travail ; les travaux de l'AFDT, Dalloz, 2020. Si les juristes en droit du travail ont traité de la question de l'intelligence artificielle (IA) avec un temps de retard sur les sociologues et les gestionnaires, ils ont été longtemps focalisés sur le contrôle des mails, des disques durs, des questions assez classiques qui peuvent apparaître déjà d’un autre temps. Comment abordent-ils aujourd’hui cette question ? C’est d’abord à travers le prisme de deux grandes catégories structurantes en droit du travail que l’on peut y répondre, les deux faces de la même médaille : la subordination et le pouvoir de l’employeur. Sur la question la subordination La première manière dont on s’est saisi de l’IA, c’est à travers les limites de la subordination. Trois dimensions ont été mises à l’étude : la question des marges du salariat à travers la para subordination des travailleurs de plateforme, bien évidemment la protection de la vie privée et la question du contrôle social pour les travailleurs salariés, et enfin la dignité de ces salariés. L’algorithme, c’est ce qui caractérise l’économie de plateforme et va permettre d’exclure ou de diluer le lien de subordination en reportant aux marges du salariat toute une partie des travailleurs de plateformes. La menace que représente l’IA pour les travailleurs subordonnés a été également abordée sous la protection de la vie privée. Le sujet se pose à un double niveau : à la fois dans la collecte des données mais aussi avec l’utilisation d’outils de gestion algorithmique permettant la surveillance et le contrôle quasi panoptique du salarié. Au-delà de la vie privée et du contrôle, une 3ème dimension porte sur le respect de la dignité humaine. Ce principe en droit français relève d’une décision du conseil constitutionnel de 1994. Au-delà de la dimension individuelle des dangers créés par l’IA pour les travailleurs, il se pose avec le risque de déshumanisation que l’on retrouve dans un système de gestion dans lequel le travailleur ne serait plus que l’un des rouages. Le principe de respect de la dignité humaine est donc mobilisable pour lutter contre certaines formes déshumanisées de gestion des ressources humaines. Sur la question du pouvoir patronal Mais une question première porte sur l’horizon d’une gestion du personnel par l’IA qui rendrait inutile, même superfétatoire le dialogue social dès lors que le discours dominant imposerait une IA productrice de vérité. Dans ce cas, la vérité ne se discute pas. Il n’y aurait plus à rien à négocier puisqu’il n’y aurait plus rien de négociable, la masse considérable des données révélant « le chemin du vrai » qui n’est susceptible d’aucune déviation. Il s’agit là d’une vision très noire et pessimiste d’un horizon possible, mais dans le champ des questions que se posent les juristes, figure aussi celle du devenir du dialogue social et de la négociation collective. Il s’agit là de l’autre face de la médaille. La question du pouvoir patronal est centrale. Si vous avez un travailleur subordonné, c’est que vous avez un employeur qui a un pouvoir sur lui. Ce pouvoir, attaché à la décision humaine, participe de la responsabilité et de la dignité patronale. Or, la délégation totale à une IA pose un problème de dignité mais cette fois pour l’employeur, au regard de ce qui est la fonction même de diriger. Le RGDP à travers son article 22, repris dans la loi informatique et libertés dans son article 47, interdit la délégation totale sous exception à une machine. Le slogan, c’est l’humain qui commande, l’humain doit rester aux commandes. Le droit va donc se saisir de la question de la dévolution de pouvoir à une machine en réaffirmant la nécessité d’un contrôle humain. Par ailleurs, toute l’histoire du droit du travail est un processus de rationalisation du pouvoir de l’employeur. Ce pouvoir doit échapper au pur arbitraire de l’employeur et ce dernier doit pouvoir exposer au juge, aux représentants du personnel, aux organisations syndicales, les raisons qui président à ses décisions. Ces « raisons d’agir » doivent également être objectives, et ne pas se contenter de simples allégations. L’IA semble finalement pousser jusqu’au bout ce processus de rationalisation et d’objectivation. En évitant les biais humains, la subjectivité humaine, elle va exactement là où le droit du travail souhaite l’amener. On sait cependant que cela reste une illusion, les systèmes d’intelligence artificielle pouvant reproduire tout un ensemble de biais humains puisqu’ils ne sont eux-mêmes qu’une construction humaine. Quand on parle de pouvoir, on parle aussi de contre-pouvoir. En droit du travail, le contre-pouvoir prend la forme sur le plan collectif de la représentation du personnel et de la négociation collective. Si l’on suit à la trace le narratif RH, on serait d’ailleurs presque conduit à conclure que les règles de droit du travail qui organisent les procédures de consultation seraient alors totalement inutiles puisqu’un système d’intelligence artificielle relèverait d’un dispositif producteur de vérité. A la double question, l’IA peut-elle être objet de négociation collective et objet de consultation des représentants du personnel ? la réponse est bien sûr positive. Elle doit l’être mais à quelles conditions ? Négocier sur l’IA ou être consulté dans un CSE sur l’IA demande tout de même un certain nombre de compétences. Mais, une question première demeure. Elle porte sur l’horizon d’une gestion du personnel par l’IA qui rendrait inutile le dialogue social dès lors que le discours dominant imposerait une IA producteur de vérité. Dans ce cas, la vérité ne se discute pas. Il n’y aurait plus à rien à négocier puisqu’il n’y aurait plus rien de négociable, la masse considérable des données révélant « le chemin du vrai » qui n’est susceptible d’aucune déviation. Certes, il s’agit là d’une vision très noire et pessimiste d’un horizon possible, mais dans le champ des questions que se posent les juristes, figure aussi celle du devenir du dialogue social et de la négociation collective. Sur la question de la responsabilité Le droit du travail s’est assez peu interrogé sur la question de la responsabilité ou plutôt des responsabilités. En revanche, beaucoup de réflexions ont déjà porté sur la responsabilité civile, en particulier concernant les accidents liés à la voiture autonome. La question de la responsabilité civile s’est principalement posée quand on a mis en évidence le fait qu’une décision assistée par algorithme pouvait produire une conséquence dommageable, par exemple une discrimination. Qui est responsable dans cette hypothèse ? est-ce l’employeur qui s’est fait assisté de l’outil ? celui qui a vendu l’outil ? celui qui l’a conçu si tant est que celui qui l’a conçu n’est pas le vendeur ? où se situe finalement le point d’imputation de la responsabilité et sur quels fondements ? Pour qu’il y ait des réponses en droit, il est nécessaire que le législateur s’en soit saisi, ce qui n’est pas le cas, ou bien que le juge en ait été saisi, ce qui n’est pas le cas non plus. Pour le moment, la seule question qui s’est posée devant la chambre sociale la Cour de cassation a concerné la consultation ou non du feu CHSCT. Les outils actuels du Droit positif La doctrine majoritaire, c’est-à-dire les juristes dans leur majorité, estiment que les dispositifs actuels sont sans doute insuffisants et peuvent justifier la modification de certains outils existants. Dans un dispositif de responsabilité pour faute, est responsable celui qui a commis une faute. Cependant, cela ne permet guère d’avancer dans le cas d’un système d’intelligence artificielle. Si le problème réside par exemple dans la conception d’un outil de deep learning avec des données de sortie pour lesquelles on ne se sait pas exactement comment le système fonctionne, la faute comme fondement de la responsabilité civile au sens de l’article 1240 du code civil devient extrêmement compliquée à établir, au risque que des actions engagées n’aboutissent la plupart du temps qu’à des impasses. On peut alors se replier sur la responsabilité objective, c’est-à-dire la responsabilité du fait de la chose[1]. On va dans ce cas identifier un responsable qui n’a pas commis de faute mais qui a bénéficié d’une certaine manière du dispositif qui a créé le dommage. Mais là encore, on se retrouve à nouveau face à des problèmes juridiques. Il s’agit d’identifier le gardien de la chose. Mais la responsabilité du fait des choses dans le droit positif ne s’applique pas aux choses incorporelles, ce qui est le cas d’un système d’intelligence artificielle (SIA). Pour surmonter cet obstacle, Il suffirait d’étendre le dispositif aux choses incorporelles, moyennant une petite évolution des solutions juridiques. Admettons donc que le SIA soit une chose au sens de la responsabilité du fait des choses. Il va falloir identifier son gardien, celui à qui on va imputer la responsabilité sans chercher pour autant à lui imputer une faute. Est-ce celui qui utilise le SIA et en escompte un avantage ? celui qui l’a conçu et ou vendu ? En faisant une division de la garde, entre la garde du comportement et la garde de la structure, les juristes ont proposé d’appliquer cette distinction à l’intelligence artificielle. Dans la garde du comportement, l’utilisateur est responsable de la chose qu’il utilise. Dans la garde de la structure, lorsque le problème réside dans les principes même du fonctionnement de la chose, le concepteur ou le vendeur est responsable. Sans doute, faudrait-il appliquer pour notre sujet la garde de la structure, mais cette solution ne fait pas aujourd’hui consensus. Définie aujourd’hui par la loi du 19 mai 1998, la responsabilité du fait des produits défectueux ouvre une autre voie possible. Considérer l’IA comme un produit qui peut être défectueux entraine la responsabilité de l’ensemble des personnes qui sont désignées par la loi, du concepteur à l’utilisateur. Mais est-on certain que la loi sur les produits défectueux s’applique à l’IA ? L’IA, chose incorporelle, est-elle bien un produit ? Sans doute, la réponse est positive mais il serait préférable que la loi soit révisée pour le préciser. [1] La responsabilité du fait des choses est l'obligation de réparer le préjudice résultant du fait des choses dont on a la garde D’éventuels nouveaux outils juridiques Certains sont alors tentés de « laisser tomber cet ancien monde » et de penser de nouveaux outils du droit. Plusieurs juristes évoquent l’hypothèse de consacrer la responsabilité juridique des robots, de l’IA dès lors qu’elle est intégrée à un système robotisé. Mais cela reviendrait à ériger pour responsable le système lui-même, ce qui se supposerait de lui accorder un patrimoine pour qu’il puisse réparer les dommages commis et de déterminer qui devrait couvrir ce patrimoine. La mise en en place d’un dispositif certes moins spectaculaire d’assurance obligatoire ou de garantie obligatoire, alimenté par le concepteur du dispositif et par son utilisateur, permettrait en revanche qu’un fond dédié puisse être activé en cas de dommage. Enfin, la question de la responsabilité ne se limite pas à la responsabilité civile. L’exemple de la discrimination par l’algorithme suppose de raisonner dans un autre cadre et pose la question de l’imputation à l’utilisateur et à l’employeur. Dans ce cas, le salarié pourra prendre acte de la rupture du contrat de travail en en imputant la responsabilité à l’employeur ? Pourra-t-il exercer une action en résiliation judiciaire dans l’hypothèse où le dispositif serait discriminatoire ou aurait causé un préjudice particulier ? Quant à la responsabilité pénale, le problème est tout aussi épineux puisque la responsabilité pénale exige une intentionnalité difficile à établir, alors même qu’une discrimination objective peut être produite en l’espèce. Article précédent Article suivant Article précédent Les conséquences de la surveillance électronique des salariés - Comment l’encadrer ? Article suivant Algorithmes et ressources humaines : une exposition à des risques majeurs Ceci pourrait vous intéresser Les principaux usages de l’IA en GRH au Québec L’IA en RH au Québec améliore recrutement, gestion des talents et compétences, mais l’usage génératif pour rédiger des documents suscite des inquiétudes en raison des risques liés à un usage trop rapi... Québec Qu’entend-on par gestion algorithmique des salariés ? ... Québec Qu’est-ce qu’est le CAMAQ ? ... Québec Tout découvrir