PARTIE 6

Regards croisés sur les enjeux éthiques de l’IA

Aujourd’hui on parle d’IA « responsable » mais, pour Jean-Marie Mathews, le fait de le réifier est problématique : ne faut-il pas plutôt parler uniquement des pratiques humaines, des pratiques collectives, délibérées ? Pour Jean-Marie John-Mathews, il s’agit moins de se focaliser sur les grands principes, mais plutôt de faire ressortir les points de désaccords entre les personnes et de les discuter tels qu’ils se présentent vraiment de manière opérationnelle.  Pour illustrer son approche, il évoque à partir de ses travaux de recherche, les quatre catégories de problèmes majeurs que pose l’IA en matière d’éthique.

Pour Lyse Langlois, il n’est pas évident de se positionner en amont des développements technologiques.  L’éthique, telle qu’elle la conçoit, relève d’une capacité réflexive, d’un esprit critique qui permet de questionner les choix qui sont faits sur l’utilité de certaines applications. Les chartes éthiques participent à la sensibilisation des organisations qui produisent ou utilisent l’IA, et qui souhaitent en atténuer les risques ou mieux les contrôler.

Une charte éthique a pour objet d’expliquer et de déterminer une manière d’agir afin d’être en accord avec les valeurs prônées par la charte elle-même. Elle doit constituer un vecteur de prévention et d’amélioration de l’IA. Elle doit s’accompagner de réflexions permanentes pour suivre l’évolution constante de l’IA.

Les chartes éthiques peuvent-elles être également mises au service des acteurs du dialogue social ?