Systèmes d'intelligence artificielle (SIA) Données Apprentissage automatique (machine learning) Intelligence artificielle : comment transforme-t-elle notre société et quels défis pose-t-elle ? Romain Billot Romain Billot Publié le 21/10/25 Sommaire Définir l’intelligence artificielle comme « un monde de données » (Cédric Villani) Aux origines de l’IA Les trois types d’apprentissage du machine learning La question centrale des données L’explicabilité des systèmes d’intelligence artificielle (SIA) Quelle vigilance doit-on avoir dans l’entreprise vis-à-vis de l’intelligence artificielle ? Quelle éducation à l’IA ? L'auteur Professeur en data science à l’IMT Atlantique, Romain Billot est responsable de l'équipe DECIDE (UMR CNRS 6285 Lab-STICC) et adjoint à la recherche du département LUSSI. Les travaux de recherches qu’il dirige en data mining et optimisation portent notamment sur la mobilité intelligente et la santé connectée. Il est également responsable d'enseignements en statistiques et machine learning. Fermer L'auteur Professeur en data science à l’IMT Atlantique, Romain Billot est responsable de l'équipe DECIDE (UMR CNRS 6285 Lab-STICC) et adjoint à la recherche du département LUSSI. Les travaux de recherches qu’il dirige en data mining et optimisation portent notamment sur la mobilité intelligente et la santé connectée. Il est également responsable d'enseignements en statistiques et machine learning. L’intelligence artificielle (IA) est partout. C’est un phénomène dont on entend beaucoup parler depuis 3-4 ans dans les médias grand public, notamment depuis la publication du rapport du mathématicien Cédric Villani, commandé par le gouvernement en 2018. L’IA représente de formidables opportunités et de grandes avancées dans la société, notamment en matière : de santé (aide au diagnostic) ; d’applications juridiques et bancaires (aide à la décision) ; de transports (véhicules autonomes). Démocratisée par les Gafam[1] qui ont accès à des volumes de données exceptionnels, l’IA est présente dans notre vie quotidienne. Par exemple, la plateforme Netflix a fondé son modèle économique sur des algorithmes de reconnaissance qui ont fait son succès. Il existe toutefois plusieurs sources d’inquiétudes liées à l’IA et à sa fiabilité, par exemple, la mise en échec du système de détection de voie d’une Tesla, déréglée par de simples stickers. L’IA suscite également une importante actualité sur la question de l’éthique, illustrée notamment sur le plan médiatique par le scandale Cambridge Analytica ou les applications « à risque » (ex : crime, reconnaissance faciale). Un algorithme étant un « outil politique », l’IA doit être régulée au plus haut niveau. L’IA doit être au service de l’humain, et doit être suffisamment sûre, fiable, transparente, explicable et interprétable. Elle doit respecter la vie privée, être garante d’une certaine responsabilité, avec une obligation de rendre des comptes. Face à l’IA en entreprise, la question du dialogue social est cruciale et on en est très loin. Il n’existe pas vraiment aujourd’hui d’exemple de bonnes pratiques au sein de la mise en place de système d’IA ou d’algorithme dans les entreprises. On voit plutôt des sociétés de conseil essayant de vendre des solutions clé en main – des « boîtes noires » – que de la co-construction. Il y a aussi un enjeu fort lié à la transition énergétique : il faut faire attention aux dégâts qu’elle peut causer. En comparaison, l’apprentissage d’un modèle peut générer près de 5x plus d’émissions de CO2 qu’une voiture américaine moyenne. Il y a donc un prix à payer pour atteindre de telles performances avec des serveurs de stockage de données dotés d’importantes capacités de calcul utilisés en particulier par les Gafam et qui consomment énormément d’énergie. [1] Acronyme de Google, Apple, Facebook, Amazon, et Microsoft Définir l’intelligence artificielle comme « un monde de données » (Cédric Villani) Il n’y a pas UNE définition de l’IA. Il s’agirait plutôt d’une quête qui viserait à reproduire dans une machine le fonctionnement du cerveau humain. Lorsque l’on parle d’IA, on parle dans 90% des cas de « machine learning » (ou « apprentissage automatique » en français). Il s’agit d’un ensemble d’algorithmes qui vont donner à une machine la capacité de résoudre des tâches pour lesquelles elle n’a pas été explicitement programmée. Ça peut vouloir dire aussi automatiser certaines tâches ou remplacer un être humain pour la réalisation de certaines tâches. On parle également beaucoup de « deep learning » (ou « apprentissage profond » en français) qui est une sous-branche du machine learning ; un type de modèle fondé sur des méthodes « connexionnistes » (évoquant des « réseaux de neurones profonds ») qui bénéficie de l’explosion du volume de données à laquelle nous avons assisté avec le « big data » et permet d’atteindre des performances très intéressantes. Aux origines de l’IA L’IA est un très ancien champ de recherche, qui trouve son origine en 1950 avec le test de Turing – un jeu d’imitation encore valable de nos jours – qui tente de répondre à la question : « qu’est-ce qu’une machine intelligente ? ». Ce domaine de l’informatique théorique a connu plusieurs périodes. Son histoire est jalonnée de manière cyclique de périodes d’optimisme et de déceptions : Le concept (et le terme) d’intelligence artificielle est apparu dès 1956 lors d’une conférence menée à Dartmouth rassemblant des sommités de l’époque qui ont structuré la création d’une discipline ; L’IA a connu un âge d’or qui a duré une quinzaine d’années, à la suite de cette conférence de Dartmouth ; Les origines du deep learning remontent à 1957, imaginé par Franck Rosenblatt, psychologue de formation, avec la création d’une première machine ; L’IA connaît une traversée du désert dans les années 70, à cause de problèmes « d’explosion combinatoire » : les machines n’étaient pas assez puissantes pour pousser les expérimentations ; L’IA rencontre un regain d’intérêt dans les années 80 avec les « systèmes experts », conçus pour reproduire les savoir-faire d’un spécialiste dans un domaine précis ; A la fin des années 80 : l’IA connaît un nouvel « hiver » après avoir rencontré de nombreuses difficultés techniques sur les systèmes experts et les réseaux de neurones ; Dans les années 1990, les ordinateurs sont de plus en plus puissants, l’IA revient sur le devant de la scène avec Deep Blue, le premier ordinateur à avoir battu un humain aux échecs (Gary Kasparov) ; A partir des années 2000, l’avènement de l’internet mobile (3G) et du big data permettent un retour en force des méthodes connexionnistes (deep learning[1]). L’IA est partout et se démocratise, avec une question : sommes nous actuellement dans un nouvel âge d’or? De nouveaux métiers se développent autour de la « Data Science » : Le chief data officer, responsable de la donnée (collecte, infrastructures, partage et éthique en matière d’utilisation de ces données) ; Le data scientist, informaticien spécialisé dans l’analyse des données ; Le data analyst, responsable des opérations de bases de données, de l’appui analytique à l’exploration de données. [1] Et l’IA générative issue du deep learning Les trois types d’apprentissage du machine learning L’apprentissage non-supervisé S’appuyant sur le « clustering » (classification non-supervisée ou classification automatique en français), Il s’agit d’organiser un ensemble en classe homogène, naturelle, sans hypothèse sur la structure des données. Cela représente un vrai défi de l’IA aujourd’hui : reconnaître des structures, des groupes homogènes, sans hypothèse a priori. L’apprentissage supervisé A partir des exemples d’apprentissage (associé par des labels), l’apprentissage supervisé vise à créer une règle de décision (classifier) qui va prédire la classe de nouvelles observations (généralisation sur de nouvelles données). Cette règle est plus ou moins « raffinée ». Faut-il un modèle qui assume des biais mais qui aura ensuite une faible variance dans l’erreur, plutôt qu’un modèle sans biais mais qui a une forte variance sur d’autres exemples ? Ce compromis simplicité/complexité doit guider tout un processus d’apprentissage pour être sûr qu’un algorithme va bien « généraliser ». L’apprentissage par renforcement Utilisé dans les véhicules autonomes, ou les robots ordinateurs qui jouent aux échecs. Il part du principe que l’apprentissage vient de l’expérience et qu’on va apprendre de notre environnement grâce à des retours positifs et négatifs. Il y a un ensemble d’actions possibles, par rapport à des états possibles. Les tester va permettre d’avoir un feedback de l’environnement afin de converger vers les meilleures actions à entreprendre en fonction d’une situation donnée. La question centrale des données Les données aujourd’hui, sont très variées. Il n’y a pas que des données structurées, il y a aussi des flux de données qui arrivent en temps réel (tweets, flux vidéo, données satellitaires, sonores…). Nous sommes dans un monde de données hétérogènes qui arrivent sous toutes les formes et qu’il va falloir structurer à l’aide d’algorithmes adaptés à tous types de données, capables de traiter des flots de données. Il faut toujours questionner la fiabilité d’un algorithme d’apprentissage ; Les biais des données (ne pas reproduire des biais présents dans les données) et du modèle (liés à sa simplicité ou sa complexité) ; La généralisation (sa capacité à avoir de bonnes performances sur de nouvelles données et à se généraliser sur des situations qu’il n’a pas rencontrées) ; La sensibilité aux attaques adverses. Le maître mot est la qualité des données : si vous renseignez une mauvaise donnée à un algorithme, vous n’aurez rien de bon en sortie. L’explicabilité des systèmes d’intelligence artificielle (SIA) L’explicabilité consiste à rendre les résultats des systèmes d’intelligence artificielle (SIA) intelligibles et à fournir des renseignements à leur sujet. Cette question va sûrement s’imposer de manière normative. Exemples : « Pourquoi l’algorithme vous suspecte-t-il d’être malade, ou de faire une récidive ou bien encore, pourquoi l’algorithme vous a-t-il refusé un crédit ? ». Il faut également se demander : a-t-on toujours besoin d’explicabilité ? Cela n’est pas certain. Si on a le choix entre une méthode de type boîte noire avec 99% de précision ou une méthode interprétable qui n’offre plus que 80% d’efficacité, que choisissons nous ? Il faut se poser la question : « Quand avons-nous besoin d’expliquer ? ». Quelle vigilance doit-on avoir dans l’entreprise vis-à-vis de l’intelligence artificielle ? Premier point de vigilance : le remplacement d’un humain par un algorithme. La démarche est intéressante s’il s’agit de développer de nouvelles compétences, de s’affranchir de tâches plus répétitives ou pour des métiers dangereux. Si l’IA sous-entend qu’il faut réduire le personnel, il faut être aussi vigilant sur ce second point, tout comme Il faut également être vigilant quant aux performances, à la fiabilité des systèmes. A l’avenir, des classifications d’application vont certainement être imposées selon un niveau de risques et qui vont à chaque fois être liées à un degré d’implication de l’humain dans la prise de décision. Quelle éducation à l’IA ? Au-delà de l’entreprise, on pourrait aller plus loin dans une certaine éducation avec les algorithmes de recommandation : expliquer où sont les algorithmes, pourquoi, quand un enfant est à la fin de son dessin animé, certaines suggestions s’affichent… On pourrait également expliquer les phénomènes de « chambre d’écho » sur les réseaux sociaux, où vous allez « tourner en rond » dans un certain groupe de sujet avec de moins en moins de variété et de contradiction. Toutes ces questions mériteraient d’être traitées beaucoup plus tôt avec les plus jeunes. Article suivant Article suivant L’IA en entreprise : point de vue d’un data scientist Ceci pourrait vous intéresser L’état des lieux de l’usage de l’IA en GRH au Québec L’usage de l’intelligence artificielle en RH au Québec croît rapidement, et la démocratisation de nouveaux outils comme ChatGPT pourrait réduire les écarts entre petites et grandes entreprises. Québec Le ciblage des interventions sur les risques humains et l’automatisation des tâches simples ... Secteur bancaire Comment se caractérise la transformation du travail dans le contexte de l’industrie 4.0 ? ... Québec Tout découvrir