Interprétabilité de l’IA : découvrir de nouvelles combinaisons de variables pour innover

A quel moment un algorithme peut-il être considéré comme fiable ? L’Intelligence artificielle, et plus particulièrement le machine learning, ouvre un champ des possibles immense pour les data scientists. Pourtant, nous ignorons encore beaucoup de son fonctionnement. Maître de conférences au Centre de mathématiques appliquées de l'École Polytechnique (CMAP) depuis 2016, Erwan Scornet est spécialisé dans les domaines de la statistique théorique et de l'apprentissage automatique. Il mène aujourd’hui plusieurs recherches dédiées au machine learning, dont une consacrée à l’interprétabilité des algorithmes.



La compréhension de l’Intelligence artificielle (IA) se caractérise par son interprétabilité. Pouvez-vous nous en donner une définition ? Comment se traduit-elle concrètement ?


Erwan Scornet : L’interprétabilité est l’un des sujets de recherche que je poursuis en collaboration avec un doctorant et d’autres collègues. Pour comprendre le principe, vous pouvez imaginer une chaîne de production qui réalise les pièces d’une voiture. L’IA vous permet de déterminer, en fonction des différentes variables de la chaîne (la température, la pression, la cadence, etc.) si la pièce produite aura un défaut. Or, pour un industriel, l’objectif n’est pas de savoir prédire mais bien de comprendre le processus qui mène à un défaut. L’interprétabilité répond ainsi à la question « Comment ? ».


Il n’y a cependant aucune définition précise de l’interprétabilité. Une première approche de l’interprétabilité pourrait se fonder sur ces trois grands principes :

  • La simplicité : l’algorithme utilise-t-il beaucoup de paramètres ? Les opérations effectuées par l’algorithme sont-elles simples ?

  • La stabilité : l’algorithme donne-t-il des résultats reproductibles, cohérents dans la durée, par rapport à un jeu de données sur lequel il a appris ?

  • La prédictivité : l’algorithme permet-il de prédire avec de bonnes performances ?


Interprétabilité, explicabilité, pourquoi ces notions sont-elles importantes dans le cadre de l’IA ?


Erwan Scornet : Il s’agit de notions essentielles dans l’usage fait de l’IA. Si l’on prend le cas de la régression linéaire, il s’agit de modèles simples, prévisibles, et très compréhensibles. On peut par exemple donner le prix d’un bien immobilier en prenant en compte plusieurs paramètres : son adresse, sa surface, son étage, le nombre de pièces, la présence d’une terrasse, etc. Un coefficient est associé à chaque variable. Avec un modèle simple, on obtient donc un résultat interprétable, au prix d’une mauvaise performance prédictive. En effet, ces modèles n’ont bien souvent pas assez de flexibilité pour comprendre le lien réel qui existe entre les variables. Dans notre exemple, le lien entre les variables et le prix d’un logement n’est effectivement pas forcément linéaire.


Nous avons besoin d’algorithmes plus complexes (random forest, réseaux de neurones) capables de détecter des dépendances non linéaires. Ces algorithmes sont communément appelés « boîtes noires ». Ils peuvent utiliser des opérations très simples, mais qui sont si nombreuses et si enchevêtrées que le data scientist n’arrivera pas à donner une explication simple de leurs fonctionnements. Ces méthodes ont une performance prédictive mais sont difficiles à interpréter. Cependant le data scientist pourra tenter d’expliquer la sortie de l’algorithme en s’appuyant sur l’importance de chaque variable. Il sera difficile d’avoir une interprétation complète mais il sera possible d’identifier des éléments de réponse.


On peut ainsi dire qu’il est possible d’interpréter un modèle simple et d’expliquer un modèle complexe. La notion d’explicabilité rejoint celle de l’interprétabilité : le but commun est de fournir une aide à la décision allant plus loin qu’une simple prédiction.


Vous êtes spécialisé en machine learning, et plus particulièrement dans la compréhension des « random forests ». En quoi cela consiste-t-il ?


Erwan Scornet : Les « random forests » sont des algorithmes de machine learning basés sur des arbres décisionnels. Les arbres décrivent des processus très simples à comprendre. L’approche est similaire à celle d’un médecin posant des questions pour réaliser son diagnostic : êtes-vous un homme, une femme, de quel âge, avec quels symptômes, etc. La suite de questions posées s’adapte aux réponses obtenues. Le processus de décision permet d’établir un diagnostic. Il prédit ainsi si vous êtes malade ou non.


Les performances prédictives d’un arbre sont plutôt bonnes. Cependant, un arbre seul manque de stabilité : modifier certaines données peut conduire à un cheminement de questions complètement différent. C’est pourquoi le data scientist se base sur des méthodes d’ensemble du boosting ou des random forests pour agréger les résultats.


Pour filer la métaphore, imaginons que cent mille médecins rendent au même moment un diagnostic. Nous pourrions alors agréger les résultats et réaliser une préconisation. Dans ce cas, nous serions capables de comprendre chaque diagnostic, mais incapables de comprendre l’agrégation des résultats. Il faut donc réaliser une série de tests pour trouver les variables clés au processus d’agrégation.