Kaduceo logo
  • Auteurs

Emmanuel Doumard, Julien Aligon, Elodie Escriva, Jean-Baptiste Excoffier, Paul Monsarrat, Chantal Soulé-Dupuy

*Détails des auteurs accessibles sur la publication

  • référence
24th International Workshop on Design, Optimization, Languages and Analytical Processing of Big Data

Edinburgh, UK - March 29, 2022

Les méthodes d'explication additives les plus utilisées, SHAP et LIME, pour comprendre les prédictions de modèles complexes d'apprentissage automatique (Machine Learning) souffrent de limitations qui sont rarement mesurées dans la littérature. Cet article vise à mesurer ces limites. Nous illustrons et validons les résultats sur un jeu de données médicales spécifique, SA-Heart.

Nos résultats révèlent que les approximations de LIME et SHAP sont particulièrement efficaces en haute dimension et génèrent des explications globales intelligibles, mais elles souffrent d'un manque de précision concernant les explications locales. Les méthodes basées sur les coalitions sont coûteuses en calcul en haute dimension, mais offrent des explications locales de meilleure qualité. Enfin, nous présentons une feuille de route résumant notre travail en indiquant la méthode la plus appropriée en fonction de la dimension du jeu de données et des objectifs de l'utilisateur.



Consulter l'article

Présentation d'une méthode permettant une augmentation des cas d'utilisation afin d'accroître la confiance entre les modèles ML, les utilisateurs et toute personne affectée par une décision…