Kaduceo logo
  • Auteurs
Elodie EscrivaGabriel FerrettiniJulien AligonJean-Baptiste ExcoffierChantal Soulé-Dupuy *Détails des auteurs accessibles sur la publication
  • référence
Conférence Blois EGC - Janvier 2022Publication : Inf Syst Front (2021). https://doi.org/10.1007/s10796-021-10141-9Published: 22 May 2021 Face aux nombreuses applications de l'apprentissage machine (ML) dans de nombreux domaines, la nécessité de comprendre le fonctionnement des modèles en boite noire est devenu croissante, particulièrement chez les non-experts. Plusieurs méthodes fournissant des explications sur les prédictions des modèles existent, avec des temps de calculs longs ou des hypothèses restrictives sur les interactions entre attributs. Ce papier détaille des méthodes basées sur la détection de groupes d'attributs pertinents – appelés coalitions – influençant la prédiction. Nos résultats montrent que les méthodes coalitionnelles sont plus performantes que celles existantes, comme SHAP. Le temps d'exécution est réduit en préservant la précision des explications. Ces méthodes permettent une augmentation des cas d'utilisation afin d'accroître la confiance entre les modèles ML, les utilisateurs et toute personne affectée par une décision impliquant ces modèles. Consulter la page dédié à nos travaux sur l'explicabilité

Poster présenté : Stratégies coalisationnelles et explicabilités des prédictions