Gabriel Ferrettini, Elodie Escriva, Julien Aligon, Jean-Baptiste Excoffier &  Chantal Soulé-Dupuy 

*Détails des auteurs accessibles sur la publication

Inf Syst Front (2021). https://doi.org/10.1007/s10796-021-10141-9
Published: 22 May 2021

Comme l’apprentissage automatique (ML) est maintenant largement appliqué dans de nombreux domaines, tant dans la recherche que dans l’industrie, la compréhension de ce qui se passe à l’intérieur de la boîte noire devient une demande croissante, en particulier par les non-experts de ces modèles.

Cet article propose des méthodes basées sur la détection de groupes d’attributs pertinents – nommés coalitions – influençant une prédiction et les compare avec la littérature. Nos résultats montrent que ces méthodes de coalition sont plus efficaces que les méthodes existantes telles que SHapley Additive exPlanation (SHAP). Le temps de calcul est réduit tout en préservant une précision acceptable des explications de prédiction individuelles. Par conséquent, cela permet une utilisation pratique plus large des méthodes d’explication afin d’accroître la confiance entre les modèles ML développés, les utilisateurs finaux et toute personne touchée par une décision où ces modèles ont joué un rôle.

D'autres ressources peuvent vous intéresser

L’Intelligence Artificielle comme aide à la PMA

L’Intelligence Artificielle comme aide à la PMA

[...] plusieurs groupes de recherches ont construit des modèles d’aide à la procréation [12] fournissant aux médecins des indications sur les chances de succès et la

Explicabilité de modèles d’IA : Etat de l’art et vulgarisation scientifique

Explicabilité de modèles d’IA : Etat de l’art et vulgarisation scientifique

Afin de réduire les erreurs et de mieux comprendre les prédictions faites par l’IA, l’explicabilité des modèles d’IA est apparu comme champ de recherche. L’explicabilité est