Explicabilité de modèles et de résultats de prédiction

Focus sur le secteur de la santé et de l'appropriation par les praticiens

Thèse CIFRE

Les partenaires de recherche

Ce projet de thèse, validé par l’Association Nationale de Recherche et Technologie (ANRT), est encadré par une Convention CIFRE co-signée entre Kaduceo et l’Institut de Recherche en Informatique de Toulouse (IRIT). 

L'objectif du projet

Il s’agit d’une collaboration sur trois ans dont l’objectif principal est de proposer un système d’aide à l’analyse prédictive dans le contexte de la prise en charge des patients et de leurs parcours de soins en secteur hospitalier.

Contexte

Le secteur de la e-santé est en plein boom, et notamment l’usage de la donnée de santé permettant la création et l’utilisation de modèles prédictifs pour les parcours de soin en santé.

De plus en plus de solutions sont lancées à destination des praticiens et des patients. Les modèles prédictifs viennent accompagner le médecin dans sa pratique, et le patient dans son parcours. Ces deux types d’interlocuteurs peuvent présenter un manque de confiance face à des outils et applications qui peuvent être vus comme des « boites noires ».

Cette notion de « boite noire » de l’IA en santé et l’importance d’expliquer les modèles sont d’ailleurs des éléments clefs du Rapport Villani[1] « Donner un sens à l’Intelligence Artificielle » où tout une partie était dédiée à l’usage de l’IA dans le secteur santé. Cette explication est nécessaire pour le médecin, mais aussi pour le patient, et se rapproche de la notion du droit à l’information du patient dont le parcours implique une intelligence artificielle.

En ce qui concerne plus particulièrement le secteur médical, l’intérêt des médecins pour une approche orientée « parcours » plutôt que « par acte » est grandissante, notamment dans le secteur hospitalier. Pour le médecin et le cadre de l’hôpital, il s’agira donc de regarder un parcours dans son ensemble, et de voir comment l’améliorer et le prédire, à la fois dans un objectif clinique pour le patient, mais aussi organisationnel pour l’établissement de santé. Ce parcours sera constitué des différentes consultations et/ou hospitalisations, des différentes mesures biologiques, des données médicales ou non médicales qui ont un rapport avec le parcours.

La prédiction viendra concerner un évènement indésirable ou souhaité du parcours, elle sera utilisée par l’équipe médicale dans certains cas et pourra être communiquée au patient dans d’autres.

L'importance de l'explicabilité

Transparence des modèles

Comprendre la prise de décision

Générer de la confiance

Améliorer la performance

Respecter la règlementation

Réduire les biais éthiques

Enjeux et projection

Dans le secteur de la santé il apparaît nécessaire d’expliquer le fonctionnement de l’intelligence artificielle et des modèles de prédiction. Le médecin n’est pas un simple utilisateur d’un modèle de prédiction, il a besoin de comprendre son fonctionnement en observant par exemple les variables qui ont participé à sa construction. Car la prédiction n’est pas anodine, elle concerne directement la vie du patient et sa santé. Le médecin doit pouvoir comprendre et évaluer le modèle prédictif, pour pouvoir se l’approprier et soumettre des pistes d’amélioration de ce modèle.

Il apparaît donc primordial pour le secteur de la santé que les sociétés, qui proposent des solutions d’analyse prédictive, produisent non seulement des algorithmes et des modèles de prédictions, mais également des moyens pour aider à analyser et à interpréter ces modèles. Ces moyens doivent être mis à disposition des médecins, ou de tout autre personnel habilité, intervenant dans le parcours de soin ; c’est-à-dire de personnes non spécialistes de l’analyse de données mais ayant la connaissance métier.

Cela pourrait même être un élément obligatoire dans le futur, que chaque modèle de prédiction fournisse un résultat, auquel on associe une ou plusieurs explications possibles, et sur la base de l’influence des variables ayant permis la construction du modèle.

La démarche de notre partenaire l'IRIT :

Chantal Soulé-Dupuy

Julien Aligon

L’équipe SIG de l’IRIT, dont nous sommes membres, a toujours été très investie dans les démarches d’accès à l’information et de traitement des données centrées utilisateur. En particulier, nous considérons que l’expert de domaine doit être accompagné du mieux possible dans son processus d’analyse de données. Dans le cas particulier du machine learning, la littérature propose des méthodes considérées comme efficaces  pour la recommandation automatique d’algorithmes pertinents (et de ses paramètres correspondants), à l’aide de méthodes de type AutoML. Cependant l’explication des résultats des prédictions, obtenus par ces algorithmes, reste un problème important.

Les méthodes d’explications individuelles (notamment celles dites “additives”) ont permis une avancée majeure pour une meilleure appropriation par l’expert de domaine.

Notre investissement dans le domaine de l’explication de prédiction est d’abord issu de réflexions, avec l’aide de chercheurs de l’INSERM et de RESTORE, pour l’élaboration d’un système permettant aux chercheurs en biologie/santé de mieux comprendre les modèles prédictifs par eux-mêmes.

Ces enjeux ainsi que le domaine santé nous a, tout naturellement, amenés à travailler avec Kaducéo dont les préoccupations sont très clairement similaires. Le travail en commun [1] à propos d’une nouvelle approche pour le calcul d’explications de prédiction illustre d’ailleurs la force de notre collaboration. L’obtention d’une thèse CIFRE avec Elodie en est aussi la suite logique. Cette thèse permettra, notamment, d’approfondir la problématique de l’explication de prédiction, en cherchant à faire remonter les données ayant une très forte valeur explicative.

[1] Gabriel Ferrettini, Elodie Escriva, Julien Aligon, Jean-Baptiste Excoffier, Chantal Soulé-Dupuy. Coalitional strategies for efficient individual prediction explanation, soumis à Information Systems Frontiers (accepté avec révision mineure), 2021.

"Ce sujet de thèse me permet d'adapter spécifiquement la recherche en interprétabilité des modèles aux données médicales et au secteur essentiel et sensible de la santé. Grâce à la collaboration entre l’IRIT et Kaduceo dans le cadre de cette thèse, je peux valider mes travaux au sein des structures de santé, pour participer à l’amélioration des pratiques médicales au moyen des outils de l’informatique et de l’information."
Elodie Escriva
Doctorante en informatique

Vous avez un projet ?

Kaduceo* France

31 Allée Jules Guesde, 31400 Toulouse, France

Kaduceo États-Unis

725 Cool Springs Bld, FRANKLIN, TN, 37067

* Kaduceo est la dénomination commerciale de la société Kaduce Labs