Nouvelles technologies

Comment optimiser l'interprétabilité des systèmes d’apprentissage automatique

Christophe marsala

Nationality French

Year of selection 2016

Institution Sorbonne université

Country France

Risk Nouvelles technologies

Joint Research Initiative

3 years

200000 €

Si nous confions à des systèmes d'apprentissage automatique des décisions cruciales concernant des vies humaines, nous devons impérativement être en mesure de comprendre ces décisions. Dans un cadre médical, par exemple, un modèle qui diagnostique des maladies doit pouvoir justifier son diagnostic auprès des patients concernés. Tout récemment, ce problème a retenu l'attention du Parlement Européen, dont le règlement général sur la protection des données offre à chaque citoyen la possibilité d'obtenir une explication en ce qui concerne les décisions algorithmiques. Dans une initiative de recherche conjointe, Marie-Jeanne Lesot et Christophe Marsala, du laboratoire informatique (LIP6) de l'université Pierre et Marie Curie, en coopération avec le Data Innovation Lab chez AXA, cherchent à apporter une meilleure compréhension des différentes facettes de l'interprétabilité dans le contexte de la science des données, en se concentrant sur les algorithmes destinés à la classification et à d'autres tâches d'apprentissage automatique. L'objectif est de poser les bases en vue de la conception et de la mise en œuvre d'une nouvelle génération de systèmes big data et d'apprentissage automatique offrant cet aspect intuitif.

"En France, la controverse récente sur l'opacité du processus d'Admission Post-Bac (APB), algorithme d'affectation des élèves dans les universités, est un bon exemple de la nécessité d'une interprétabilité en ce qui concerne les systèmes d'apprentissage automatique", explicite le Pr Christophe Marsala. "Les étudiants français exigent de savoir comment l'algorithme fait le tri entre les candidats quand le cursus universitaire auquel ils postulent est saturé. Les élèves se plaignent de ne pas comprendre la décision." "Dans le contexte actuel des défis posés par le big data et la science des données, il semble que, s'il est essentiel de mettre en œuvre des systèmes fiables et efficaces, il est également crucial de proposer des systèmes interprétables ainsi que des décisions explicables et intelligibles", précise le chercheur.

Savoir ce qu'il se passe à l'intérieur des 'boîtes noires' de l'apprentissage automatique

À l'origine de ce projet, on trouve le constat selon lequel définir l'interprétabilité est une tâche difficile à réaliser en soi, et qui constitue un défi. "L'interprétabilité porte sur la structure interne du système étudié, laquelle peut, par exemple, être une fonction mathématique, un ensemble de règles ou un arbre de décision, pour n'en citer que quelques-unes. Elle porte sur sa validité, sa lisibilité, sa cohérence intuitive ou ses résultats", explique le Pr Marsala. "Par ailleurs, l'interprétabilité est également un concept hautement subjectif en raison du fait qu'elle dépend de la personne à laquelle elle est destinée. L'interprétation d'un modèle est directement liée à son destinataire, à ses attentes et à ses connaissances". Ce qui fait sens pour un expert dans son domaine ne fait pas nécessairement sens pour un utilisateur final ou un scientifique des données, par exemple.

L'initiative de recherche conjointe lancée par AXA cherche à adopter une vision globale de l'interprétabilité en prenant ces différentes perspectives en compte. Plus particulièrement, le projet propose de faire la distinction entre quatre types d'interprétabilité, en reflétant la complexité de la structure interne de tels systèmes et des différentes attentes. Pour établir les quatre définitions de l'interprétabilité une approche pluridisciplinaire sera mise en œuvre, tout particulièrement en combinant les sciences informatiques et cognitives. L'étape suivante sera d'explorer des méthodes présentant des propriétés d'interprétabilité de manière intrinsèque en vue d'être ajoutées à des systèmes déjà existants, ou d'être intégrées à des systèmes futurs.

Le projet répond directement aux défis actuels posés par la transformation digitale, tout particulièrement en ce qui concerne les technologies du big data et l'implantation d'un apprentissage automatique dans des environnements opérationnels. Cet aspect est d'une importance toute particulière pour AXA et pour le secteur des assurances de manière plus générale. L'interprétabilité sera cruciale en vue de garantir la confiance des consommateurs par exemple, ou de fournir aux organes régulateurs la preuve que les exigences légales sont respectées. "Les approches proposées permettront de passer des 'boîtes noires' de l'apprentissage automatique à des observations interprétables, permettant de comprendre et même d'orienter les actes des décideurs", résume le Pr Marsala. Les conclusions devraient fournir des fondations solides en vue de la création ou de l'adaptation des algorithmes actuels pour obtenir des versions adaptées humainement intuitives.