Malheureusement cette offre n'est plus active

Orange Stagiaire Explicabilité de la Décision d'un Algorithme H/F

Description du poste

Orange recherche ...

L'équipe d'accueil à Orange Labs, spécialisée en apprentissage statistique et analyse de données, compte actuellement 20 membres permanents et 4 doctorants. L'équipe est reconnue au sein du groupe pour son expertise. Nous publions régulièrement dans les meilleures conférences et revues internationales du domaine.

Dans le cadre de ce stage on s'intéresse aux techniques d'explication contrefactuelle.
Un contrefacteur est un exemple proche de l'exemple à expliquer mais qui se verrait attribuer une décision différente.
De plus en plus de décisions sont prises automatiquement par des algorithmes dans des secteurs qui impactent nos vies privées (banque, assurance, santé, éducation). La plupart des algorithmes sont des boites noires et il faut se poser la question de « leur explicabilité » : c'est-à-dire la capacité à faire comprendre à un individu les facteurs qui ont motivé la décision de l'algorithme [1].
Les enjeux de l'explicabilité sont multiples : mieux comprendre le modèle permet d'identifier les causes d'une faible performance puis de corriger les biais et ainsi d'améliorer le modèle. Pouvoir expliquer les prédictions d'un modèle est plus rassurant pour les équipes opérationnelles ce qui permet d'aider à l'acceptabilité du modèle.
Différentes techniques d'explicabilité existent [2], comme les approches intrinsèques où le modèle d'apprentissage automatique qui est choisi est un modèle facile à expliquer tel qu'un arbre de décision ou un ensemble de règles. L'inconvénient de ces approches est qu'elles conduisent à des modèles moins performants. Les approches dites post hoc s'appliquent indépendamment de l'algorithme, après
l'apprentissage, et n'ont pas accès aux informations internes du modèle.
Dans le cadre de ce stage on s'intéresse aux techniques, post hoc et en particulier aux explications dit « contrefactuelles ». Un contrefacteur
est un exemple proche de l'exemple à expliquer mais qui se verrait attribuer une décision différente [3]. Il s'agira dans un premier temps
d'identifier les variables les plus importantes pour une décision individuelle, puis de modifier les valeurs de ces variables pour construire un
contrefacteur. Pour cela on s'appuiera sur la suite logicielle développée dans l'équipe khiops et khiops interprétation (www.khiops.com)[4, 5].
L'approche sera évaluée sur différents jeux de données et on la comparera avec une ou deux méthodes retenues dans l'état de l'art LIME
((Local Interpretable Model-agnostic Explanations)) [6] ou SHAP [7] (basée sur l'importance des variables dans la décision)
Références :
1 Molnar, C. Interpretable Machine Learning. 2019. Available online : interpretable-ml-book/
2. Carvalho, D.V.; Pereira, E.M.; Cardoso, J.S. Machine Learning Interpretability : A Survey on Methods and Metrics. Electronics 2019, 8, 832.
3. Wachter, S., Mittelstadt, B., Russell, C. : Counterfactual explanations without opening the black box ; automated decisions and the GDPR. Harvard Journal of Law & Technology 31(2), 841{887 (2018)
4. M. Boulle, "Functional data clustering via piecewise constant nonparametric density estimation", Pattern Recognition, vol. 45, no. 12, pp.4389-4401, 2012.
5. Vincent Lemaire, Carine Hue, Olivier Bernier, Correlation Explorations in a Classification Model", in the workshop Data Mining Case Studies and Practice Prize, SIGKDD 2009

Vous êtes ...

Dans le cadre de votre formation Bac +5 informatique / mathématiques appliquées, vous êtes à la recherche d'un stage de 6 mois.

Compétences :
Ce sujet requiert une bonne culture en informatique et mathématique appliquée.

Date de publication

29-02-2024

Informations supplémentaires

Statut
Inactif
Lieu
Orange
Type de Contrat
CDI - Temps plein
Secteur
Construction / BTP, Vente
Permis de conduire FR/EU exigé
Non
Voiture exigée
Non
Lettre de motivation exigée
Non