Position des docteurs sur les recommandables explicables

France
Publié il y a 1 an

Un recommandeur aide l’utilisateur à explorer l’ensemble des éléments d’un système et à trouver les éléments les plus pertinents pour lui. Les deux catégories de recommandation de base sont celles basées sur le contexte et les notes. La première catégorie exploite les caractéristiques des utilisateurs et des articles, tandis que la seconde dépend des scores des articles donnés par les utilisateurs. Les implémentations traditionnelles des recommandeurs sont basées sur TF-IDF et les techniques des voisins les plus proches, tandis que les recommandateurs plus récents suivent des approches d’apprentissage automatique, comme la factorisation matricielle et les réseaux de neurones. Un problème naturel qui accompagne les recommandations est de savoir si un utilisateur, ou même le concepteur du système, comprend les résultats du recommandeur. Ce problème a donné naissance aux soi-disant recommandables explicables. La recommandation explicable contribue à améliorer la transparence, la persuasion, l’efficacité, la fiabilité, et satisfaction des systèmes de recommandation. Il facilite également les concepteurs de systèmes pour un meilleur débogage du système [Zhang2018]. Jusqu’à présent, la recherche de recommandations explicables se concentre sur la question Pourquoi: «Pourquoi un élément est-il recommandé?». Les solutions considèrent le système de recommandation comme une boîte noire et tentent ainsi de révéler les relations entre les utilisateurs et les éléments, l’importance des différentes fonctionnalités par rapport à la valeur prédite (par exemple, [Lundberg2017]), ou de s’attarder sur les caractéristiques intrinsèques de le système de recommandation afin d’expliquer véritablement le système [Ghazimatin2020]. Ce qui n’a pas encore été étudié, c’est l’aspect Pourquoi-Pas d’une recommandation: «Pourquoi un élément spécifique n’est-il pas une recommandation?». Nous soutenons qu’expliquer pourquoi certains articles ou catégories d’articles ne sont pas recommandés peut être aussi utile que d’expliquer pourquoi des articles sont recommandés. Les questions pourquoi pas ont récemment attiré l’attention de la communauté des chercheurs dans de multiples contextes, par exemple pour les bases de données relationnelles [Bidoit2015]. En machine learning, les questions Why-Not améliorent l’intelligibilité des prédictions [Lim2009] mais restent largement inexplorées.

Dans cette proposition de thèse, nous visons à explorer Why-Not, des recommandations explicables basées sur l’apprentissage automatique. Dans une deuxième phase, nous visons à étendre les recommandateurs afin qu’ils puissent tirer parti des explications Pourquoi-Pas pour l’auto-réglage.

Exigences et compétences

L’équipe de medjouel.com vous informe que le candidat doit être titulaire d’un diplôme de Msc dans des domaines liés à l’informatique, à l’apprentissage automatique ou aux mathématiques / statistiques appliquées. Elle / Il doit avoir une solide connaissance de la gestion des données, des algorithmes et de la programmation. Des connaissances et une expérience antérieure sur l’apprentissage automatique, les systèmes de recommandation, l’explicabilité sont un plus. Elle / Il doit maîtriser la langue anglaise (orale et écrite); la connaissance de la langue française n’est pas obligatoire. Elle / Il doit avoir de solides compétences analytiques, être proactif, autonome et capable de collaborer avec un groupe de chercheurs internationaux.

Durée et lieu

Le financement du doctorat est de trois ans, à temps plein à partir de septembre 2020. Le candidat retenu travaillera à l’ Université CY Cergy Paris . Elle / Il sera également membre de l’ équipe MIDI du laboratoire ETIS, dont les chercheurs se spécialisent dans divers types de gestion de données (relationnelle, web, multimédia, spatiale), d’intégration de données et d’exploration de données.

Superviseurs

Dimitris Kotzinos, Professeur, CY Cergy Paris Université, France, Courriel: dimitrios.kotzinos [at] cyu.fr (directeur de thèse)
Katerina Tzompanaki, Professeur associée, CY Cergy Paris Université, France, Courriel: aikaterini.tzompanaki [at] cyu. fr (co-directeur de thèse)

Appliquer

Les candidats intéressés sont priés d’envoyer un seul fichier pdf comprenant:

  • CV détaillé
  • Lettre de motivation
  • Copies des certificats d’études (si disponibles)
  • Copies des transcriptions
  • Copie du certificat de langue anglaise
  • Coordonnées de deux références

au Dr Katerina Tzompanaki, Courriel: aikaterini.tzompanaki@cyu.fr. Nous accepterons les candidatures complètes jusqu’au 1er avril 2020, ou jusqu’à ce que le poste soit pourvu.

Caractéristiques de l'emploi

Catégorie emploiStage et Formation

Postuler en ligne

Related Posts

Next Post

Discussion about this jobpost




Recommended

Don't Miss