@Workshop{Supelec700,
author = {Senthilkumar Chandramohan and Matthieu Geist and Olivier Pietquin},
title = {{Apprentissage par Renforcement Inverse pour la Simulation d'Utilisateurs dans les Systèmes de Dialogue}},
year = {2011},
booktitle = {{Sixièmes Journées Francophones de Planification, Décision et Apprentissage pour la conduite de systèmes (JFPDA 2011)}},
pages = {7 pages},
month = {June},
address = {Rouen (France)},
url = {http://www.metz.supelec.fr//metz/personnel/pietquin/pdf/JFPDA_2011_SCMGOP.pdf},
abstract = {Les systèmes de dialogue sont des interfaces homme-machine qui
utilisent le language naturel comme medium d'interaction. La
simulation d'utilisateurs a pour objectif de simuler le
comportement
d'un utilisateur humain afin de générer artificiellement des
dialogues. Cette étape est souvent essentielle dans la mesure où
collecter et annoter des corpus de dialogues est un processus
coûteux, bien que nécessaire à l'utilisation de méthodes
d'apprentissage artificiel (tel l'apprentissage par
renforcement qui
peut être utilisé pour apprendre la politique du gestionnaire de
dialogues). Les simulateurs d'utilisateurs existants cherchent
essentiellement à
produire des comportements d'utilisateurs qui soient
statistiquement
consistants avec le corpus de dialogues. La contribution de cet
article est d'utiliser l'apprentissage par renforcement inverse
pour
bâtir un nouveau simulateur d'utilisateur. Cette nouvelle
approche
est illustrée par la simulation du comportement d'un modèle
d'utilisateur (artificiel) sur un problème à trois attributs
pour un
système d'information touristiques. Le comportement du nouveau
simulateur d'utilisateur est évalué selon plusieurs métriques
(de
l'interaction au dialogue).}
}