Décision dans le risque et apprentissage incrémental de préférences

Par Patrice Perny , 14 janvier, 2016

Nombre de situations réelles nécessitent qu'un agent humain ou artificiel prenne des décisions dans un contexte où les conséquences de nos actes sont incertaines et connues en probabilités. On parle alors de décision dans le risque. Un des modèles les plus connus pour modéliser l'attitude d'un agents face au risque ou simuler les comportements diversement risqués de plusieurs agents est le modèle de l'utilité espérée (EU). Ce modèle permet d'évaluer l'utilité de chaque décision potentielle et ainsi déterminer la solution la plus adaptée compte-tenu du niveau de risque que l'on souhaite prendre. Cependant le modèle EU est paramétré par une fonction d'utilité qu'il convient d'apprendre pour simuler un comportement donné. L'objet du projet est d'implanter une nouvelle méthode d'élicitation incrémentale de cette fonction d'utilité pour modéliser les préférences d'un agent et l'aider à prendre des décision dans le risque.

Pour cela, le plan de travail est le suivant :
- on adoptera une méthode qui définit la fonction d'utilité à partir d'une combinaison linéaire de fonctions croissantes lisses (fonctions splines déjà connues qui servent de base pour engendrer des fonctions plus complexes), les poids intervenant dans la combinaison sont inconnus au départ
- on implantera une méthode d'élicitation qui consiste à observer les décisions d'un agent dans des situations simples de choix risqué et qui progressivement apprend des contraintes sur les poids pour réduire l'espace des poids admissibles
- on travaillera sur un mécanisme d'apprentissage actif qui cherche la question la plus informative à poser à chaque itération pour restreindre efficacement l'espace des paramètres possibles (on utilisera pour cela une formulation par programmation linéaire et une résolution par un solveur)
- on itérera alors le processus jusqu'à ce qu'on sache identifier une décision nécessairement optimale

Cette approche sera implantée et testée pour résoudre des problèmes de décision sur des jeux de données tirés aléatoirement et présentant un ensemble fini de choix risqués. Dans un second temps, on pourra éventuellement s'intéresser à l'extension de cette approche dans le cadre de la décision séquentielle et la résolution incrémentale de problèmes dans les arbres de décision.

Sans que ce soit strictement obligatoire, il est conseillé d'avoir suivi l'UE MOGPL et de suivre au second semestre l'UE "Décision et Jeux".

Encadrant
Patrice Perny
Nombre d'étudiants
2
Attribué
Non
Obsolète
Oui
Tags