10.08.2013 Views

Thèse Modèle dynamique de transport basé sur les activités

Thèse Modèle dynamique de transport basé sur les activités

Thèse Modèle dynamique de transport basé sur les activités

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

complexe et <strong>de</strong>man<strong>de</strong>nt d’importants calculs pour générer le détail du programme d’<strong>activités</strong>.<br />

La modification <strong>dynamique</strong> du programme d’<strong>activités</strong> <strong>basé</strong>e <strong>sur</strong> <strong>de</strong>s contraintes temporel<strong>les</strong><br />

ou spatia<strong>les</strong> est aussi la problématique <strong>de</strong> l’approche <strong>basé</strong>e <strong>sur</strong> <strong>les</strong> <strong>activités</strong><br />

2.3.3 Métho<strong>de</strong>s <strong>de</strong> simulation multi-agent<br />

La troisième métho<strong>de</strong> s’appuie <strong>sur</strong> la simulation orientée agent. L’objectif consiste à simuler<br />

le comportement individuel (agent) <strong>basé</strong> <strong>sur</strong> <strong>de</strong>s règ<strong>les</strong> <strong>de</strong> décision dans un réseau <strong>de</strong><br />

<strong>transport</strong>. Le cadre <strong>de</strong> simulation est composé <strong>de</strong> cinq parties (TRANSIM, MASim, Raney et<br />

al, 2003) :<br />

(1) Génération d’une population représentative : générer <strong>de</strong>s individus et <strong>de</strong>s ménages<br />

représentatifs <strong>basé</strong>s <strong>sur</strong> <strong>de</strong>s données démographiques et socioéconomiques.<br />

(2) Génération <strong>de</strong>s <strong>activités</strong> (pour chaque type <strong>de</strong> ménage et <strong>les</strong> membres associés, générer<br />

un programme d’<strong>activités</strong>) : La métho<strong>de</strong> <strong>de</strong> génération <strong>de</strong>s <strong>activités</strong> reste un sujet <strong>de</strong><br />

recherche actif pour l’approche d’<strong>activités</strong>. Les modè<strong>les</strong> <strong>les</strong> plus utilisés se basent <strong>sur</strong> la<br />

théorie du choix discret. Par exemple, le modèle Logit ou Logit emboîté sont <strong>de</strong>s<br />

métho<strong>de</strong>s couramment utilisées pour modéliser le choix discret. D’autres métho<strong>de</strong>s ont<br />

été proposées dans la littérature, e.g. Rieser (Rieser, 2004) a proposé une métho<strong>de</strong> <strong>de</strong><br />

génération du programme d’<strong>activités</strong> <strong>basé</strong> <strong>sur</strong> la matrice OD. Charypar et Nagel<br />

(Charypar et Nagel, 2003a) ont proposé une métho<strong>de</strong> <strong>basé</strong>e <strong>sur</strong> un algorithme génétique.<br />

(3) Choix <strong>de</strong> <strong>de</strong>stination, <strong>de</strong> mo<strong>de</strong> et d’itinéraire : en général, l’ordre <strong>de</strong> décision <strong>sur</strong> ces<br />

choix est supposé hiérarchique. Dans le premier temps, le choix d’<strong>activités</strong> à pratiquer<br />

est décidé, ensuite ce sont le choix <strong>de</strong> la <strong>de</strong>stination, du temps, du mo<strong>de</strong>, et <strong>de</strong> l’itinéraire.<br />

Le choix au niveau supérieur conditionne le choix au niveau inférieur jusqu’à ce que tous<br />

<strong>les</strong> caractères <strong>de</strong> la chaîne d’<strong>activités</strong> et <strong>de</strong> déplacements soient remplis.<br />

(4) Simulation du trafic : lancer la simulation <strong>basé</strong>e <strong>sur</strong> <strong>de</strong>s modè<strong>les</strong> du trafic<br />

(5) Programmation/reprogrammation <strong>de</strong>s <strong>activités</strong> : ce mécanisme <strong>de</strong> rétroaction reflète<br />

l’apprentissage par renforcement <strong>de</strong>s usagers. Pour chaque agent, il pratique un<br />

programme d’<strong>activités</strong> et enregistre son utilité. En se basant <strong>sur</strong> le modèle <strong>de</strong><br />

modification du programme d’<strong>activités</strong>, il pratique un autre programme et ainsi <strong>de</strong> suite.<br />

Balmer et al. (Balmer et al., 2004) ont analysé différentes métho<strong>de</strong>s <strong>de</strong> reprogrammation<br />

<strong>de</strong>s <strong>activités</strong>. Ils considèrent le problème <strong>de</strong> reprogrammation comme un problème<br />

d’apprentissage par renforcement dans un environnement stochastique. Un agent exerce<br />

le choix <strong>de</strong> décision selon une probabilité <strong>de</strong> choix dépendant <strong>de</strong> la performance<br />

d’exécution <strong>de</strong> l’action sous la condition actuelle. La métho<strong>de</strong> Q-learning a été adoptée<br />

pour modéliser le processus d’apprentissage du meilleur programme d’<strong>activités</strong><br />

(Charypar et Nagel, 2003b). Cependant, cette métho<strong>de</strong> ne convient pas pour <strong>de</strong>s<br />

problèmes dont le domaine <strong>de</strong> recherche est très large. D’autre métho<strong>de</strong>s comme le plan<br />

mental <strong>basé</strong> <strong>sur</strong> <strong>de</strong>s réseaux bayésiens (Arentze et Timmermans, 2005), l’algorithme<br />

génétique (Charypar et Nagel, 2003a) ou l’apprentissage par renforcement <strong>basé</strong> <strong>sur</strong> <strong>les</strong><br />

règ<strong>les</strong> <strong>de</strong> décision « condition-action » (Arentze et Timmermans, 2003) sont <strong>de</strong>s<br />

métho<strong>de</strong>s pour traiter le problème <strong>de</strong> reprogrammation <strong>de</strong>s <strong>activités</strong>.<br />

- 12 -

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!