Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
198<br />
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
4. Dépersévération en régime libre<br />
En enlevant le forçage, le réseau quitte la dynamique extérieure vers laquelle il<br />
convergeait : il y a perte des dynamiques induites par l’environnement. D’une certaine<br />
façon, comme cela a été proposé dans le modèle de mémoire, le réseau oubli peu à peu<br />
les dynamiques qu’il était en train d’apprendre. Il y dépersévération. Par contre, si la<br />
dynamique forçante est présentée de nouveau, le réseau quitte rapidement son régime<br />
libre pour retrouver l’état qu’il avait quitté à la perte du forçage. Il y a rappel de<br />
l’information apprise, car la même dynamique forçante n’a pas le même effet au début et<br />
à ce stade de l’apprentissage. Au début (Figure 8-16, p.197), la dynamique forçante était<br />
perturbatrice, et après 15000 itérations, le réseau se remet à suivre rapidement la<br />
dynamique forçante (Figure 8-19).<br />
5. Apprentissage par coeur par des dynamiques chaotiques<br />
Après 13 millions d’itérations, le régime libre du réseau est assez proche de la<br />
dynamique forçante : il approche de l’apprentissage par coeur, stade à partir duquel il<br />
peut simuler en interne la dynamique externe. Ce comportement est conforme à<br />
l’hypothèse de minimisation des perturbations induites<br />
6. Bifurcations de l’attracteur en régime libre<br />
Afin de voir l’évolution de l’attracteur appris, c’est à dire l’attracteur du régime libre du<br />
réseau, nous avons mémorisé l’état des paramètres du réseau (poids et conditions<br />
initiales) toutes les 10000 itérations.<br />
Ensuite, nous avons laissé évoluer chacun de ces réseaux pendant 1000 itérations<br />
afin de le laisser se stabiliser, puis avons enregistré l’attracteur stabilisé en régime libre.<br />
Les attracteurs atteints par le réseau ont enfin été juxtaposé, pour visualiser l’évolution<br />
de l’attracteur du régime libre du réseau pendant les 13 millions d’itérations<br />
d’apprentissage réalisées (Figure 8-23).<br />
L’attracteur en régime libre ne semble pas converger vers un attracteur final, ce que<br />
l’on aurait pu espérer. Cet attracteur final aurait été similaire à l’attracteur de la<br />
dynamique forçante, ce qui aurait correspondu à un apprentissage par coeur (le réseau<br />
simulerait en interne la dynamique forçante de l’environnement, sans présentation de<br />
celle-ci). Ce résultat démontre néanmoins que le réseau balaie un paysage complexe<br />
d’attracteurs, qui, pour la plupart, facilitent l’anticipation du signal de forçage lorsqu’il est<br />
présenté (l’erreur diminue progressivement).<br />
TROISIEME PARTIE : RESULTATS