23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

198<br />

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

4. Dépersévération en régime libre<br />

En enlevant le forçage, le réseau quitte la dynamique extérieure vers laquelle il<br />

convergeait : il y a perte des dynamiques induites par l’environnement. D’une certaine<br />

façon, comme cela a été proposé dans le modèle de mémoire, le réseau oubli peu à peu<br />

les dynamiques qu’il était en train d’apprendre. Il y dépersévération. Par contre, si la<br />

dynamique forçante est présentée de nouveau, le réseau quitte rapidement son régime<br />

libre pour retrouver l’état qu’il avait quitté à la perte du forçage. Il y a rappel de<br />

l’information apprise, car la même dynamique forçante n’a pas le même effet au début et<br />

à ce stade de l’apprentissage. Au début (Figure 8-16, p.197), la dynamique forçante était<br />

perturbatrice, et après 15000 itérations, le réseau se remet à suivre rapidement la<br />

dynamique forçante (Figure 8-19).<br />

5. Apprentissage par coeur par des dynamiques chaotiques<br />

Après 13 millions d’itérations, le régime libre du réseau est assez proche de la<br />

dynamique forçante : il approche de l’apprentissage par coeur, stade à partir duquel il<br />

peut simuler en interne la dynamique externe. Ce comportement est conforme à<br />

l’hypothèse de minimisation des perturbations induites<br />

6. Bifurcations de l’attracteur en régime libre<br />

Afin de voir l’évolution de l’attracteur appris, c’est à dire l’attracteur du régime libre du<br />

réseau, nous avons mémorisé l’état des paramètres du réseau (poids et conditions<br />

initiales) toutes les 10000 itérations.<br />

Ensuite, nous avons laissé évoluer chacun de ces réseaux pendant 1000 itérations<br />

afin de le laisser se stabiliser, puis avons enregistré l’attracteur stabilisé en régime libre.<br />

Les attracteurs atteints par le réseau ont enfin été juxtaposé, pour visualiser l’évolution<br />

de l’attracteur du régime libre du réseau pendant les 13 millions d’itérations<br />

d’apprentissage réalisées (Figure 8-23).<br />

L’attracteur en régime libre ne semble pas converger vers un attracteur final, ce que<br />

l’on aurait pu espérer. Cet attracteur final aurait été similaire à l’attracteur de la<br />

dynamique forçante, ce qui aurait correspondu à un apprentissage par coeur (le réseau<br />

simulerait en interne la dynamique forçante de l’environnement, sans présentation de<br />

celle-ci). Ce résultat démontre néanmoins que le réseau balaie un paysage complexe<br />

d’attracteurs, qui, pour la plupart, facilitent l’anticipation du signal de forçage lorsqu’il est<br />

présenté (l’erreur diminue progressivement).<br />

TROISIEME PARTIE : RESULTATS

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!