23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

Ceci est l’idée sous-jacente de cette règle d’apprentissage : faire évoluer en parallèle deux<br />

réseaux identiques, dont les sorties de l’un sont les entrées forçantes du second, excepté les<br />

sorties forcées du premier (Figure 8-14).<br />

Etant donné que les deux réseaux sont identiques, il est possible de supposer que ce<br />

forçage sera plus simple à apprendre par le second réseau. Le but de l’apprentissage envisagé est<br />

alors de rapprocher les dynamiques des deux réseaux, en appliquant les règles d’apprentissage<br />

proposées dans le cas d’un forçage total (5 Avec Teacher forcing total, p.88). Si ces deux réseaux<br />

convergent vers la même dynamique, cela signifie que les dynamiques forcées sont égales aux<br />

dynamiques non forcées : le régime libre du réseau anticipe les dynamiques induites par le<br />

forçage.<br />

Un tel apprentissage conserve les contraintes d’apprentissage on-line et local. Par contre<br />

la plausibilité biologique est perdue, puisqu’il est nécessaire de faire évoluer en parallèle deux<br />

copies du réseau.<br />

8.4.2 Résultats<br />

196<br />

1. Cycles limites du régime libre initial<br />

Le réseau étudié est un simple réseau hopfieldien, sans mémoire, entièrement<br />

interconnecté. Nous l’avons choisi entièrement interconnecté, car pour ce faible nombre<br />

de neurones, les phénomènes de diffusion ne sont pas visibles, et nous voulions<br />

commencer par la validation des règles sur de petits modèles, en les généralisant<br />

ensuite aux grands réseaux à voisinage local. En lâchant ce réseau à partir de conditions<br />

initiales aléatoires, les seize neurones finissent par se stabiliser chacun sur un cycle<br />

limite (Figure 8-15).<br />

2. Complexification des dynamiques par perturbation<br />

Le forçage a été réalisé sur le neurone [2,2]. Cette perturbation induit une<br />

modification de l’ensemble des attracteurs du réseau, qui se complexifient (Figure 8-16).<br />

Nous avons tracé en superposition pour le neurone [2,2] la dynamique de forçage (une<br />

simple sinusoïde), et la sortie du second réseau (dont tous les autres neurones sont<br />

forcés).<br />

3. Minimisation des perturbations induites<br />

L’apprentissage réalisé modifie rapidement les attracteurs de l’ensemble du réseau.<br />

La dynamique du neurone [2,2] cherche bien à suivre la dynamique extérieure. En<br />

continuant l’apprentissage, après 10000 itérations, la dynamique du neurone [2,2]<br />

continue à se rapprocher de la dynamique extérieure.<br />

TROISIEME PARTIE : RESULTATS

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!