23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

Cette méthode a été utilisée dans<br />

un simple réseau de 64 neurones,<br />

entièrement interconnecté, en forçant l’un<br />

des neurones à suivre une sinusoïde. Elle<br />

permet, en partant d’un réseau dont tous les<br />

neurones sont à 0, avec des poids initiaux<br />

égaux, d’amener la dynamique forcée sur le<br />

cycle limite forçant (Figure 8-10). Il y a bien<br />

dans ce cas, comme dans le cas de<br />

l’apprentissage hebbien présenté<br />

précédemment, diffusion de l’activité à<br />

partir du site de forçage, avec une<br />

modification plus forte des poids proches de<br />

ce site. En effet, les poids initiaux étant<br />

faibles, et le réseau étant sur un point fixe,<br />

le site de forçage réalise une erreur est vite<br />

atténuée pendant sa rétro-propagation.<br />

Mais cette erreur, qui fait croître les poids<br />

par l’apprentissage, crée des circuits de<br />

propagation privilégiée, qui permettent de<br />

la faire diffuser plus loin.<br />

Parfois, cet apprentissage fait<br />

diverger les paramètres du réseau.<br />

En effet, tout comme pour RTRL,<br />

la diffusion de l’erreur n’est pas bornée. Il<br />

peut donc apparaître des zones de<br />

résonnance, où elle augmente rapidement.<br />

Devenant élevée, elle fait accroître les<br />

poids rapidement, ce qui accélère encore la<br />

divergence de l’erreur. Afin de résoudre ce<br />

problème, nous avons souvent eu recours<br />

dans les expériences qui suivent, à un<br />

seuillage artificiel de l’erreur.<br />

Figure 8-11 : Synchronisation lors de l'apprentissage<br />

Bien souvent, durant<br />

l’apprentissage, la courbe d’erreur effectue<br />

des sauts. Parfois très proche de 0, elle<br />

augmente en quelques itérations, pour<br />

redescendre ensuite lentement vers 0.<br />

Ainsi, par exemple, il peut arriver que le<br />

signal du réseau soit très proche du signal<br />

du forçage, mais qu’il reste une erreur<br />

résiduelle. Comme cette erreur résiduelle<br />

n’est pas réinitialisée, celle-ci croît jusqu’à<br />

qu’elle soit suffisante pour faire basculer<br />

rapidement les poids vers d’autres Figure 8-12 : Synchronisation par ajout de fréquence<br />

configurations, ce qui modifie rapidement les dynamiques, en les éloignant du signal de forçage.<br />

Alors, l’erreur recommence à décroître lentement.<br />

ANTICIPATION DU FORÇAGE DES DYNAMIQUES 193

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!