Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
Figure 7-26 : Perte de l'organisation du réseau<br />
Ce type de comportement peut permettre d’observer une modularisation fonctionnelle<br />
autour du site de forçage, car il est à la fois diffusant autour du site de forçage, organisé,<br />
et est à l’origine de comportements complexes dans les dynamiques du réseau. De plus<br />
l’intérieur de ces zones organisées est en phase, et un déphasage progressif apparaît à<br />
leurs frontières, qui participe aux mouvements relatifs de ces zones. Ce type de<br />
comportement peut être à l’origine de synchronismes de populations neuronales. Nous<br />
avons donc là une architecture neuronale qui peut s’avérer encourageante pour le<br />
modèle de mémoire proposé.<br />
7.2.4 Réseau Hopfieldien à différences finies<br />
Comme cela a été vu dans le cas d’un réseau à fonction de transfert en sortie, des ondes<br />
peuvent apparaître dans le réseau, qui diffusent autour des sites de forçage. Cette propriété est<br />
requise, si l’on veut réaliser un apprentissage qui spécialise les zones de diffusion, en créant des<br />
associations entre les dynamiques des zones où interfèrent ces dynamiques. Nous cherchons<br />
donc à obtenir en premier lieu des diffusions de dynamiques dans le réseau, autour soit des sites<br />
de forçage, soit des clusters du réseau. Les modèles discrets posent le problème de ne pas<br />
pouvoir suivre la diffusion de la dynamique dans le réseau, et les attracteurs atteints sont<br />
restreints à des coupes de Poincaré de dynamiques continues. L’approche réalisée par l’utilisation<br />
de fonctions de transfert en sortie offre l’avantage de lisser ces dynamiques, en les convoluant<br />
avec une fonction de transfert qui, dans les cas étudiés ici, réalisait un filtrage passe-bas<br />
(moyenne pondérée des sorties du neurone pendant 10 itérations). Nous avions donc une forte<br />
dépendance de X(t) avec X(t-1), car la dynamique était ainsi lissée.<br />
Nous nous sommes donc intéressés alors à des modèles du type :<br />
x () t = ax ( t- ) + bF(<br />
X (), t X (),..., t X ()) t<br />
i i 1 1 2 N<br />
Ce qui nous a naturellement amenés vers les réseaux à différences finies, du type :<br />
DYNAMIQUES OBSERVEES ET EXPERIMENTEES 167