23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

Figure 7-26 : Perte de l'organisation du réseau<br />

Ce type de comportement peut permettre d’observer une modularisation fonctionnelle<br />

autour du site de forçage, car il est à la fois diffusant autour du site de forçage, organisé,<br />

et est à l’origine de comportements complexes dans les dynamiques du réseau. De plus<br />

l’intérieur de ces zones organisées est en phase, et un déphasage progressif apparaît à<br />

leurs frontières, qui participe aux mouvements relatifs de ces zones. Ce type de<br />

comportement peut être à l’origine de synchronismes de populations neuronales. Nous<br />

avons donc là une architecture neuronale qui peut s’avérer encourageante pour le<br />

modèle de mémoire proposé.<br />

7.2.4 Réseau Hopfieldien à différences finies<br />

Comme cela a été vu dans le cas d’un réseau à fonction de transfert en sortie, des ondes<br />

peuvent apparaître dans le réseau, qui diffusent autour des sites de forçage. Cette propriété est<br />

requise, si l’on veut réaliser un apprentissage qui spécialise les zones de diffusion, en créant des<br />

associations entre les dynamiques des zones où interfèrent ces dynamiques. Nous cherchons<br />

donc à obtenir en premier lieu des diffusions de dynamiques dans le réseau, autour soit des sites<br />

de forçage, soit des clusters du réseau. Les modèles discrets posent le problème de ne pas<br />

pouvoir suivre la diffusion de la dynamique dans le réseau, et les attracteurs atteints sont<br />

restreints à des coupes de Poincaré de dynamiques continues. L’approche réalisée par l’utilisation<br />

de fonctions de transfert en sortie offre l’avantage de lisser ces dynamiques, en les convoluant<br />

avec une fonction de transfert qui, dans les cas étudiés ici, réalisait un filtrage passe-bas<br />

(moyenne pondérée des sorties du neurone pendant 10 itérations). Nous avions donc une forte<br />

dépendance de X(t) avec X(t-1), car la dynamique était ainsi lissée.<br />

Nous nous sommes donc intéressés alors à des modèles du type :<br />

x () t = ax ( t- ) + bF(<br />

X (), t X (),..., t X ()) t<br />

i i 1 1 2 N<br />

Ce qui nous a naturellement amenés vers les réseaux à différences finies, du type :<br />

DYNAMIQUES OBSERVEES ET EXPERIMENTEES 167

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!