Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
170<br />
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
Figure 7-29 : Erreur parfois à 0 pour un neurone<br />
Ceci peut être expliqué simplement par le fait que les dynamiques individuelles des<br />
neurones ne sont pas celles du système complet, sans variable cachée. De cette façon,<br />
l’erreur d’un neurone peut être à 0, et c’est un neurone voisin qui a une erreur non nulle.<br />
Ainsi, il est nécessaire de considérer le réseau entier si l’on veut mesurer les coefficients<br />
de Lyapunov du système. Il est donc impossible de chercher à connaître et à quantifier<br />
la sensibilité aux conditions initiales locales d’un neurone, afin de mesurer le degré de<br />
chaoticité des zones du réseau.<br />
Comme cela peut être vu sur la Figure 7-30, pour des valeurs de 64.b allant de 1 à 250,<br />
le coefficient semble augmenter, montrant un résultat déjà connu que ce gain est<br />
bifurquant, et provoque un régime chaotique pour de hautes valeurs. Nous sommes allés<br />
jusqu’à b=1000, en conservant des valeurs de l positives. Mais ce qui est étonnant, c’est<br />
l’irrégularité des variations de l avec b : l semble sauter en permanence d’une valeur<br />
positive à une valeur négative. Afin de confirmer ce comportement, nous avons effectué<br />
différents zooms sur l’évolution de l, qui confirment que pour de petites variations de b,<br />
l peut changer de signe. Nous nous sommes donc ramenés au calcul de l’erreur<br />
moyenne du réseau, et avons tracé le coefficient de Lyapunov de cette dynamique<br />
moyenne pour plusieurs intervalles de b.<br />
TROISIEME PARTIE : RESULTATS