23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

C’est de cette façon que, presque systématiquement, lors des apprentissages que nous<br />

avons essayés, après une phase de décroissance régulière de l’erreur, celle-ci faisait un<br />

saut brusque, puis recommençait à décroître, jusqu’à la bifurcation suivante.<br />

Faut-il alors, lors de l’apprentissage, essayer de rester sur les variations lisses observées<br />

précédemment, ou au contraire essayer de faire varier les paramètres du réseau en le<br />

faisant passer d’un régime à l’autre ? Dans le premier cas, l’apprentissage est trop lent,<br />

et de toute façon il finit toujours par y avoir une bifurcation de la dynamique du système.<br />

Dans le second cas, il est impossible de prévoir l’effet qu’aura une modification du<br />

paramètre sur la dynamique du système.<br />

7.3 Paramètres bifurquants<br />

Nous avons donc cherché à savoir quels étaient les paramètres ‘sensibles’ du réseau, afin<br />

d’orienter un peu les voies possibles de l’apprentissage. N’oublions pas en effet que l’étude<br />

préliminaire des dynamiques du réseau a pour objet de trouver un modèle qui puisse être<br />

chaotique lorsqu’il est forcé, par diffusion des perturbations induites dans le système, et dont on<br />

puisse modifier les dynamiques internes par apprentissage, pour les faire coïncider avec les<br />

dynamiques externes. Il était donc essentiel de savoir sur quels paramètres jouer dans nos<br />

modèles afin d’en modifier les dynamiques.<br />

7.3.1 Variation du gain<br />

Ce paramètre correspond au gain b de la fonction neurone :<br />

b<br />

- x<br />

V e<br />

s(<br />

x)<br />

=<br />

1+<br />

e<br />

b<br />

- x V<br />

où V représente le nombre de neurones inclus dans le voisinage local.<br />

Il a déjà été démontré que ce paramètre est bifurquant pour des réseaux hopfieldiens<br />

avec ou sans délais [[40]][[43]], nous pouvons donc nous attendre à ce qu’il se révèle bifurquant<br />

pour des modèles plus complexes.<br />

1. Dans un modèle à délais<br />

En reprenant le réseau étudié précédemment (1 Modèles à délai, p.151), nous avons<br />

cherché à observer l’évolution des attracteurs obtenus auparavant (Figure 7-9, p.152),<br />

pour de nouvelles valeurs de b. Ce gain est modifié pour l’ensemble des neurones du<br />

réseau, et est mis à la même valeur. Comme nous pouvions le prévoir, et<br />

conformément aux résultats déjà obtenus sur le sujet, il y a complexification des<br />

dynamiques individuelles avec l’augmentation du gain.<br />

Ce résultat est logique, car, l’augmentation du gain accroît la raideur de la fonction<br />

neurone. La non-linéarité neuronale est donc accentuée, augmentant donc la complexité<br />

des dynamiques. Nous n’avons pas étudié les propriétés des types de bifurcation<br />

observées, car cela n’était pas notre propos initial, mais, conformément aux études plus<br />

précises sur le sujet [[33]][[34]][[35]][[32]][[68]], plusieurs types de bifurcations sont<br />

,<br />

DYNAMIQUES OBSERVEES ET EXPERIMENTEES 173

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!