23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

72<br />

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

aux capacités de spécialisation neuronale autour des sites de forçage, ce qui revient à<br />

étudier des phénomènes de modularisation a posteriori. Comme nous le verrons, il est<br />

possible d’interpréter la spécialisation modulaire neuronale comme étant une cause de la<br />

spécificité des sites de forçage (5.2.4 Modularisation fonctionnelle, p.113).<br />

3.3 Exemples de modèles chaotiques<br />

Nous présentons ici quelques uns des modèles proposés, dans lesquels ont été mis en<br />

évidence des dynamiques chaotiques, représentatifs des rôles proposés pour le chaos. Ces<br />

modèles se répartissent entre ceux qui découlent de considérations purement biologiques, et ceux<br />

pour lesquels le chaos n’est qu’un outil, source de désordre, améliorant les capacités de<br />

généralisation du système.<br />

3.3.1 Wan et Aussem<br />

Les travaux d’Eric Wan [[207]][[208]]. complétés par Alex Aussem [[7]][[8]], qui a<br />

généralisé les algorithmes proposés aux réseaux récurrents, font partie de ceux qui ont obtenu les<br />

meilleurs résultats de modélisation d’une série chaotique. Ces réseaux sont composés de<br />

neurones à mémoire, appelés ici FIR (Finite Impulse Response), dans une architecture feedforward<br />

classique.<br />

L’apprentissage consiste à faire apprendre au réseau les associations X(t),X(t+1), ce qui<br />

permet, après apprentissage, en rebouclant les sorties sur les entrées, d’obtenir un réseau dont la<br />

dynamique des sorties modélise la série temporelle apprise X(t).<br />

Cet apprentissage est une simple généralisation de l’algorithme de rétropropagation du<br />

gradient au modèle de neurone à mémoire. Il revient à modifier les vecteurs poids 25 par :<br />

Avec :<br />

l<br />

l<br />

l+<br />

1 l<br />

W ( t+ 1)<br />

= W () t -hd<br />

(). t X () t<br />

ij<br />

ij<br />

l ( j )<br />

l ( )<br />

l<br />

d () t =- 2e<br />

() t s ¢ h () t si l= L<br />

j<br />

j j<br />

l<br />

l+<br />

1 l<br />

d () t = s ¢ h () t d () tW () t sil¹ L<br />

j<br />

m=<br />

1<br />

PREMIERE PARTIE : ANALYSE<br />

N<br />

l+<br />

1<br />

å<br />

Cet algorithme revient donc, de la même façon que la rétro-propagation du gradient rétropropage<br />

l’erreur, à rétro-convoluer les vecteurs poids avec les vecteurs d’erreur<br />

l<br />

l l<br />

l<br />

l l-1<br />

d ( t) = [ d ( t), d ( t + 1), d ( t+ 2),...,<br />

d ( t+ M )]<br />

m<br />

l<br />

d j<br />

m<br />

m<br />

-1<br />

(), t et calculer ainsi l’évolution des poids.<br />

m<br />

m<br />

m<br />

j<br />

jm<br />

i<br />

, afin d’obtenir les nouvelles composantes<br />

L’efficacité de cet algorithme a été démontrée sur l’apprentissage d’une fonction de Lorenz<br />

et de Henon. Dans les deux cas, il est très intéressant de remarquer que non seulement l’erreur<br />

atteinte après apprentissage est faible, mais aussi que les réseaux obtenus sont sensibles aux<br />

conditions initiales. En effet, lors de son régime libre, le réseau s’écarte vite de la dynamique<br />

25 Un vecteur poids contient l’ensemble des poids synaptiques pour une synapse donnée, pour chaque retard<br />

du neurone à mémoire.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!