Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
72<br />
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
aux capacités de spécialisation neuronale autour des sites de forçage, ce qui revient à<br />
étudier des phénomènes de modularisation a posteriori. Comme nous le verrons, il est<br />
possible d’interpréter la spécialisation modulaire neuronale comme étant une cause de la<br />
spécificité des sites de forçage (5.2.4 Modularisation fonctionnelle, p.113).<br />
3.3 Exemples de modèles chaotiques<br />
Nous présentons ici quelques uns des modèles proposés, dans lesquels ont été mis en<br />
évidence des dynamiques chaotiques, représentatifs des rôles proposés pour le chaos. Ces<br />
modèles se répartissent entre ceux qui découlent de considérations purement biologiques, et ceux<br />
pour lesquels le chaos n’est qu’un outil, source de désordre, améliorant les capacités de<br />
généralisation du système.<br />
3.3.1 Wan et Aussem<br />
Les travaux d’Eric Wan [[207]][[208]]. complétés par Alex Aussem [[7]][[8]], qui a<br />
généralisé les algorithmes proposés aux réseaux récurrents, font partie de ceux qui ont obtenu les<br />
meilleurs résultats de modélisation d’une série chaotique. Ces réseaux sont composés de<br />
neurones à mémoire, appelés ici FIR (Finite Impulse Response), dans une architecture feedforward<br />
classique.<br />
L’apprentissage consiste à faire apprendre au réseau les associations X(t),X(t+1), ce qui<br />
permet, après apprentissage, en rebouclant les sorties sur les entrées, d’obtenir un réseau dont la<br />
dynamique des sorties modélise la série temporelle apprise X(t).<br />
Cet apprentissage est une simple généralisation de l’algorithme de rétropropagation du<br />
gradient au modèle de neurone à mémoire. Il revient à modifier les vecteurs poids 25 par :<br />
Avec :<br />
l<br />
l<br />
l+<br />
1 l<br />
W ( t+ 1)<br />
= W () t -hd<br />
(). t X () t<br />
ij<br />
ij<br />
l ( j )<br />
l ( )<br />
l<br />
d () t =- 2e<br />
() t s ¢ h () t si l= L<br />
j<br />
j j<br />
l<br />
l+<br />
1 l<br />
d () t = s ¢ h () t d () tW () t sil¹ L<br />
j<br />
m=<br />
1<br />
PREMIERE PARTIE : ANALYSE<br />
N<br />
l+<br />
1<br />
å<br />
Cet algorithme revient donc, de la même façon que la rétro-propagation du gradient rétropropage<br />
l’erreur, à rétro-convoluer les vecteurs poids avec les vecteurs d’erreur<br />
l<br />
l l<br />
l<br />
l l-1<br />
d ( t) = [ d ( t), d ( t + 1), d ( t+ 2),...,<br />
d ( t+ M )]<br />
m<br />
l<br />
d j<br />
m<br />
m<br />
-1<br />
(), t et calculer ainsi l’évolution des poids.<br />
m<br />
m<br />
m<br />
j<br />
jm<br />
i<br />
, afin d’obtenir les nouvelles composantes<br />
L’efficacité de cet algorithme a été démontrée sur l’apprentissage d’une fonction de Lorenz<br />
et de Henon. Dans les deux cas, il est très intéressant de remarquer que non seulement l’erreur<br />
atteinte après apprentissage est faible, mais aussi que les réseaux obtenus sont sensibles aux<br />
conditions initiales. En effet, lors de son régime libre, le réseau s’écarte vite de la dynamique<br />
25 Un vecteur poids contient l’ensemble des poids synaptiques pour une synapse donnée, pour chaque retard<br />
du neurone à mémoire.