Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
1<br />
y= f( x)<br />
= -b( wx-q)<br />
1+<br />
e<br />
Il est possible de définir l’entropie de l’état d’un neurone par<br />
¥<br />
ò<br />
-¥<br />
x 2 x<br />
H( x) = p ( x).log p ( x). dx<br />
La modification de cette entropie, lors du passage par la fonction neurone f, donne :<br />
H( y) = H( x) + H ( x)<br />
avec H ( x) = p ( x).log f ¢ ( x). dx<br />
trans<br />
trans<br />
¥<br />
ò<br />
-¥<br />
x<br />
2<br />
Si l’on cherche alors à maximiser Htrans, ce qui revient à maximiser H(y) pour un x donné,<br />
et donc à maximiser l’entropie de sortie d’un neurone, il est possible de modifier les paramètres q<br />
et w de la fonction f, par :<br />
Soit, après calculs :<br />
d H<br />
et<br />
dt<br />
dw<br />
q <br />
H<br />
a a<br />
q dt w<br />
<br />
= =<br />
<br />
trans trans<br />
d<br />
y et<br />
dt<br />
dw<br />
q<br />
æ 1<br />
1 ö<br />
= 2ab(<br />
- 2)<br />
= aç + b(<br />
x-2 xy)<br />
÷ , avec pour u=f(x), u = u x px x dx<br />
dt è w ø<br />
ò ( ). ( ).<br />
L’intérêt de ce calcul est de faire apparaître dans l’apprentissage sur les poids, un terme<br />
en xy, qui rapproche une telle évolution de celle d’un apprentissage hebbien. Ainsi, le rôle d’un<br />
apprentissage hebbien peut être de maximiser l’entropie informationnelle de sortie des neurones.<br />
4.4 Descente du gradient de l’erreur<br />
L’algorithme de rétropropagation du<br />
gradient permet de faire apprendre à un<br />
réseau de neurones feed-forward<br />
multicouches des associations entrée-sortie.<br />
Dans cette architecture, l’information ne se<br />
propage que dans un sens, de l’entrée vers<br />
la sortie, confortant un peu plus le paradigme<br />
de boucle perception-action. Une telle<br />
architecture, de type perceptron<br />
multicouches, ne peut pas produire de sortie<br />
dynamique sans posséder de rétroaction<br />
dans son architecture.<br />
L’algorithme de rétropropagation du<br />
gradient fut ensuite généralisé aux<br />
Figure 4-1 : Partition des neurones<br />
architectures récurrentes, tout d’abord pour<br />
l’apprentissage de points fixes, puis en vue de l’apprentissage de séries temporelles. Nous<br />
APPRENTISSAGE DANS LES RESEAUX RECURRENTS 81<br />
¥<br />
-¥