23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

1<br />

y= f( x)<br />

= -b( wx-q)<br />

1+<br />

e<br />

Il est possible de définir l’entropie de l’état d’un neurone par<br />

¥<br />

ò<br />

-¥<br />

x 2 x<br />

H( x) = p ( x).log p ( x). dx<br />

La modification de cette entropie, lors du passage par la fonction neurone f, donne :<br />

H( y) = H( x) + H ( x)<br />

avec H ( x) = p ( x).log f ¢ ( x). dx<br />

trans<br />

trans<br />

¥<br />

ò<br />

-¥<br />

x<br />

2<br />

Si l’on cherche alors à maximiser Htrans, ce qui revient à maximiser H(y) pour un x donné,<br />

et donc à maximiser l’entropie de sortie d’un neurone, il est possible de modifier les paramètres q<br />

et w de la fonction f, par :<br />

Soit, après calculs :<br />

d H<br />

et<br />

dt<br />

dw<br />

q <br />

H<br />

a a<br />

q dt w<br />

<br />

= =<br />

<br />

trans trans<br />

d<br />

y et<br />

dt<br />

dw<br />

q<br />

æ 1<br />

1 ö<br />

= 2ab(<br />

- 2)<br />

= aç + b(<br />

x-2 xy)<br />

÷ , avec pour u=f(x), u = u x px x dx<br />

dt è w ø<br />

ò ( ). ( ).<br />

L’intérêt de ce calcul est de faire apparaître dans l’apprentissage sur les poids, un terme<br />

en xy, qui rapproche une telle évolution de celle d’un apprentissage hebbien. Ainsi, le rôle d’un<br />

apprentissage hebbien peut être de maximiser l’entropie informationnelle de sortie des neurones.<br />

4.4 Descente du gradient de l’erreur<br />

L’algorithme de rétropropagation du<br />

gradient permet de faire apprendre à un<br />

réseau de neurones feed-forward<br />

multicouches des associations entrée-sortie.<br />

Dans cette architecture, l’information ne se<br />

propage que dans un sens, de l’entrée vers<br />

la sortie, confortant un peu plus le paradigme<br />

de boucle perception-action. Une telle<br />

architecture, de type perceptron<br />

multicouches, ne peut pas produire de sortie<br />

dynamique sans posséder de rétroaction<br />

dans son architecture.<br />

L’algorithme de rétropropagation du<br />

gradient fut ensuite généralisé aux<br />

Figure 4-1 : Partition des neurones<br />

architectures récurrentes, tout d’abord pour<br />

l’apprentissage de points fixes, puis en vue de l’apprentissage de séries temporelles. Nous<br />

APPRENTISSAGE DANS LES RESEAUX RECURRENTS 81<br />

¥<br />

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!