23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

84<br />

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

z = e + åz s ¢ ( h ) w<br />

i i j j ji<br />

j=<br />

1<br />

dw<br />

dt<br />

ij<br />

PREMIERE PARTIE : ANALYSE<br />

N<br />

= - hs ¢ ( h) zx<br />

j i j<br />

Ces deux dernières équations résument la méthode utilisée pour appliquer la descente<br />

de gradient dans un réseau récurrent. Dans le cas de la Recurrent Back Propagation, on<br />

suppose à priori que la dynamique du réseau est convergente. Dans ce cas, on applique<br />

ces équations après stabilisation du réseau, c’est-à-dire à t = ¥ 30 . Ce qui donne :<br />

N<br />

z ( t+ 1= ) e( ¥ ) + z ( t) s¢<br />

( h ( ¥ )) w avec z ( t = 0) = 0<br />

i i j j ji<br />

j=<br />

1<br />

nouveau ancien<br />

w = w - hz( ¥ ) s¢<br />

( h ( ¥ )) x ( ¥ )<br />

ij<br />

ij<br />

å<br />

i i j<br />

Equation 4-1 : RBP en temps discret<br />

ou, dans le cas du temps continu :<br />

( )<br />

*<br />

N<br />

dzi<br />

* * *<br />

+ z= i ei( ¥ ) + åzj() t s¢<br />

hj( ¥ ) wji avec zi( t = 0) = 0<br />

dt<br />

j=<br />

1<br />

( )<br />

nouveau ancien<br />

*<br />

Dw<br />

= w - w =- h z ( ¥ ) s¢<br />

h( ¥ ) x ( ¥ )<br />

ij ij<br />

ij<br />

i i j<br />

Equation 4-2 : RBP en temps continu<br />

Cet algorithme dans le cas discret peut être résumé dans le tableau suivant :<br />

t=0<br />

0

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!