23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

4.4.2 Back-propagation through time<br />

Cet algorithme dérive des équations précédentes, en généralisant l’apprentissage à celui<br />

de séries temporelles, où il existe un x$ () t désiré en sortie pour chaque temps t. L’erreur<br />

i<br />

quadratique qui permet de réaliser cet apprentissage est alors égale à la moyenne des erreurs<br />

instantanées réalisées pendant la présentation de la trajectoire à apprendre. L’idée principale de<br />

cet algorithme consiste à dérouler le temps à l’envers pendant la phase d’apprentissage, ce qui<br />

revient à transformer dt en -dt dans l’Equation 4-2. Pour faire évoluer les poids, la nouvelle erreur<br />

à minimiser étant la valeur moyenne de E(t), on obtient :<br />

Ou, dans le cas discret :<br />

N<br />

dzi<br />

-= zi -ei() t - åzj()<br />

t s¢<br />

( hj()) t wji avec zi( t = t1)<br />

= 0<br />

dt<br />

j=<br />

1<br />

t<br />

E<br />

wij ( t ) = wij ( t ) - h ò dt = wij ( t ) - ¢ ( hit ) zit xjt w ò () () ()<br />

<br />

1<br />

1<br />

1 0 0 h s<br />

<br />

t<br />

0<br />

ij<br />

Equation 4-3 : BPTT dans le cas continu<br />

N<br />

å<br />

( )<br />

z ( t - 1)<br />

= z () t s¢<br />

h () t w + e () t<br />

i j j ji<br />

j=<br />

1<br />

t= t1<br />

å<br />

( )<br />

w ( t ) = w ( t ) - h s¢<br />

h () t z () t x () t<br />

ij 1 ij 0<br />

i i j<br />

t= t0<br />

Equation 4-4 : BPTT dans le cas discret<br />

Ces équations peuvent être résumées dans le tableau suivant :<br />

t=0<br />

0

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!