23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

ou<br />

å<br />

ìhi()<br />

t = wij () t xj() t<br />

ï<br />

jÎS í<br />

îïxi(<br />

t + 1) = s(<br />

hi( t)) + Ii() t<br />

*<br />

ìdhi<br />

* *<br />

ï () t + hi () t = åwij<br />

() t xj() t<br />

ídt<br />

jÎS ï * *<br />

îxi()<br />

t = s(<br />

hi( t)) + Ii() t<br />

4.4.1 Recurrent back-propagation<br />

en temps discret<br />

en temps continu<br />

Cet apprentissage utilise la descente de gradient pour faire apprendre des points fixes à<br />

des réseaux récurrents, en utilisant les règles de dérivation en chaîne. En effet :<br />

Ce qui donne, avec xi<br />

h<br />

i<br />

E<br />

w<br />

E xi<br />

hi<br />

=<br />

x h w<br />

ij i<br />

= s ¢( hi( t))<br />

,et hi<br />

w<br />

E<br />

w<br />

ij<br />

i<br />

= x (): t<br />

<br />

s<br />

E<br />

= ¢( hi()) t xj() t<br />

x<br />

ij i<br />

Cette dernière équation montre qu’il est possible d’exprimer E<br />

en fonction de E<br />

,<br />

que l’on peut calculer en utilisant la technique de dérivation en chaîne (en déroulant les<br />

calculs à partir des neurones de sortie) qui est définie de façon récursive par:<br />

Ce qui amène, en posant z<br />

i<br />

+ N +<br />

E E E x<br />

= + å<br />

x x x x<br />

i i j = 1 j<br />

+<br />

E E<br />

= et ei<br />

= = x$ i - xi<br />

:<br />

x x<br />

i<br />

N x<br />

N<br />

j<br />

x j h<br />

N<br />

j<br />

zi = ei + åzj = ei + åzj = e + åz<br />

s¢<br />

( h ) w<br />

x<br />

h x<br />

i<br />

i j j ji<br />

j=<br />

1 i<br />

j=<br />

1 j i<br />

j=<br />

1<br />

Les équations d’évolution des poids amènent alors à<br />

dw<br />

dt<br />

ij<br />

E<br />

=- h =- ¢ h zx<br />

w<br />

<br />

hs ( )<br />

<br />

ij<br />

j<br />

APPRENTISSAGE DANS LES RESEAUX RECURRENTS 83<br />

ij<br />

j<br />

i<br />

i i j<br />

Ainsi, cette technique de descente de gradient peut se résumer aux équations<br />

suivantes :<br />

<br />

w ij<br />

<br />

x i

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!