23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

réseau met beaucoup plus de temps à apprendre le signal de forçage, qu’à s’en ‘rappeler’. Ainsi,<br />

un tel apprentissage permet de réaliser l’apprentissage de fonctions simples, telles que des<br />

sommes de sinusoïdes. Malheureusement, dès que la fonction à apprendre devient plus<br />

complexe, le réseau se stabilise sur une erreur minimale, qui finit par augmenter en très peu<br />

d’itérations, pour recommencer à décroître lentement, et ainsi de suite.<br />

Nous avons remarqué que les fonctions symétriques où il existe t0 tel que f(t0-t)=f(t0+t),<br />

sont plus simples à apprendre par le réseau.<br />

Ce phénomène peut être expliqué par un ‘rebond’ de l’erreur dans le réseau : à chaque<br />

instant t, le neurone forcé réalise une erreur e(t), qui est transmise à ses voisins, qui font de<br />

même. De cette façon, un neurone à une distance d du site de forçage reçoit l’erreur e(t-d). Ainsi, il<br />

va modifier ses paramètres afin de minimiser e(t-d), et va renvoyer sa sortie ainsi modifiée, qui se<br />

propagera en un temps d jusqu’au neurone forcé.<br />

Ainsi, ce type de réseau va chercher à rapprocher x(t-d) de x(t+d), pour l’ensemble des d,<br />

car le réseau diffuse les perturbations dues au forçage dans tout le réseau. Ainsi, s'il existe x0, tel<br />

que f(t0-t)=f(t0+t), le réseau aura un apprentissage cohérent pour d=t0, ce qui lui permettra<br />

d’apprendre cette fonction symétrique.<br />

8.4 Forçage des dynamiques complémentaires<br />

8.4.1 Description<br />

Pour rendre RTRL local,<br />

la méthode ne peut pas être aussi<br />

simple que pour rendre on-line<br />

BPTT, car la restriction des<br />

équations à leur composante<br />

locales les rendent inadéquates :<br />

RTRL est par conception, un<br />

algorithme non-local. Comme nous<br />

l’avons vu dans le chapitre où sont<br />

analysées les dynamiques<br />

observées dans les réseaux<br />

récurrents [Chap. 7, Dynamiques<br />

observées, p.143], l’ajout d’un<br />

forçage sur un ou plusieurs<br />

neurones modifie les dynamiques<br />

locales du réseau. D’une certaine<br />

façon, l’ensemble de ces<br />

dynamiques obtenues dans le Figure 8-14 : Forçage des dynamiques complémentaires<br />

réseau peuvent être qualifiées de ‘naturelles’ pour le réseau. Tout comme la réponse d’un système<br />

à une impulsion donne en sortie sa fonction de transfert, on peut dire que les dynamiques<br />

obtenues sur les neurones non-forcés contiennent une partie de l’information encodée par les<br />

paramètres du réseau. Il est ainsi possible d’imaginer que ces dynamiques seront plus facilement<br />

apprises par ce réseau, car elles correspondent à des dynamiques qui proviennent de lui.<br />

ANTICIPATION DU FORÇAGE DES DYNAMIQUES 195

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!