Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
réseau met beaucoup plus de temps à apprendre le signal de forçage, qu’à s’en ‘rappeler’. Ainsi,<br />
un tel apprentissage permet de réaliser l’apprentissage de fonctions simples, telles que des<br />
sommes de sinusoïdes. Malheureusement, dès que la fonction à apprendre devient plus<br />
complexe, le réseau se stabilise sur une erreur minimale, qui finit par augmenter en très peu<br />
d’itérations, pour recommencer à décroître lentement, et ainsi de suite.<br />
Nous avons remarqué que les fonctions symétriques où il existe t0 tel que f(t0-t)=f(t0+t),<br />
sont plus simples à apprendre par le réseau.<br />
Ce phénomène peut être expliqué par un ‘rebond’ de l’erreur dans le réseau : à chaque<br />
instant t, le neurone forcé réalise une erreur e(t), qui est transmise à ses voisins, qui font de<br />
même. De cette façon, un neurone à une distance d du site de forçage reçoit l’erreur e(t-d). Ainsi, il<br />
va modifier ses paramètres afin de minimiser e(t-d), et va renvoyer sa sortie ainsi modifiée, qui se<br />
propagera en un temps d jusqu’au neurone forcé.<br />
Ainsi, ce type de réseau va chercher à rapprocher x(t-d) de x(t+d), pour l’ensemble des d,<br />
car le réseau diffuse les perturbations dues au forçage dans tout le réseau. Ainsi, s'il existe x0, tel<br />
que f(t0-t)=f(t0+t), le réseau aura un apprentissage cohérent pour d=t0, ce qui lui permettra<br />
d’apprendre cette fonction symétrique.<br />
8.4 Forçage des dynamiques complémentaires<br />
8.4.1 Description<br />
Pour rendre RTRL local,<br />
la méthode ne peut pas être aussi<br />
simple que pour rendre on-line<br />
BPTT, car la restriction des<br />
équations à leur composante<br />
locales les rendent inadéquates :<br />
RTRL est par conception, un<br />
algorithme non-local. Comme nous<br />
l’avons vu dans le chapitre où sont<br />
analysées les dynamiques<br />
observées dans les réseaux<br />
récurrents [Chap. 7, Dynamiques<br />
observées, p.143], l’ajout d’un<br />
forçage sur un ou plusieurs<br />
neurones modifie les dynamiques<br />
locales du réseau. D’une certaine<br />
façon, l’ensemble de ces<br />
dynamiques obtenues dans le Figure 8-14 : Forçage des dynamiques complémentaires<br />
réseau peuvent être qualifiées de ‘naturelles’ pour le réseau. Tout comme la réponse d’un système<br />
à une impulsion donne en sortie sa fonction de transfert, on peut dire que les dynamiques<br />
obtenues sur les neurones non-forcés contiennent une partie de l’information encodée par les<br />
paramètres du réseau. Il est ainsi possible d’imaginer que ces dynamiques seront plus facilement<br />
apprises par ce réseau, car elles correspondent à des dynamiques qui proviennent de lui.<br />
ANTICIPATION DU FORÇAGE DES DYNAMIQUES 195