23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

l’influence de la perturbation induite. Ainsi, il n’est pas possible de mettre en application l’idée<br />

d’une reconnaissance par anticipation du signal forçant (5.2 Principes , p.98).<br />

Il est donc nécessaire ,dans un premier temps, de se tourner vers les règles à descente de<br />

gradient, afin de minimiser l’écart entre la dynamique du réseau et le signal de forçage extérieur.<br />

Malheureusement, comme nous l’avons déjà vu, les seules règles développées à ce jour réalisant<br />

cette descente de gradient sont soit non on-line, soit non locales, et perdent donc toute plausibilité<br />

biologique. Il sera donc nécessaire, dans les règles qui suivent, de perdre la possibilité de calcul<br />

d’un gradient exact, en les rendant on-line et locales.<br />

8.3.1 Description<br />

La rétropropagation du gradient revient à faire parcourir à l’envers les erreurs réalisées<br />

par les sorties du réseau, afin de modifier à posteriori les poids synaptiques. Un tel comportement<br />

peut être plausible, puisqu’il existe bien dans le neurone biologique une transmission d’information<br />

du soma vers la synapse. Par contre, BPTT mémorise le passé du réseau afin de déterminer le<br />

gradient de l’erreur à chaque itération passée : il est donc off-line.<br />

Qu’en est-il si cet algorithme est rendu artificiellement on-line ?<br />

La première idée proposée fut de ne pas mémoriser les états passés du réseau, de<br />

laisser diffuser à l’envers l’erreur dans le réseau, et d’effectuer l’apprentissage sur l’erreur locale<br />

ainsi calculée (Figure 8-8).<br />

Figure 8-8 : Rétropropagation de l'erreur<br />

Cette méthode est similaire à celle utilisée par BPTT, ou par la rétropropagation, qui<br />

consiste à faire circuler à l’envers l’erreur des neurones de sortie. Ici, la sortie est représentée par<br />

le neurone que l’on veut forcer. La différence principale porte sur la conservation de la valeur des<br />

erreurs, à chaque itération. En effet, contrairement à BPTT, où l’apprentissage est réalisé tous les<br />

T itérations, et réinitialise à 0 les erreurs du réseau, dans le cas présenté ici, T vaut 1, et les<br />

erreurs ne sont par réinitialisées, afin de permettre leur diffusion dans le réseau. A chaque<br />

itération, le réseau propage à l’envers cette erreur aux neurones voisins. Dans le cas où il s’agit<br />

d’un réseau à mémoire, il est possible de s’inspirer de l’algorithme de Wan [[207]], qui a généralisé<br />

l’algorithme de rétropropagation du gradient aux réseaux multicouches feed-forward. Sa méthode<br />

consiste à convoluer le vecteur erreur avec le vecteur poids (Figure 8-9).<br />

ANTICIPATION DU FORÇAGE DES DYNAMIQUES 191

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!