23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

pas effacé par les nouvelles entrées présentées au réseau, comme c’est le cas dans les<br />

architectures feed-forward. Il est donc nécessaire dans le cas des architectures récurrentes de<br />

tenir compte de la totalité du passé du réseau.<br />

Deux approches peuvent permettre de résoudre ce problème. La première consiste à<br />

mémoriser les états passés du réseau pour calculer un gradient exact au temps t, et correspond à<br />

l’algorithme de Temporal Back Propagation. La seconde consiste à calculer l’influence qu’aura<br />

l’état de chaque neurone sur le futur du réseau entier, c’est l’approche réalisée dans le Real Time<br />

Recurrent Learning.<br />

Ces deux approches ne sont pas plausibles biologiquement, puisqu’elles contredisent la<br />

nature on-line et locale du comportement connu actuellement du cerveau. Il est impossible de<br />

croire que chaque neurone mémorise l’ensemble de ses états précédents depuis sa naissance. Et,<br />

dans le cas où il existe une mémorisation pendant un temps fini, l’algorithme ne permet plus<br />

d’évaluer le gradient exact de l’erreur.<br />

D’autre part, il n’existe pas la moindre raison de penser que chaque neurone ait accès à la<br />

totalité des états des autres neurones. Ainsi, les deux méthodes utilisées pour calculer le gradient<br />

exact de l’erreur dans un réseau récurrent ne peuvent pas être acceptées comme plausibles<br />

biologiquement.<br />

D’autre part, ces deux types d’algorithmes requièrent tant de puissance de calcul et tant<br />

de mémoire, que leur application à de grands réseaux est impossible. Dans notre cas, il n’est pas<br />

envisageable de simuler 262144 neurones, avec ces principes d’apprentissage.<br />

Il est ainsi nécessaire d’imaginer que le gradient évalué n’est pas exact, et peut-être de<br />

chercher dans les règles d’inspiration hebbienne une solution au problème. En effet, les résultats<br />

obtenus avec certaines de ces règles semblent être conformes aux principes biologiques [[161]],<br />

et leur utilisation dans l’un de nos modèles nous a permis d’obtenir des segmentations de modules<br />

neuronaux à contours complexes.<br />

4.7 Bibliographie<br />

[[5]] Amir Atiya. Unifying recurrent network trining algorithms. World congress on neural networks.<br />

Portland. Vol.3. p 585-588 (1993)<br />

[[7]] Alex Aussem (aaussem@eso.org). Training dynamical recurrent neural networks with the<br />

temporal recurrent back-propagation algorithm : application to the time series prediction and<br />

characterization.<br />

[[8]] Alex Aussem (aaussem@eso.org), Fion Murtagh, Marc Sarazin. Dynamical recurrent neural<br />

networks- towards environmental time series prediction.[[152]] Barak A. Pearlmutter.<br />

Dynamic Recurrent Neural Networks. Technical Report. CMU-CS-90-196. Carnegie Mellon<br />

University. Pittsburgh, PA 15213 (1990)<br />

[[30]] Thierry Catfolis. A method for improving the real-time recurrent learning algorithm. Neural<br />

Networks. p807-821. (1993).<br />

[[60]] J. Demongeot, O. Nérot, C. Jezequel. Mémoire de rappel dans les réseaux de neurones.<br />

[[77]] Lee Giles (giles@research.nj.nec.com), B.G. Horne, T.Lin. Learning a class of large finite state<br />

machines with a recurrent neural network. Technical report. UMIACS-TR-94-94. Institue for<br />

advanced computer studies. University of Maryland. (1994)<br />

APPRENTISSAGE DANS LES RESEAUX RECURRENTS 91

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!