23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

8. ANTICIPATION DU FORÇAGE DES DYNAMIQUES<br />

La mémoire procède à un calcul musical, un calcul prophétique.<br />

Edgard Allan Poe. Eureka<br />

8.1 Introduction : Un algorithme on-line local ?<br />

Comme cela a été exposé précédemment au sujet des algorithmes d’apprentissage<br />

utilisés pour les réseaux récurrents, il suffirait que l’un d’entre eux soit on-line et local, pour qu’il<br />

soit biologiquement plausible. Nous avons donc essayé de modifier ces algorithmes, en faisant<br />

une approximation de localité dans RTRL, ou en limitant la mémorisation nécessaire à BPTT.<br />

Dans les deux cas, de tels algorithmes peuvent encore être efficaces pour des fonctions simples<br />

telles que des sinusoïdes. Ainsi, ces algorithmes simplifiés permettent des apprentissages dont les<br />

résultats sont similaires à ceux obtenus avec les algorithmes originaux. En effet, dans la plupart<br />

des articles traitant de ces algorithmes, seules des fonctions simples sont apprises, et les valident<br />

[[153]]. Nous avons essayé, sans succès, de faire apprendre une dynamique de Lorenz à un<br />

réseau de 64 neurones, entièrement interconnectés, grâce à un apprentissage de type RTRL On<br />

peut en conclure que l’algorithme original RTRL réalise des approximations qui limitent ses<br />

capacités, sans trop nuire à l’apprentissage de fonctions simples. A ce jour, peu de réseaux<br />

récurrents ont appris de façon satisfaisante des dynamiques complexes. A notre connaissance,<br />

nous pouvons citer [[207]], qui, grâce à un réseau multicouches récurrent à mémoire, a pu faire<br />

apprendre la géométrie de l’attracteur de Lorenz. Dans [[128]], un simple réseau à 16 neurones<br />

réussit à apprendre une fonction de Hénon, et dans [[132]], un réseau récurrent à fonction radiale<br />

reproduit une dynamique de Mackey-Glass. Dans chacun des cas, le temps d’apprentissage est<br />

très long (de l’ordre du million d’itérations), et le choix des paramètres d’apprentissage est fait de<br />

façon expérimentale : un observateur extérieur doit adapter les gains d’apprentissage afin de<br />

permettre un apprentissage satisfaisant.<br />

Les expériences portant sur l’apprentissage, réalisées dans cette thèse, ne permirent pas<br />

l’apprentissage de fonctions chaotiques, ce qui aurait permis de valider l’hypothèse d’un<br />

apprentissage par anticipation d’environnements complexes forçant les dynamiques du système,<br />

grâce à un algorithme on-line local, biologiquement plausible. A chaque fois, l’algorithme se<br />

limitait à anticiper des fonctions simples. Mais, comme ce fut le cas lors de l’expérimentation des<br />

dynamiques, des propriétés mises en évidence pendant l’apprentissage permettent de penser que<br />

certains phénomènes observables dans les systèmes réels peuvent provenir de lois similaires, et<br />

ont inspiré le développement du modèle théorique.<br />

ANTICIPATION DU FORÇAGE DES DYNAMIQUES 185

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!