Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
8. ANTICIPATION DU FORÇAGE DES DYNAMIQUES<br />
La mémoire procède à un calcul musical, un calcul prophétique.<br />
Edgard Allan Poe. Eureka<br />
8.1 Introduction : Un algorithme on-line local ?<br />
Comme cela a été exposé précédemment au sujet des algorithmes d’apprentissage<br />
utilisés pour les réseaux récurrents, il suffirait que l’un d’entre eux soit on-line et local, pour qu’il<br />
soit biologiquement plausible. Nous avons donc essayé de modifier ces algorithmes, en faisant<br />
une approximation de localité dans RTRL, ou en limitant la mémorisation nécessaire à BPTT.<br />
Dans les deux cas, de tels algorithmes peuvent encore être efficaces pour des fonctions simples<br />
telles que des sinusoïdes. Ainsi, ces algorithmes simplifiés permettent des apprentissages dont les<br />
résultats sont similaires à ceux obtenus avec les algorithmes originaux. En effet, dans la plupart<br />
des articles traitant de ces algorithmes, seules des fonctions simples sont apprises, et les valident<br />
[[153]]. Nous avons essayé, sans succès, de faire apprendre une dynamique de Lorenz à un<br />
réseau de 64 neurones, entièrement interconnectés, grâce à un apprentissage de type RTRL On<br />
peut en conclure que l’algorithme original RTRL réalise des approximations qui limitent ses<br />
capacités, sans trop nuire à l’apprentissage de fonctions simples. A ce jour, peu de réseaux<br />
récurrents ont appris de façon satisfaisante des dynamiques complexes. A notre connaissance,<br />
nous pouvons citer [[207]], qui, grâce à un réseau multicouches récurrent à mémoire, a pu faire<br />
apprendre la géométrie de l’attracteur de Lorenz. Dans [[128]], un simple réseau à 16 neurones<br />
réussit à apprendre une fonction de Hénon, et dans [[132]], un réseau récurrent à fonction radiale<br />
reproduit une dynamique de Mackey-Glass. Dans chacun des cas, le temps d’apprentissage est<br />
très long (de l’ordre du million d’itérations), et le choix des paramètres d’apprentissage est fait de<br />
façon expérimentale : un observateur extérieur doit adapter les gains d’apprentissage afin de<br />
permettre un apprentissage satisfaisant.<br />
Les expériences portant sur l’apprentissage, réalisées dans cette thèse, ne permirent pas<br />
l’apprentissage de fonctions chaotiques, ce qui aurait permis de valider l’hypothèse d’un<br />
apprentissage par anticipation d’environnements complexes forçant les dynamiques du système,<br />
grâce à un algorithme on-line local, biologiquement plausible. A chaque fois, l’algorithme se<br />
limitait à anticiper des fonctions simples. Mais, comme ce fut le cas lors de l’expérimentation des<br />
dynamiques, des propriétés mises en évidence pendant l’apprentissage permettent de penser que<br />
certains phénomènes observables dans les systèmes réels peuvent provenir de lois similaires, et<br />
ont inspiré le développement du modèle théorique.<br />
ANTICIPATION DU FORÇAGE DES DYNAMIQUES 185