Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
sortie, peut le faire, mais dès lors, l’apprentissage devient d’une trop grande complexité.<br />
Il est impossible de connaître le gradient de l’erreur selon chacun des paramètres.<br />
Il reste donc de nombreux problèmes à résoudre, dont on peut orienter la résolution<br />
selon deux axes. Soit il est nécessaire de réaliser un prétraitement de l’information<br />
extérieure, afin de la ramener à un encodage réalisable dans le réseau, soit il faut<br />
améliorer le réseau afin de rendre les dynamiques de l’environnement anticipables sans<br />
pré-traitement.<br />
Faire découler la loi d’apprentissage de la fonction d’autonomie<br />
Dans toute la thèse, nous avons admis que le stade où le système anticipe son<br />
environnement, est celui où son autonomie est maximisée, car à ce stade, le système<br />
simule en interne l’évolution de l’environnement, et l’influence des dynamiques externes<br />
est effacée. De façon plus rigoureuse, il serait nécessaire de justifier cette équivalence,<br />
afin de permettre la détermination exacte d’une règle d’apprentissage maximisant<br />
l’autonomie du système. Ceci pourrait être une voie de recherche, complétant l’approche<br />
où les lois dérivent d’une minimisation de l’erreur en sortie du système.<br />
Changer le paramètre support d’information<br />
Dans tous les cas étudiés, nous avons considéré que le paramètre qui supporte<br />
l’information du réseau était l’intensité de sa sortie. Cette hypothèse, contraire aux<br />
connaissances neurophysiologiques actuelles, a peut être été un facteur limitant. Ainsi, il<br />
pourrait être intéréssant de chercher à faire porter l’information par les délais inter-spike.<br />
Ceci est une voie de recherche potentielle, en accord avec l’utilisation de réseaux de<br />
type integrate and fire.<br />
Apprentissage on-line local de fonctions complexes.<br />
Les seules fonctions qui ont pu être apprises par les règles d’apprentissage proposées<br />
sont simples, assimilables à des sinusoïdes. Dès que ces fonctions deviennent plus<br />
complexes, le réseau, dans les meilleurs cas, apprend une fonction périodique ‘proche’<br />
du signal forçant. Dans le cas de l’apprentissage de fonctions chaotiques, les réseaux,<br />
après une phase de perturbation résiduelle due au forçage, se stabilisent sur un cycle<br />
limite. Faut-il alors penser que les règles d’apprentissage proposées sont limitées à<br />
l’apprentissage d’une période et d’une phase, et ne peuvent réaliser un apprentissage<br />
par-coeur que dans le cas d’une sinusoïde ? Dans ce cas, il serait souhaitable de réaliser<br />
une sur-couche, transformant l’information extérieure en un ensemble de fonctions<br />
périodiques.<br />
Associer synchronisme et anticipation<br />
De plus, nous avons postulé que l’apprentissage des dynamiques forçantes tend à<br />
synchroniser les dynamiques de population neuronale. Ce résultat n’a pas été obtenu de<br />
façon explicite, car nous pensions le chercher après l’obtention d’une règle<br />
d’apprentissage valide. Les difficultés rencontrées pendant la recherche de cette règle<br />
ne nous ont pas permis de passer à cette phase.<br />
Peut-être alors faudrait-il chercher explicitement, dans la règle d’apprentissage, à<br />
maximiser les synchronismes locaux, en vue de l’anticipation du signal forçant ? Alors<br />
l’utilisation des catégories isochrones du réseau pourrait être intéressante.<br />
Capacités de généralisation<br />
CONCLUSION GENERALE ET PERSPECTIVES 211