23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

sortie, peut le faire, mais dès lors, l’apprentissage devient d’une trop grande complexité.<br />

Il est impossible de connaître le gradient de l’erreur selon chacun des paramètres.<br />

Il reste donc de nombreux problèmes à résoudre, dont on peut orienter la résolution<br />

selon deux axes. Soit il est nécessaire de réaliser un prétraitement de l’information<br />

extérieure, afin de la ramener à un encodage réalisable dans le réseau, soit il faut<br />

améliorer le réseau afin de rendre les dynamiques de l’environnement anticipables sans<br />

pré-traitement.<br />

Faire découler la loi d’apprentissage de la fonction d’autonomie<br />

Dans toute la thèse, nous avons admis que le stade où le système anticipe son<br />

environnement, est celui où son autonomie est maximisée, car à ce stade, le système<br />

simule en interne l’évolution de l’environnement, et l’influence des dynamiques externes<br />

est effacée. De façon plus rigoureuse, il serait nécessaire de justifier cette équivalence,<br />

afin de permettre la détermination exacte d’une règle d’apprentissage maximisant<br />

l’autonomie du système. Ceci pourrait être une voie de recherche, complétant l’approche<br />

où les lois dérivent d’une minimisation de l’erreur en sortie du système.<br />

Changer le paramètre support d’information<br />

Dans tous les cas étudiés, nous avons considéré que le paramètre qui supporte<br />

l’information du réseau était l’intensité de sa sortie. Cette hypothèse, contraire aux<br />

connaissances neurophysiologiques actuelles, a peut être été un facteur limitant. Ainsi, il<br />

pourrait être intéréssant de chercher à faire porter l’information par les délais inter-spike.<br />

Ceci est une voie de recherche potentielle, en accord avec l’utilisation de réseaux de<br />

type integrate and fire.<br />

Apprentissage on-line local de fonctions complexes.<br />

Les seules fonctions qui ont pu être apprises par les règles d’apprentissage proposées<br />

sont simples, assimilables à des sinusoïdes. Dès que ces fonctions deviennent plus<br />

complexes, le réseau, dans les meilleurs cas, apprend une fonction périodique ‘proche’<br />

du signal forçant. Dans le cas de l’apprentissage de fonctions chaotiques, les réseaux,<br />

après une phase de perturbation résiduelle due au forçage, se stabilisent sur un cycle<br />

limite. Faut-il alors penser que les règles d’apprentissage proposées sont limitées à<br />

l’apprentissage d’une période et d’une phase, et ne peuvent réaliser un apprentissage<br />

par-coeur que dans le cas d’une sinusoïde ? Dans ce cas, il serait souhaitable de réaliser<br />

une sur-couche, transformant l’information extérieure en un ensemble de fonctions<br />

périodiques.<br />

Associer synchronisme et anticipation<br />

De plus, nous avons postulé que l’apprentissage des dynamiques forçantes tend à<br />

synchroniser les dynamiques de population neuronale. Ce résultat n’a pas été obtenu de<br />

façon explicite, car nous pensions le chercher après l’obtention d’une règle<br />

d’apprentissage valide. Les difficultés rencontrées pendant la recherche de cette règle<br />

ne nous ont pas permis de passer à cette phase.<br />

Peut-être alors faudrait-il chercher explicitement, dans la règle d’apprentissage, à<br />

maximiser les synchronismes locaux, en vue de l’anticipation du signal forçant ? Alors<br />

l’utilisation des catégories isochrones du réseau pourrait être intéressante.<br />

Capacités de généralisation<br />

CONCLUSION GENERALE ET PERSPECTIVES 211

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!