23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

possible que le système réussisse à effectuer les associations suffisantes pour abaisser<br />

le degré aléatoire de ce site.<br />

Ainsi, selon ce principe, le système peut s’adapter de façon auto-organisée à la<br />

complexité d’un signal : les composantes déterministes anticipables, par la seule<br />

connaissance du passé du signal, sont anticipées, et les composantes aléatoires créent<br />

une perturbation résiduelle qui diffuse dans le réseau, le plus loin possible, en fonction<br />

de l’énergie fournie par cette perturbation. Cette diffusion de l’ensemble des<br />

perturbations induites, dues aux composantes aléatoires des signaux de forçage,<br />

peuvent permettre de mettre en évidence des associations qui améliorent l’anticipation<br />

des composantes aléatoires de certains des sites. De cette façon, la perturbation<br />

résiduelle, due à la non-prédictibilité du signal de l’un des sites, diminue, et le module<br />

autour de ce site de forçage peut fonctionnellement se spécialiser à l’anticipation de son<br />

signal de forçage.<br />

Il s’agit bien, dans ce cas, d’un ‘filtre de complexité’.<br />

Ce type d’approche élimine la nécessité d’algorithmes incrémentaux, où l’on ajoute<br />

des neurones au fur et à mesure de l’apprentissage du réseau. Selon l’approche<br />

présentée ici, il y a compétition des populations neuronales afin de recruter le maximum<br />

de neurones pour l’anticipation des perturbations à venir de chacun des sites de forçage.<br />

Comme nous le verrons par la suite, certains apprentissages hebbiens simples<br />

accroissent les perturbations induites par le signal de forçage en fonction de la distance<br />

au site de forçage. Nous avons pu vérifier que, plus un neurone est éloigné du site de<br />

forçage, plus son comportement est dépendant des petites variations du forçage, et donc<br />

plus il est utile à l’anticipation de ces petites variations (Figure 8-6, p.189). Ceci va dans<br />

le sens où les neurones distants ne peuvent créer que de petites variations de la<br />

dynamique d’un site éloigné, et où ces petites variations dépendent causalement<br />

d’autres sites de forçages associés.<br />

Ainsi, dans ce type d’architecture, à voisinage local, et à diffusion de l’erreur dans le<br />

réseau, il y a hiérarchisation fonctionnelle des neurones par rapport à leur distance des<br />

sites de forçage : les neurones proches d’un site encodent l’évolution déterministe simple<br />

(X(t)=f(X(t-1)), et y sont spécifiquement affecté, et les neurones plus éloignés encodent<br />

les variations plus difficilement prédictibles de ce site, en tenant plus compte des sites<br />

de forçage voisins, qui amènent une information supplémentaire pour l’anticipation de la<br />

dynamique du premier site.<br />

3. Pas de phase d’apprentissage<br />

Dans de nombreux algorithmes, le fonctionnement du système est séparable en deux<br />

phases : une phase d’apprentissage où l’on force le système à effectuer la tâche requise,<br />

et une phase d’utilisation où l’on laisse le système réaliser sa tâche. Bien souvent, le<br />

temps d’apprentissage est un facteur influent de la qualité de l’apprentissage réalisé : si<br />

l’apprentissage a duré trop longtemps, le système perd ses capacités de généralisation,<br />

et oublie les données précédemment apprises.<br />

Ceci est une limite pour l’apprentissage dans les modèles connexionnistes, et cette<br />

nécessité de phases d’apprentissage et de généralisation, est peu plausible<br />

UN MODELE CONNEXIONNISTE DE LA MEMOIRE 119

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!