23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

æ x1( t-Dt) x2( t-Dt) ... xN( t-Dt) ö<br />

ç<br />

÷<br />

x ( t . t) x ( t . t) ... xN( t . t)<br />

xi() t = F<br />

ç 1 -2 D 2 -2 D -2<br />

D ÷<br />

ç M M M ÷<br />

ç<br />

÷<br />

èx<br />

( t- M . Dt) x ( t- M . Dt) ... x ( t- M . Dt)<br />

ø<br />

1 i 2 i N i<br />

Dans ce cas, Mi représente la mémoire de chaque neurone. Le cas le plus étudié de ce<br />

type de modèle est celui où la prise en compte du passé du réseau se fait grâce à une<br />

fonction de convolution entre le vecteur poids et le vecteur état :<br />

N<br />

M j<br />

æ ö<br />

m<br />

xi() t = sçåWij<br />

ÄXj÷<br />

avec Wij Ä X j = åwij<br />

xj( t-m. Dt)<br />

è j=<br />

1 ø<br />

m=<br />

1<br />

m<br />

Les paramètres wi sont parfois ramenés à des noyaux (kernel), ce qui permet de<br />

minimiser le nombre de paramètres à mémoriser par neurone [[139]][[202]]. Ainsi, on<br />

peut avoir :<br />

m<br />

w = d(<br />

m)<br />

w<br />

w<br />

ij<br />

m<br />

ij<br />

m<br />

ij<br />

= ( m )<br />

ij<br />

m<br />

= ( 1-m<br />

).( m )<br />

ij ij<br />

Cette méthode sera appliquée lors de l’implémentation de ce modèle dans l’outil<br />

informatique développé (6.3 Le logiciel de modélisation, p.129). Elle permet en effet,<br />

m<br />

moyennant un temps de calcul un peu plus long (puisqu’il faut calculer les wi à chaque<br />

modification de l’un des paramètres), de réaliser un gain considérable en mémoire. Cela<br />

permet de simuler un plus grand nombre de neurones, et d’atteindre dans notre cas des<br />

réseaux qui comportent 262144 neurones à mémoire.<br />

D’autre part, ce type de modèle neuronal a permis à un réseau feed-forward, grâce à un<br />

apprentissage similaire à la rétropropagation du gradient, de produire une dynamique de<br />

Lorenz. Ce résultat [[207]] est très encourageant pour notre propos, car il prouve qu’un<br />

réseau de neurones à mémoire possède la capacité de produire des dynamiques<br />

chaotiques.<br />

4. Modèles réfractaires<br />

L’un des paramètres longtemps négligés dans les modèles connexionnistes, et qui<br />

pourtant est caractéristique des neurones biologiques est la période réfractaire. Après<br />

avoir émis un spike, et durant cette période, le neurone est forcé à zéro. Ce paramètre<br />

peut être facilement simulé en prenant en considération l’âge du neurone, noté Ri, et en<br />

R<br />

A<br />

forçant le neurone à 0 pour R < R < R , Ri étant réinitialisé à 0 dès que le neurone<br />

passe de 0 à 1 (Figure 3-2).<br />

i<br />

i i<br />

Il existe peu de résultats démontrant l’intérêt d’une période réfractaire, et sa réelle<br />

influence sur la dynamique des neurones. Pourtant, l’utilisation de ce paramètre peut<br />

permettre de faire apprendre des associations entrées-sorties non linéairement<br />

séparables, ce qui était l’une des limites des réseaux de type perceptron monocouche.<br />

MODELES CONNEXIONNISTES DYNAMIQUES 67<br />

m

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!