23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

semblerait pourtant que de tels simulations pourraient permettre de meilleures<br />

quantifications des synchronismes de populations neuronales.<br />

L’équation des sorties du neurone suivra donc une équation du type :<br />

x ( t+ dt) = ( - dt) x ( t) + dt. F( X ( t), X ( t),..., X ( t))<br />

i 1 i 1 2<br />

N<br />

2. Modèle à mémoire en entrée et sortie<br />

Dans le but d’étudier les capacités de synchronisme du réseau, nous nous sommes<br />

rapidement intéressés à des modèles de neurones à mémoire. De nombreuses études<br />

confirment en effet l’importance des délais dans les capacités de synchronisme et<br />

d’encodage par les dynamiques de ce type de modèle. De plus, des architectures feedforward<br />

de neurones à mémoire peuvent apprendre des dynamiques complexes, par<br />

exemple, celle d’un système de Lorenz ([207]). Il est remarquable, dans cette étude, que<br />

le réseau, après apprentissage, a mémorisé la topologie générale de l’attracteur. En<br />

effet, si on laisse évoluer ce réseau en régime libre, à partir d’un point de l’attracteur de<br />

Lorenz, la dynamique suivie par le réseau, et celle suivie par les équations, s’écartent,<br />

en vérifiant ainsi, la sensibilité aux conditions initiales du l’attracteur appris par le réseau.<br />

Par contre, en traçant l’attracteur atteint par les dynamiques du réseau, l’attracteur<br />

atteint est similaire à l’attracteur de Lorenz.<br />

Ainsi, ce type de réseau, à mémoire, possède la capacité d’apprendre la structure et la<br />

topologie de l’attracteur d’une dynamique qui lui a été présentée.<br />

Or les architectures feed-forward sont des cas particuliers des architectures à récurrence<br />

locale, que nous utilisons ici. Ce résultat nous permet donc de savoir que nos réseaux<br />

possèdent la capacité d’apprendre la structure d’un attracteur de Lorenz, et qu‘il existe<br />

donc une solution aux apprentissages essayés dans le réseau.<br />

Ce modèle donne donc, pour le calcul de la sortie du neurone :<br />

N M E æ m ö<br />

hi() t = çåwij<br />

xj( t-m) ÷<br />

è<br />

ø<br />

å<br />

j=<br />

1 m=<br />

0<br />

x ( t+ dt= ) ( 1- dt) x () t + dt. s(<br />

h ()) t<br />

i i i<br />

Dans le cas où le neurone n’est pas à différences finies, cette mémoire à été généralisée<br />

au sorties du neurones. En effet, il est possible de voir l’effet de la mémoire en entrée<br />

comme une convolution d’un vecteur Wij avec Xj. Cette convolution peut être généralisée<br />

en sortie, où les Xi sont convolués avec un vecteur Si. Ce qui amène :<br />

M S<br />

å<br />

m<br />

x ( t+ 1)<br />

= S s(<br />

h( t-m)) i i<br />

m=<br />

0<br />

Cette mémoire en sortie peut être interprétée en termes de période réfractaire. Ainsi,<br />

0 MS> m><br />

0 1<br />

dans le cas généralement étudié dans cette thèse, où " , = 1et " , =- , si<br />

la sortie s( ( ))<br />

h t<br />

i<br />

sature à 1 pour t>tS, alors xi(t=tS+1)=1, xi(t=tS+2)=1-1/m... De cette<br />

façon, xi(t>tS) tendra peu à peu vers 0, en évitant la saturation du neurone. Ce<br />

phénomène peut s’apparenter à une fatigue du neurone, correspondant à une période<br />

réfractaire.<br />

i<br />

UN MODELE CONNEXIONNISTE DE LA MEMOIRE 121<br />

iS i<br />

iS i<br />

MS

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!