23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

et inhibitrices. Les conditions initiales du réseau ont été choisies aléatoirement, puis<br />

nous avons laissé évoluer le réseau librement, sans perturbation extérieure.<br />

A chaque fois qu’un nouveau modèle sera présenté, nous tenterons de synthétiser les<br />

équations utilisées dans un même tableau, donnant les lois et les paramètres des<br />

entrées et de l’évolution du réseau. Les trois colonnes à gauche du tableau indiquent les<br />

étapes du réseau : dans le modèle présenté ci-dessous, les entrées ont été présentées<br />

au réseau avant son évolution, sous la forme des conditions initiales du réseau, puis le<br />

réseau a évolué en régime libre, sans entrées. Ce principe de présentation permettra de<br />

séparer clairement les algorithmes d’apprentissage en ligne, de ce qui ne le sont pas,<br />

ainsi que les forçages temporaires ou permanents, par exemple. Dans l’établissement<br />

des conditions initiales des paramètres du réseau, une fonction sera souvent utilisée,<br />

notée Ak, qui prend en entrée un ensemble d’intervalles disjoints, et qui renvoie une<br />

variable aléatoire, équiprobable, pour chaque intervalle et pour chaque paramètre k.<br />

Ainsi, par exemple, Xij=Aij[-1;[a;b]) signifie que p(Xij=-1)=1/2, et que<br />

1<br />

p( Xij Î [ ab ; ], 0£ a< b£<br />

1)<br />

= . Les lois statistiques utilisées dans cette thèse pour<br />

2(<br />

b-a) les variables aléatoires sont des lois uniformes.<br />

TYPE LOIS PARAMETRES<br />

Entrées x ( 0) = A ([ -11<br />

; ])<br />

i i<br />

N<br />

i = å ij j<br />

j=<br />

1<br />

Evolution ht () w x () t<br />

a.Vers une activité locale<br />

Dans ces modèles, l’activité est<br />

restreinte à de petites zones du<br />

réseau. Ces zones d’activité sont<br />

statiques, c’est-à-dire qu’elles ne se<br />

déplacent pas dans le réseau : de<br />

petits groupes fixes du réseau ont une<br />

activité dynamique. Ce résultat peut<br />

être visualisé sur la Figure 7-1 où est<br />

tracée l’activité de la totalité du<br />

réseau.<br />

e<br />

xi() t =<br />

1+<br />

e<br />

b<br />

- h() t<br />

b<br />

- h() t<br />

DYNAMIQUES OBSERVEES ET EXPERIMENTEES 145<br />

V i<br />

V i<br />

w ij ij<br />

= A ([ -11<br />

; ])<br />

N=8192<br />

b=252<br />

Cette fonction a surtout un rôle<br />

d’indice pour la recherche des zones<br />

de forte activité : dans la Figure 7-1,<br />

nous avons représenté la variation des<br />

états des neurones pendant une seule<br />

itération, et renormé l’ensemble afin Figure 7-1 : Activité du réseau<br />

V=8

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!