Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
et inhibitrices. Les conditions initiales du réseau ont été choisies aléatoirement, puis<br />
nous avons laissé évoluer le réseau librement, sans perturbation extérieure.<br />
A chaque fois qu’un nouveau modèle sera présenté, nous tenterons de synthétiser les<br />
équations utilisées dans un même tableau, donnant les lois et les paramètres des<br />
entrées et de l’évolution du réseau. Les trois colonnes à gauche du tableau indiquent les<br />
étapes du réseau : dans le modèle présenté ci-dessous, les entrées ont été présentées<br />
au réseau avant son évolution, sous la forme des conditions initiales du réseau, puis le<br />
réseau a évolué en régime libre, sans entrées. Ce principe de présentation permettra de<br />
séparer clairement les algorithmes d’apprentissage en ligne, de ce qui ne le sont pas,<br />
ainsi que les forçages temporaires ou permanents, par exemple. Dans l’établissement<br />
des conditions initiales des paramètres du réseau, une fonction sera souvent utilisée,<br />
notée Ak, qui prend en entrée un ensemble d’intervalles disjoints, et qui renvoie une<br />
variable aléatoire, équiprobable, pour chaque intervalle et pour chaque paramètre k.<br />
Ainsi, par exemple, Xij=Aij[-1;[a;b]) signifie que p(Xij=-1)=1/2, et que<br />
1<br />
p( Xij Î [ ab ; ], 0£ a< b£<br />
1)<br />
= . Les lois statistiques utilisées dans cette thèse pour<br />
2(<br />
b-a) les variables aléatoires sont des lois uniformes.<br />
TYPE LOIS PARAMETRES<br />
Entrées x ( 0) = A ([ -11<br />
; ])<br />
i i<br />
N<br />
i = å ij j<br />
j=<br />
1<br />
Evolution ht () w x () t<br />
a.Vers une activité locale<br />
Dans ces modèles, l’activité est<br />
restreinte à de petites zones du<br />
réseau. Ces zones d’activité sont<br />
statiques, c’est-à-dire qu’elles ne se<br />
déplacent pas dans le réseau : de<br />
petits groupes fixes du réseau ont une<br />
activité dynamique. Ce résultat peut<br />
être visualisé sur la Figure 7-1 où est<br />
tracée l’activité de la totalité du<br />
réseau.<br />
e<br />
xi() t =<br />
1+<br />
e<br />
b<br />
- h() t<br />
b<br />
- h() t<br />
DYNAMIQUES OBSERVEES ET EXPERIMENTEES 145<br />
V i<br />
V i<br />
w ij ij<br />
= A ([ -11<br />
; ])<br />
N=8192<br />
b=252<br />
Cette fonction a surtout un rôle<br />
d’indice pour la recherche des zones<br />
de forte activité : dans la Figure 7-1,<br />
nous avons représenté la variation des<br />
états des neurones pendant une seule<br />
itération, et renormé l’ensemble afin Figure 7-1 : Activité du réseau<br />
V=8