Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
74<br />
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
modifier la dynamique de tels réseaux, soit par des modifications internes (évolution des poids<br />
synaptiques), ou externes (entrées du réseau, via la modification des seuils q i ).<br />
Cette dernière interprétation est à l’origine de notre modèle, où les entrées extérieures<br />
forcent les xi, modifiant les dynamiques du réseau autour des sites de forçage. Après s’être limité<br />
à l’étude des dynamiques de tels réseaux, ce travail ouvre la voie à l’étude de l’apprentissage<br />
dans les réseaux à dynamiques chaotiques. Il conclut en effet par la nécessité d’étudier les<br />
mécanismes probables d’encodage par les dynamiques chaotiques, et la faisabilité d’une théorie<br />
de l’information prenant comme support les attracteurs des dynamiques chaotiques.<br />
3.3.4 Doyon, Cessac, Quoy<br />
Le réseau développé s’inspire des précédents, et correspond à un réseau hopfieldien, à<br />
connexions non-symétriques, à connectivité diluée 27 :<br />
x ( t+ 1)<br />
= sa ( w x () t -q)<br />
i ij j i<br />
j=<br />
1<br />
Et où sont étudiées les dynamiques moyennes du réseau :<br />
PREMIERE PARTIE : ANALYSE<br />
k<br />
å<br />
net<br />
N<br />
Nå i=<br />
1<br />
i<br />
1 m () t = x () t<br />
Cette architecture simple est biologiquement plausible, et conforte les hypothèses de<br />
Freeman [[180]], qui suppose qu’il y a diminution de la dimension fractale des dynamiques<br />
cérébrales, lors de la reconnaissance. Les résultats de Doyon et Quoy [[68]][[161]] démontrent<br />
rigoureusement qu’un simple apprentissage hebbien dans ce type de réseau permet de faire<br />
diminuer la dimension fractale de l’activité moyenne du réseau lors de l’apprentissage d’une<br />
entrée apprise.<br />
Ce résultat est d’un grand intérêt car il démontre qu’un apprentissage hebbien, inspiré du<br />
biologique, appliqué à un réseau artificiel, permet de retrouver des phénomènes observés dans<br />
les réseaux biologiques, à savoir la diminution de la dimension fractale lors de la reconnaissance.<br />
Ce résultat est donc très encourageant quant à la faisabilité d’une modélisation des capacités de<br />
mémoire des systèmes cognitifs biologiques.<br />
3.3.5 Babloyantz Destexthe<br />
Les réseaux de neurones à délais présentés dans [[9]], s’inspirent directement de<br />
modèles neurophysiologiques, et sont hétérogènes, composés de deux types de neurones : les<br />
neurones excitateurs x, et les neurones inhibiteurs y. Il existe donc quatre types de connexions<br />
synaptiques (E-E (1),E-I (2),I-E (3),I-I (4)), qui se retrouvent dans les équations d’évolution du<br />
modèle :<br />
27 Ce qui signifie que deux neurones quelconques du réseau sont reliés, selon une probabilité qui donne le<br />
taux de dilution du réseau.