23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

74<br />

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

modifier la dynamique de tels réseaux, soit par des modifications internes (évolution des poids<br />

synaptiques), ou externes (entrées du réseau, via la modification des seuils q i ).<br />

Cette dernière interprétation est à l’origine de notre modèle, où les entrées extérieures<br />

forcent les xi, modifiant les dynamiques du réseau autour des sites de forçage. Après s’être limité<br />

à l’étude des dynamiques de tels réseaux, ce travail ouvre la voie à l’étude de l’apprentissage<br />

dans les réseaux à dynamiques chaotiques. Il conclut en effet par la nécessité d’étudier les<br />

mécanismes probables d’encodage par les dynamiques chaotiques, et la faisabilité d’une théorie<br />

de l’information prenant comme support les attracteurs des dynamiques chaotiques.<br />

3.3.4 Doyon, Cessac, Quoy<br />

Le réseau développé s’inspire des précédents, et correspond à un réseau hopfieldien, à<br />

connexions non-symétriques, à connectivité diluée 27 :<br />

x ( t+ 1)<br />

= sa ( w x () t -q)<br />

i ij j i<br />

j=<br />

1<br />

Et où sont étudiées les dynamiques moyennes du réseau :<br />

PREMIERE PARTIE : ANALYSE<br />

k<br />

å<br />

net<br />

N<br />

Nå i=<br />

1<br />

i<br />

1 m () t = x () t<br />

Cette architecture simple est biologiquement plausible, et conforte les hypothèses de<br />

Freeman [[180]], qui suppose qu’il y a diminution de la dimension fractale des dynamiques<br />

cérébrales, lors de la reconnaissance. Les résultats de Doyon et Quoy [[68]][[161]] démontrent<br />

rigoureusement qu’un simple apprentissage hebbien dans ce type de réseau permet de faire<br />

diminuer la dimension fractale de l’activité moyenne du réseau lors de l’apprentissage d’une<br />

entrée apprise.<br />

Ce résultat est d’un grand intérêt car il démontre qu’un apprentissage hebbien, inspiré du<br />

biologique, appliqué à un réseau artificiel, permet de retrouver des phénomènes observés dans<br />

les réseaux biologiques, à savoir la diminution de la dimension fractale lors de la reconnaissance.<br />

Ce résultat est donc très encourageant quant à la faisabilité d’une modélisation des capacités de<br />

mémoire des systèmes cognitifs biologiques.<br />

3.3.5 Babloyantz Destexthe<br />

Les réseaux de neurones à délais présentés dans [[9]], s’inspirent directement de<br />

modèles neurophysiologiques, et sont hétérogènes, composés de deux types de neurones : les<br />

neurones excitateurs x, et les neurones inhibiteurs y. Il existe donc quatre types de connexions<br />

synaptiques (E-E (1),E-I (2),I-E (3),I-I (4)), qui se retrouvent dans les équations d’évolution du<br />

modèle :<br />

27 Ce qui signifie que deux neurones quelconques du réseau sont reliés, selon une probabilité qui donne le<br />

taux de dilution du réseau.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!