Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
162<br />
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
réseau. Par exemple, pour ce même attracteur du neurone [96,12], dans l’intervalle<br />
du paramètre b où l’attracteur est limité à un cycle limite, le remplissage de ce cycle<br />
limite ne se réalise pas à la même vitesse.<br />
Ceci peut se voir sur la Figure<br />
7-20, où l’on a tracé 1000 points<br />
de l’attracteur atteint, après<br />
chaque modification de b : le<br />
cycle limite n’est pas toujours<br />
rempli. Nous pensons que ce<br />
phénomène est dû à des<br />
synchronismes locaux, qui<br />
empêche la dynamique de balayer<br />
tout son cycle.<br />
Ce type de résultat nous a<br />
encouragés dans le développement<br />
de notre modèle, car un<br />
Figure 7-20 : Variation du 'remplissage'<br />
tel comportement associe les<br />
propriétés de synchronisme localisé à des groupes neuronaux (modularité) à des<br />
propriétés de synchronisation neuronale en fonction de certains paramètres<br />
(synchronisme).<br />
7.2.3 Réseau Hopfieldien avec fonction de sortie<br />
Dans la totalité des réseaux étudiés précédemment, les clusters étaient statiques, c’està-dire<br />
localisés à une portion du réseau, sans que les neurones diffusent leur activité loin autour<br />
d’eux, comme cela semble être le cas dans les systèmes biologiques, où des neurones, quoique<br />
éloignés, peuvent être synchronisés, et où l’information diffuse dans le réseau. Une idée pour<br />
palier cette limite fut d’utiliser un principe proche de celui des périodes réfractaires. Le principe<br />
utilisé fut de compléter la notion de fonction de transfert en entrée du réseau, en en ajoutant une<br />
en sortie du réseau. Fonctionnellement, cet ajout n’apporte rien au modèle, puisque la fonction de<br />
transfert de sortie d’un neurone peut être convoluée avec la fonction de transfert d’entrée du<br />
neurone suivant, rendant ainsi équivalent ce type de modèle à celui étudié précédemment.<br />
Par contre, un tel modèle ajoute la possibilité de contrôler la composante réfractaire du<br />
neurone, et d’observer l’influence de ce paramètre sur la dynamique du réseau. Le principal<br />
avantage de ce modèle est de créer des ondes qui diffusent dans le réseau, en accroissant ainsi la<br />
taille des modules où diffuse le forçage du réseau. Les poids représentent alors un peu un<br />
paysage de diffusion pour les dynamiques engendrée par les neurones.<br />
1. Matrice de connexion isotrope excitatrice<br />
L’étude de ce type de réseau a commencé avec des modèles très simples, où les poids<br />
sont isotropes, c’est-à-dire égaux d’un neurone à l’autre.<br />
Nous avons pris un réseau de 8192 neurones, chaque neurone étant connecté à ses 8<br />
voisins. L’ajout d’une fonction de transfert en sortie du neurone, excitatrice à +1 pendant<br />
une itération, et inhibitrice à -0.10 pendant 10 itérations, permet de faire diffuser et de<br />
maintenir des oscillations autour de sites qui ont été forcés pendant une seule itération :<br />
l’information diffuse autour des sites de forçage, créant des modules autour de ces sites.<br />
TROISIEME PARTIE : RESULTATS