Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
212<br />
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
Une autre étude a été limitée par la difficulté d’obtention de la règle d’apprentissage.<br />
Nous pensions en effet pouvoir valider l’hypothèse d’une mise en commun de<br />
l’information provenant des sites de forçage, en vue de l’amélioration de l’anticipation de<br />
chacun. N’ayant pas pu obtenir d’apprentissage fiable sur un seul site, cette<br />
généralisation s’est avérée impossible. Mais peut-être s’agit-il là d’une limite naturelle<br />
aux réseaux ?<br />
En effet, il est possible que le réseau cherche non pas à anticiper chaque site, mais à<br />
associer les évolutions de chacun des sites. Dans ce cas, il faudrait forcer N sites, et<br />
arrêter le forçage sur k sites, en cherchant à ce que la présentation des N-k sites<br />
‘rappelle’ au réseau les dynamiques sur les k sites non forcés. Les premières<br />
expériences réalisées sur ce sujet n’ont pas permis d’améliorer les résultats présentés<br />
dans cette thèse : les fonctions périodiques ne sont pas mieux apprises, et les fonctions<br />
chaotiques n’ont pas pu être rappelées (nous avons essayé l’apprentissage d’un Lorenz,<br />
en forçant 3 sites avec X(t), Y(t) et Z(t), et effectué le rappel par la présentation de X(t) et<br />
Y(t) ).<br />
Autre limite, dans la totalité des rappels effectués, nous avons conservé la phase, la<br />
fréquence, et l’intensité de celles-ci. Aucune expérience n’a pu être réalisée portant sur<br />
les capacités de généralisation du réseau : le réseau se resynchronise-t-il rapidement sur<br />
une sinusoïde apprise, si sa phase est changée ?<br />
Modèle à spike<br />
Les limites rencontrées durant la recherche de la règle d’apprentissage sont peut-être<br />
dues au choix du modèle neuronal. En effet, les modèles à fonction sigmoïde sont<br />
fonctionnellement équivalent à des modèles moyennant les fréquences neuronales de tir<br />
[[39]]. Comme nous mettons en avant les capacités de synchronisme du réseau, peutêtre<br />
serait-il préférable de s’orienter vers des modèles plus riches, de type ‘integrate and<br />
fire’ ? De tels modèles utilisent naturellement les synchronismes du réseau. Nous<br />
comptons donc nous intéresser aussi à ce type de modèle, en reprenant les expériences<br />
réalisées ici (dynamiques chaotiques, capacités de synchronisme, diffusions...).<br />
S’orienter vers une modularisation a priori<br />
Autre amélioration possible, il est envisageable d’étudier des réseaux possédant une<br />
modularisation a priori. Nous ne nous sommes pas intéressés à ceux-ci au départ, car<br />
cela rajoutait encore des paramètres au modèle. Cette étude porte donc plus sur les<br />
comportements d’un seul module, en vue d’une connexion de ces modules entre-eux<br />
ensuite.<br />
Par contre, il peut être intéressant de chercher à accentuer la modularisation du réseau,<br />
par exemple par des algorithmes de pruning. En effet, dans nos réseaux, les<br />
perturbations finissent par diffuser dans le réseau entier, en créant des dépendances<br />
entre neurones qui n’ont pas lieu d’être (par exemple si deux neurones sont<br />
indépendants). Dans ce cas, chaque neurone réalisera en permanence une erreur<br />
résiduelle par rapport à l’autre. Cette erreur, s’ajoutant, risque de faire diverger les poids.<br />
Un pruning pourrait éviter ce type de divergence, en éliminant les synapses des<br />
neurones dont les sorties semblent indépendantes.<br />
Vers un modèle de l’action<br />
TROISIEME PARTIE : RESULTATS