23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

212<br />

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

Une autre étude a été limitée par la difficulté d’obtention de la règle d’apprentissage.<br />

Nous pensions en effet pouvoir valider l’hypothèse d’une mise en commun de<br />

l’information provenant des sites de forçage, en vue de l’amélioration de l’anticipation de<br />

chacun. N’ayant pas pu obtenir d’apprentissage fiable sur un seul site, cette<br />

généralisation s’est avérée impossible. Mais peut-être s’agit-il là d’une limite naturelle<br />

aux réseaux ?<br />

En effet, il est possible que le réseau cherche non pas à anticiper chaque site, mais à<br />

associer les évolutions de chacun des sites. Dans ce cas, il faudrait forcer N sites, et<br />

arrêter le forçage sur k sites, en cherchant à ce que la présentation des N-k sites<br />

‘rappelle’ au réseau les dynamiques sur les k sites non forcés. Les premières<br />

expériences réalisées sur ce sujet n’ont pas permis d’améliorer les résultats présentés<br />

dans cette thèse : les fonctions périodiques ne sont pas mieux apprises, et les fonctions<br />

chaotiques n’ont pas pu être rappelées (nous avons essayé l’apprentissage d’un Lorenz,<br />

en forçant 3 sites avec X(t), Y(t) et Z(t), et effectué le rappel par la présentation de X(t) et<br />

Y(t) ).<br />

Autre limite, dans la totalité des rappels effectués, nous avons conservé la phase, la<br />

fréquence, et l’intensité de celles-ci. Aucune expérience n’a pu être réalisée portant sur<br />

les capacités de généralisation du réseau : le réseau se resynchronise-t-il rapidement sur<br />

une sinusoïde apprise, si sa phase est changée ?<br />

Modèle à spike<br />

Les limites rencontrées durant la recherche de la règle d’apprentissage sont peut-être<br />

dues au choix du modèle neuronal. En effet, les modèles à fonction sigmoïde sont<br />

fonctionnellement équivalent à des modèles moyennant les fréquences neuronales de tir<br />

[[39]]. Comme nous mettons en avant les capacités de synchronisme du réseau, peutêtre<br />

serait-il préférable de s’orienter vers des modèles plus riches, de type ‘integrate and<br />

fire’ ? De tels modèles utilisent naturellement les synchronismes du réseau. Nous<br />

comptons donc nous intéresser aussi à ce type de modèle, en reprenant les expériences<br />

réalisées ici (dynamiques chaotiques, capacités de synchronisme, diffusions...).<br />

S’orienter vers une modularisation a priori<br />

Autre amélioration possible, il est envisageable d’étudier des réseaux possédant une<br />

modularisation a priori. Nous ne nous sommes pas intéressés à ceux-ci au départ, car<br />

cela rajoutait encore des paramètres au modèle. Cette étude porte donc plus sur les<br />

comportements d’un seul module, en vue d’une connexion de ces modules entre-eux<br />

ensuite.<br />

Par contre, il peut être intéressant de chercher à accentuer la modularisation du réseau,<br />

par exemple par des algorithmes de pruning. En effet, dans nos réseaux, les<br />

perturbations finissent par diffuser dans le réseau entier, en créant des dépendances<br />

entre neurones qui n’ont pas lieu d’être (par exemple si deux neurones sont<br />

indépendants). Dans ce cas, chaque neurone réalisera en permanence une erreur<br />

résiduelle par rapport à l’autre. Cette erreur, s’ajoutant, risque de faire diverger les poids.<br />

Un pruning pourrait éviter ce type de divergence, en éliminant les synapses des<br />

neurones dont les sorties semblent indépendantes.<br />

Vers un modèle de l’action<br />

TROISIEME PARTIE : RESULTATS

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!