23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

Il serait donc nécessaire de valider les règles d’apprentissage dans les réseaux récurrents<br />

par des fonctions plus complexes, d’ordre plus élevé. Dans les recherches actuellement menées,<br />

peu de résultats probants ont été obtenus. Un attracteur de Lorenz a été appris par un réseau<br />

multi-couches à mémoire [[207]], un attracteur de Hénon a été appris par un réseau totalement<br />

interconnecté [[128]], et une dynamique de Mackey-Glass dans un réseau récurrent [[132]]. Dans<br />

les trois cas, il a été nécessaire de déterminer à la main les paramètres de l’apprentissage : Wan<br />

reconnaît avoir testé de nombreux réseaux, et modifié les paramètres en cours d’apprentissage,<br />

Mak a utilisé des valeurs très faibles des paramètres, et obtient son résultat après 2,6 millions<br />

d’itérations. Et Mead a tracé les courbes d’erreurs en fonction de chaque paramètre, pour obtenir a<br />

posteriori la configuration paramétrique optimale.<br />

Dans notre cas, la recherche d’un algorithme local, on-line, non supervisé, nous empêche<br />

de suivre les choix de ces auteurs : il n’est pas envisageable de devoir régler les paramètres<br />

extérieurs de l’extérieur. Ainsi, nous cherchons un algorithme dérivé des règles de Hebb, mais qui<br />

puisse apprendre un comportement dynamique, et dérivé des règles à base de descente de<br />

gradient, mais local et on-line. Seuls des résultats intermédiaires ont pu être obtenus.<br />

Nous avons montré que des règles hebbiennes réalisent la diffusion dans le réseau des<br />

perturbations, qui s’organisent via l’apprentissage. Ceci était nécessaire dans un modèle devant<br />

vérifier des capacités de modularisation, et d’association, primordiales dans le modèle théorique<br />

que nous proposons.<br />

De plus, les algorithmes à descente de gradient, rendus artificiellement on-line et local,<br />

permettent au réseau d’apprendre des fonctions simples aussi bien que les algorithmes dont ils<br />

dérivent. Nous avons montré, que le forçage pouvait complexifier les dynamiques individuelles<br />

d’un réseau, et que, dans un cas particulier d’apprentissage, le réseau cherchait à suivre cette<br />

dynamique forçante, tout en modifiant l’attracteur de chaque dynamique libre. Ce résultat est en<br />

accord avec les données neurophysiologiques qui montrent qu’il y a complexification des<br />

dynamiques lors de la présentation d’un percept non appris, et qu’il y a simplification lors de la<br />

reconnaissance d’un percept appris. Malheureusement, le seul apprentissage qui a permis ce<br />

résultat est peu plausible, car, bien que on-line et local, il suppose une duplication du réseau.<br />

ANTICIPATION DU FORÇAGE DES DYNAMIQUES 205

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!