Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
134<br />
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
3. Paramétrisation en temps réel<br />
Figure 6-8 : Accès aux paramètres du neurone<br />
La fenêtre Paramètres (à droite sur la Figure 6-8), liste l’ensemble des paramètres du<br />
modèle de neurone choisi. Ainsi, par exemple, si l’utilisateur utilise pour le vecteur poids<br />
W, le kernel ()66:<br />
m<br />
wij m<br />
ij ij<br />
= ( 1-m ) m ,<br />
seul le paramètre m ij sera listé et représenté dans la liste des paramètres de la fonction<br />
H. Ce principe permet de tester différents modèles généraux, et l’influence de chacun de<br />
leurs paramètres. D’autre part, ceci économise de la mémoire, moyennant un temps de<br />
calcul plus long, lorsqu’un seul processeur simule plusieurs neurones : la mémoire est<br />
allouée pour un seul vecteur W par processeur, et celui est recalculé pour chaque<br />
neurone. Seuls les paramètres sont mémorisés.<br />
En sélectionnant l’un de ces paramètres dans la liste, l’utilisateur a accès à la fenêtre de<br />
modification de ce paramètre. Il peut choisir la valeur minimale et maximale de celui-ci,<br />
sa valeur pour la synapse sélectionnée. A chaque paramètre sont accrochées deux<br />
fonctions. La première est la fonction d’initialisation, qui fixe la valeur initiale du<br />
paramètre : ceci automatise le procédé d’initialisation, en évitant de devoir rentrer<br />
chaque paramètre à la main. Cette fonction détermine, à partir des coordonnées du<br />
neurone et de la synapse, la valeur du paramètre. La deuxième fonction est la fonction<br />
d’apprentissage, qui, à chaque itération, modifie la valeur des paramètres de chaque<br />
neurone et de chaque synapse. Cette fonction peut être elle-même paramétrée. De cette<br />
façon, il est possible de tester successivement plusieurs règles d’apprentissage sur une<br />
même architecture neuronale.<br />
TROISIEME PARTIE : RESULTATS