Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
L’ensemble des apprentissage que nous avons essayés dans nos réseaux se sont tous<br />
révélés d’une lenteur extrême (Chap.8, Anticipation du forçage des dynamiques, p.185).<br />
Le forçage entraîne immédiatement la dynamique du réseau à suivre la dynamique<br />
extérieure ; ainsi, le réseau est immédiatement proche de la dynamique qu’il aura après<br />
apprentissage 36 . D’une certaine façon, la perturbation externe est immédiatement<br />
perçue.<br />
N’est-ce pas ce qui se passe lorsque nous percevons un objet ?<br />
En regardant une peinture, par exemple, si nous fermons les yeux, l’image<br />
s’évanouira lentement pour ne laisser qu’une impression vague. Mais, si nous rouvrons<br />
les yeux tout de suite, le tableau nous réapparaît tel que nous l’imaginions, en donnant<br />
l’impression de venir se coller à la représentation interne que nous en avions. Plus nous<br />
observerons ce tableau, plus la perception que nous en aurons sera précise et fidèle.<br />
Mais combien de temps devrons-nous l’observer pour que l’image interne que nous nous<br />
faisons de l’objet soit précisément celle regardée, au point que nous confondions le<br />
tableau et l’image mentale ?<br />
Il est probable que, pour atteindre ce point de perfection dans la représentation<br />
interne de l’objet perçu, il nous faille aussi plusieurs millions d’ ‘itérations’... Il n’est donc<br />
peut être pas si surprenant que l’apprentissage dans les modèles connexionnistes<br />
requière autant d’itérations pour apprendre parfaitement un signal d’entrée. Cette limite<br />
n’est peut être pas un signe de l’échec du connexionnisme.<br />
Finalement, ce qui nous intéresse lorsque nous regardons un tableau, c’est de<br />
pouvoir nous en ‘faire une idée’, complétée à chaque nouvelle observation..<br />
Ainsi, l’idée du forçage permet de justifier la nécessité d’être en contact avec l’image<br />
perçue pour pouvoir se la représenter parfaitement. Et il n’est peut être pas nécessaire<br />
d’atteindre le stade de l’apprentissage par cœur pour le réseau, qui est pourtant l’un des<br />
critères de réussite de la plupart des modèles actuels.<br />
D’autre part, il existe un compromis entre la qualité de l’apprentissage, et les<br />
capacités de généralisation du réseau : la mémoire absolue ne peut pas généraliser, car<br />
chaque perception d’un même phénomène est perçue comme un cas particulier. Il est<br />
donc sans doute préférable de ne pas chercher un apprentissage par cœur dans le<br />
réseau, afin de maximiser ses chances de généralisation.<br />
7. Evite la divergence des paramètres du réseau<br />
L’étude de l’algorithme d’apprentissage RTRL (4.4.3 Real time recurrent learning,<br />
p.86) a mis en évidence que la dynamique des Pijk peut être instable, et il n’est pas rare<br />
de voir les poids diverger (4.5.3 Instabilité,p.90).<br />
Or, dans le cas où la dynamique de forçage est lente, le système étant forcé de<br />
suivre cette dynamique, l’erreur réalisée est faible, ce qui maintient les Pijk à des valeurs<br />
faibles, dans le cas d’un apprentissage par RTRL. Il y donc moins de chances de voir les<br />
poids diverger.<br />
36 ou tout au moins, plus proche que de celle qu’il aurait sans forçage.<br />
UN MODELE CONNEXIONNISTE DE LA MEMOIRE 103