23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

L’ensemble des apprentissage que nous avons essayés dans nos réseaux se sont tous<br />

révélés d’une lenteur extrême (Chap.8, Anticipation du forçage des dynamiques, p.185).<br />

Le forçage entraîne immédiatement la dynamique du réseau à suivre la dynamique<br />

extérieure ; ainsi, le réseau est immédiatement proche de la dynamique qu’il aura après<br />

apprentissage 36 . D’une certaine façon, la perturbation externe est immédiatement<br />

perçue.<br />

N’est-ce pas ce qui se passe lorsque nous percevons un objet ?<br />

En regardant une peinture, par exemple, si nous fermons les yeux, l’image<br />

s’évanouira lentement pour ne laisser qu’une impression vague. Mais, si nous rouvrons<br />

les yeux tout de suite, le tableau nous réapparaît tel que nous l’imaginions, en donnant<br />

l’impression de venir se coller à la représentation interne que nous en avions. Plus nous<br />

observerons ce tableau, plus la perception que nous en aurons sera précise et fidèle.<br />

Mais combien de temps devrons-nous l’observer pour que l’image interne que nous nous<br />

faisons de l’objet soit précisément celle regardée, au point que nous confondions le<br />

tableau et l’image mentale ?<br />

Il est probable que, pour atteindre ce point de perfection dans la représentation<br />

interne de l’objet perçu, il nous faille aussi plusieurs millions d’ ‘itérations’... Il n’est donc<br />

peut être pas si surprenant que l’apprentissage dans les modèles connexionnistes<br />

requière autant d’itérations pour apprendre parfaitement un signal d’entrée. Cette limite<br />

n’est peut être pas un signe de l’échec du connexionnisme.<br />

Finalement, ce qui nous intéresse lorsque nous regardons un tableau, c’est de<br />

pouvoir nous en ‘faire une idée’, complétée à chaque nouvelle observation..<br />

Ainsi, l’idée du forçage permet de justifier la nécessité d’être en contact avec l’image<br />

perçue pour pouvoir se la représenter parfaitement. Et il n’est peut être pas nécessaire<br />

d’atteindre le stade de l’apprentissage par cœur pour le réseau, qui est pourtant l’un des<br />

critères de réussite de la plupart des modèles actuels.<br />

D’autre part, il existe un compromis entre la qualité de l’apprentissage, et les<br />

capacités de généralisation du réseau : la mémoire absolue ne peut pas généraliser, car<br />

chaque perception d’un même phénomène est perçue comme un cas particulier. Il est<br />

donc sans doute préférable de ne pas chercher un apprentissage par cœur dans le<br />

réseau, afin de maximiser ses chances de généralisation.<br />

7. Evite la divergence des paramètres du réseau<br />

L’étude de l’algorithme d’apprentissage RTRL (4.4.3 Real time recurrent learning,<br />

p.86) a mis en évidence que la dynamique des Pijk peut être instable, et il n’est pas rare<br />

de voir les poids diverger (4.5.3 Instabilité,p.90).<br />

Or, dans le cas où la dynamique de forçage est lente, le système étant forcé de<br />

suivre cette dynamique, l’erreur réalisée est faible, ce qui maintient les Pijk à des valeurs<br />

faibles, dans le cas d’un apprentissage par RTRL. Il y donc moins de chances de voir les<br />

poids diverger.<br />

36 ou tout au moins, plus proche que de celle qu’il aurait sans forçage.<br />

UN MODELE CONNEXIONNISTE DE LA MEMOIRE 103

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!