23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

202<br />

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

8.5 Vers l’algorithme on-line local ?<br />

8.5.1 Description<br />

Figure 8-23 : Evolution de l'attracteur en régime libre<br />

Comme nous l’avons vu dans les précédents algorithmes, il est difficile, voire impossible<br />

de conjuguer les aspects on-line et local dans une même règle d’apprentissage fiable pour les<br />

réseaux récurrents. En effet dans les exemples précédents, aucun n’a permis d’obtenir un<br />

apprentissage valide pour des dynamiques de forçage complexes : les seules dynamiques<br />

apprises sans trop d’erreur sont des dynamiques périodiques et symétriques. Donc, plutôt que de<br />

chercher à rendre artificiellement on-line et local les règles de descente de gradient dans les<br />

réseaux récurrents, peut être serait-il préférable de forcer une règle hebbienne à réaliser une<br />

minimisation de l’erreur des neurones forcés. Il est possible de dériver des règles de ce type, en<br />

s’inspirant de l’apprentissage par bonification. Ainsi, par exemple, si l’on prend un réseau à<br />

différences finies, l’évolution au cours du temps d’une de ses sorties est donnée par :<br />

æ ö<br />

xi( t + dt) = ( 1-<br />

dt) xi() t + dt. f çåwijxj()<br />

t ÷<br />

è j ø<br />

TROISIEME PARTIE : RESULTATS

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!