23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

leur état interne ne détermine en rien leur évolution future. Nous nous sommes donc<br />

orientés vers des architectures neuronales assimilables à des systèmes autonomes,<br />

opérationellement clos<br />

Vers des architectures à récurrence locale<br />

D’emblée, toutes les architectures feed-forward ont donc été éliminées, pour<br />

s’orienter vers un modèle de réseau à récurrence exclusivement locale, avec<br />

simplification extrême des architectures neuronales biologiques. Ce choix nous a permis<br />

d’observer et d’interpréter des diffusions dans le réseau autour des sites de forçage<br />

(Figure 7-23,p.165), et d’interpréter la perception de l’environnement en terme de<br />

diffusion de perturbations induites par le forçage.<br />

A dynamique chaotique<br />

Il est admis que le système cérébral produit des dynamiques non-linéaires de grande<br />

complexité, du chaos, même si la quantification de la dimension de ces dynamiques<br />

reste encore une question ouverte. Plusieurs rôles dans les phénomènes de<br />

mémorisation ont été proposés (2.3 Des dynamiques au chaos, p.38), dont certains ont<br />

pu être vérifiés. Nous avons vu qu’il pouvait faciliter des synchronismes locaux dans le<br />

réseau (Figure 7-14, p.158), qu’il accentuait la prise en compte de l’état du réseau<br />

(Figure 7-13, p.156), et qu’il permettait une dépersévération du système (Figure 8-21,<br />

p.201).<br />

Complexifiée par une perturbation extérieure<br />

De façon similaire aux systèmes périodiques forcés, la perturbation périodique<br />

externe peut complexifier les dynamiques locales du réseau, si celle-ci n’est pas<br />

anticipée. Cette perturbation par les dynamiques externes a été observée à plusieurs<br />

niveaux : soit par forçage (Figure 8-15, p.197), soit par dépendance aux conditions<br />

initiales (Figure 7-12, p.155), soit encore par le maintient artificiel de dynamiques suite à<br />

une modification lente des paramètres (Figure 7-42, p.180).<br />

Simplifiée par l’apprentissage<br />

L’objectif du système est d’anticiper la dynamique qui le perturbe, et complexifie ses<br />

dynamiques. S’il l’anticipe, la complexité de ses dynamiques est ramenée à celle de la<br />

dynamique forçante. Il y a donc simplification des dynamiques du système lors de<br />

l’apprentissage. Apprentissage simple ! il doit exister un intermédiaire entre RTRL et<br />

Hebb : la simplification drastique de RTRL ou BPTT ayant permis d’effectuer des<br />

apprentissages efficaces de fonctions périodiques simples.<br />

Qui se complexifie à la perte du signal forçant<br />

Il y a dépersévération (Figure 8-23, p.202), car le régime libre du neurone forcé quitte<br />

peu à peu la trajectoire forcée pour se stabiliser sur un attracteur, qui évolue tout au long<br />

de l’apprentissage. Il y a donc bien modification de l’attracteur en régime libre lors de<br />

l’apprentissage. Par contre, à la représentation du signal de forçage, la dynamique du<br />

réseau vient la suivre beaucoup plus rapidement, au fur et à mesure que l’apprentissage<br />

évolue (Figure 8-13, p.194).<br />

En vue de l’anticipation du signal forçant<br />

CONCLUSION GENERALE ET PERSPECTIVES 209

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!