Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
leur état interne ne détermine en rien leur évolution future. Nous nous sommes donc<br />
orientés vers des architectures neuronales assimilables à des systèmes autonomes,<br />
opérationellement clos<br />
Vers des architectures à récurrence locale<br />
D’emblée, toutes les architectures feed-forward ont donc été éliminées, pour<br />
s’orienter vers un modèle de réseau à récurrence exclusivement locale, avec<br />
simplification extrême des architectures neuronales biologiques. Ce choix nous a permis<br />
d’observer et d’interpréter des diffusions dans le réseau autour des sites de forçage<br />
(Figure 7-23,p.165), et d’interpréter la perception de l’environnement en terme de<br />
diffusion de perturbations induites par le forçage.<br />
A dynamique chaotique<br />
Il est admis que le système cérébral produit des dynamiques non-linéaires de grande<br />
complexité, du chaos, même si la quantification de la dimension de ces dynamiques<br />
reste encore une question ouverte. Plusieurs rôles dans les phénomènes de<br />
mémorisation ont été proposés (2.3 Des dynamiques au chaos, p.38), dont certains ont<br />
pu être vérifiés. Nous avons vu qu’il pouvait faciliter des synchronismes locaux dans le<br />
réseau (Figure 7-14, p.158), qu’il accentuait la prise en compte de l’état du réseau<br />
(Figure 7-13, p.156), et qu’il permettait une dépersévération du système (Figure 8-21,<br />
p.201).<br />
Complexifiée par une perturbation extérieure<br />
De façon similaire aux systèmes périodiques forcés, la perturbation périodique<br />
externe peut complexifier les dynamiques locales du réseau, si celle-ci n’est pas<br />
anticipée. Cette perturbation par les dynamiques externes a été observée à plusieurs<br />
niveaux : soit par forçage (Figure 8-15, p.197), soit par dépendance aux conditions<br />
initiales (Figure 7-12, p.155), soit encore par le maintient artificiel de dynamiques suite à<br />
une modification lente des paramètres (Figure 7-42, p.180).<br />
Simplifiée par l’apprentissage<br />
L’objectif du système est d’anticiper la dynamique qui le perturbe, et complexifie ses<br />
dynamiques. S’il l’anticipe, la complexité de ses dynamiques est ramenée à celle de la<br />
dynamique forçante. Il y a donc simplification des dynamiques du système lors de<br />
l’apprentissage. Apprentissage simple ! il doit exister un intermédiaire entre RTRL et<br />
Hebb : la simplification drastique de RTRL ou BPTT ayant permis d’effectuer des<br />
apprentissages efficaces de fonctions périodiques simples.<br />
Qui se complexifie à la perte du signal forçant<br />
Il y a dépersévération (Figure 8-23, p.202), car le régime libre du neurone forcé quitte<br />
peu à peu la trajectoire forcée pour se stabiliser sur un attracteur, qui évolue tout au long<br />
de l’apprentissage. Il y a donc bien modification de l’attracteur en régime libre lors de<br />
l’apprentissage. Par contre, à la représentation du signal de forçage, la dynamique du<br />
réseau vient la suivre beaucoup plus rapidement, au fur et à mesure que l’apprentissage<br />
évolue (Figure 8-13, p.194).<br />
En vue de l’anticipation du signal forçant<br />
CONCLUSION GENERALE ET PERSPECTIVES 209