Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
tronquée ou bruitée. Ce principe correspond à l’un de ceux utilisés dans les modèles<br />
hopfieldiens.<br />
Nous nous orienterons donc vers ce type de modèle, sans différentiation de neurones<br />
d’entrée ou de sortie, dans lequel des patterns dynamiques sont présentés au réseau, en<br />
vue d’un rappel ultérieur. Cette approche permet de ne pas postuler a priori d’un<br />
comportement behavioriste du réseau. Nous verrons par la suite que ce choix nous<br />
permet d’interpréter l’entrée en termes de source de perturbations pour les dynamiques<br />
libres du réseau.<br />
2. Architectures récurrentes<br />
L’une des méthodes les plus immédiates, tenant compte de l’état interne du réseau<br />
dans la détermination de sa sortie, consiste à reboucler sur les entrées du réseau<br />
certains de ces états internes. Ce rebouclage permet en général de maintenir une<br />
dynamique interne non stationnaire du réseau, et ainsi, de vérifier l’hypothèse du toutdynamique<br />
(2.2.2 ,p.28).<br />
Ce type d’architecture est biologiquement plausible puisque, dès le début des recherches<br />
neurophysiologiques, l’observation de connexions récurrentes dans les réseaux<br />
biologiques a été observée.<br />
Reste à déterminer l’architecture de ces connexions récurrentes.<br />
Dans leurs thèses, Quoy [[161]] et Cessac [[32]], démontrent qu’une connectivité<br />
partielle, même faible, du réseau permet de conserver ses qualités dynamiques. De plus,<br />
90 % des connections récurrentes du cerveau s’effectuent dans un volume de 1 cm 3<br />
autour du neurone considéré. Nous nous sommes donc rapidement orientés vers des<br />
architectures récurrentes à voisinage local. Ce type d’architecture présente d’autre part<br />
l’intérêt de définir une topologie simple du réseau, conforme aux distances neuronales<br />
(le nombre d’étapes pour que deux neurones échangent leur information est<br />
proportionnel à leur distance). Cette propriété nous a permis d’observer et d’interpréter<br />
une diffusion de l’information dans les réseaux récurrents à voisinage local.<br />
3. Architectures modulaires<br />
Il est possible de compléter l’architecture précédente, en augmentant sa pertinence<br />
biologique, en créant a priori des modules qui s’activent les uns les autres. Dans ce cas,<br />
chaque module est une architecture indépendante, faiblement connectée aux autres<br />
modules du réseau. Il est admis que des populations neuronales spécifiques sont<br />
activées lors de l’évocation d’un concept, et qu’il existe des populations neuronales<br />
faiblement connectées les unes aux autres, créant ainsi des modules.<br />
Cette modularité, étayée par la notion d’encodage par population neuronale, commence<br />
a être étudiée [[166]], soit par l’utilisation a priori de modules fonctionnels [[86]][[87]], soit<br />
par l’étude de l’apparition de modules, ou clusters d’activité, lors de l’apprentissage<br />
[[78]][[85]][[131]].<br />
Malgré l’intérêt que présentent ces architectures, il est nécessaire, dans un premier<br />
temps, d’étudier simplement l’activité d’une seule population neuronale. Nous nous<br />
limiterons donc, dans le cadre de cette thèse, à des architectures à récurrence locale,<br />
régulières, qui définissent un seul module. Par contre nous nous intéresserons fortement<br />
MODELES CONNEXIONNISTES DYNAMIQUES 71