23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

tronquée ou bruitée. Ce principe correspond à l’un de ceux utilisés dans les modèles<br />

hopfieldiens.<br />

Nous nous orienterons donc vers ce type de modèle, sans différentiation de neurones<br />

d’entrée ou de sortie, dans lequel des patterns dynamiques sont présentés au réseau, en<br />

vue d’un rappel ultérieur. Cette approche permet de ne pas postuler a priori d’un<br />

comportement behavioriste du réseau. Nous verrons par la suite que ce choix nous<br />

permet d’interpréter l’entrée en termes de source de perturbations pour les dynamiques<br />

libres du réseau.<br />

2. Architectures récurrentes<br />

L’une des méthodes les plus immédiates, tenant compte de l’état interne du réseau<br />

dans la détermination de sa sortie, consiste à reboucler sur les entrées du réseau<br />

certains de ces états internes. Ce rebouclage permet en général de maintenir une<br />

dynamique interne non stationnaire du réseau, et ainsi, de vérifier l’hypothèse du toutdynamique<br />

(2.2.2 ,p.28).<br />

Ce type d’architecture est biologiquement plausible puisque, dès le début des recherches<br />

neurophysiologiques, l’observation de connexions récurrentes dans les réseaux<br />

biologiques a été observée.<br />

Reste à déterminer l’architecture de ces connexions récurrentes.<br />

Dans leurs thèses, Quoy [[161]] et Cessac [[32]], démontrent qu’une connectivité<br />

partielle, même faible, du réseau permet de conserver ses qualités dynamiques. De plus,<br />

90 % des connections récurrentes du cerveau s’effectuent dans un volume de 1 cm 3<br />

autour du neurone considéré. Nous nous sommes donc rapidement orientés vers des<br />

architectures récurrentes à voisinage local. Ce type d’architecture présente d’autre part<br />

l’intérêt de définir une topologie simple du réseau, conforme aux distances neuronales<br />

(le nombre d’étapes pour que deux neurones échangent leur information est<br />

proportionnel à leur distance). Cette propriété nous a permis d’observer et d’interpréter<br />

une diffusion de l’information dans les réseaux récurrents à voisinage local.<br />

3. Architectures modulaires<br />

Il est possible de compléter l’architecture précédente, en augmentant sa pertinence<br />

biologique, en créant a priori des modules qui s’activent les uns les autres. Dans ce cas,<br />

chaque module est une architecture indépendante, faiblement connectée aux autres<br />

modules du réseau. Il est admis que des populations neuronales spécifiques sont<br />

activées lors de l’évocation d’un concept, et qu’il existe des populations neuronales<br />

faiblement connectées les unes aux autres, créant ainsi des modules.<br />

Cette modularité, étayée par la notion d’encodage par population neuronale, commence<br />

a être étudiée [[166]], soit par l’utilisation a priori de modules fonctionnels [[86]][[87]], soit<br />

par l’étude de l’apparition de modules, ou clusters d’activité, lors de l’apprentissage<br />

[[78]][[85]][[131]].<br />

Malgré l’intérêt que présentent ces architectures, il est nécessaire, dans un premier<br />

temps, d’étudier simplement l’activité d’une seule population neuronale. Nous nous<br />

limiterons donc, dans le cadre de cette thèse, à des architectures à récurrence locale,<br />

régulières, qui définissent un seul module. Par contre nous nous intéresserons fortement<br />

MODELES CONNEXIONNISTES DYNAMIQUES 71

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!