23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

122<br />

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

Comme nous le verrons, cette période réfractaire peut jouer un grand rôle dans les<br />

capacités de synchronisme du réseau, et dans la diffusion des perturbations induites par<br />

le forçage.<br />

3. Sans dynamique chaotique propre<br />

En postulant, au début de cette thèse, que le chaos est le mode de fonctionnement<br />

global du cerveau, et non pas sa fonction ni son rôle, et le chaos étant vu comme un<br />

comportement émergent, nous éliminerons tout chaos pré-implanté à l’échelle neuronale<br />

(2 Modèle à dynamique chaotique propre, p.69). En effet, dans les études réalisées<br />

utilisant ce modèle [[64]][[104]], le chaos est utilisé comme source de perturbation<br />

interne du neurone, pour permettre au réseau de chercher le plus grand nombre<br />

d’associations possibles entre les activités des neurones. Comme nous le verrons par la<br />

suite, les simples modèles hopfieldiens à récurrence locale, permettent d’engendrer des<br />

dynamiques chaotiques en sortie d’un seul neurone. Il n’est donc pas nécessaire d’<br />

implanter un comportement chaotique à l’échelle du neurone, pour en voir émerger un,<br />

qui peut avoir le même rôle que celui proposé : maximiser les chances de voir des<br />

associations réalisées entre neurones.<br />

De plus, aucune démonstration biologique d’un comportement chaotique propre d’un<br />

seul neurone isolé n’a été réalisée.<br />

4. Apprentissage par forçage<br />

Durant la thèse, la théorie du forçage neuronal s’est progressivement imposée<br />

comme principe central du modèle. Au départ, le forçage avait pour but d’améliorer les<br />

apprentissages dérivés de RTRL, par accélération de l’apprentissage et<br />

resynchronisation du signal appris sur le signal forçant. Puis, par l’étude des<br />

phénomènes induits par ce forçage, celui-ci a été progressivement interprété en termes<br />

de perturbation pour le système, ce qui a permis d’interpréter l’apprentissage comme la<br />

recherche d’une maximisation de l’autonomie du système en interaction avec un<br />

environnement dynamique.<br />

Le forçage de dynamique a donc été systématiquement employé lors du couplage du<br />

modèle connexionniste avec son environnement (limité dans la plupart de nos<br />

expérience à un ‘monde’ de sinusoïdes simples !).<br />

Afin d’intégrer ce forçage au modèle neuronal, nous avons donc ajouté en sortie du<br />

neurone, une entrée provenant de l’extérieur, qui remplace la sortie si l’entrée est forcée,<br />

soit :<br />

5. Système déterministe<br />

x () t = I () t si i est forcé<br />

i i<br />

Nous nous sommes limités dans cette thèse à des modèles déterministes, afin de<br />

pouvoir affirmer que les comportements observés ne sont pas le seul fruit du hasard,<br />

mais véritablement la manifestation de comportements émergents du réseau. En effet,<br />

comme certaines des propriétés observées ne l’ont été que dans un seul réseau, il était<br />

souhaitable d’être sûr que cette propriété n’était pas due à la composante aléatoire du<br />

réseau.<br />

DEUXIEME PARTIE : DEVELOPPEMENT

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!