Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
122<br />
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
Comme nous le verrons, cette période réfractaire peut jouer un grand rôle dans les<br />
capacités de synchronisme du réseau, et dans la diffusion des perturbations induites par<br />
le forçage.<br />
3. Sans dynamique chaotique propre<br />
En postulant, au début de cette thèse, que le chaos est le mode de fonctionnement<br />
global du cerveau, et non pas sa fonction ni son rôle, et le chaos étant vu comme un<br />
comportement émergent, nous éliminerons tout chaos pré-implanté à l’échelle neuronale<br />
(2 Modèle à dynamique chaotique propre, p.69). En effet, dans les études réalisées<br />
utilisant ce modèle [[64]][[104]], le chaos est utilisé comme source de perturbation<br />
interne du neurone, pour permettre au réseau de chercher le plus grand nombre<br />
d’associations possibles entre les activités des neurones. Comme nous le verrons par la<br />
suite, les simples modèles hopfieldiens à récurrence locale, permettent d’engendrer des<br />
dynamiques chaotiques en sortie d’un seul neurone. Il n’est donc pas nécessaire d’<br />
implanter un comportement chaotique à l’échelle du neurone, pour en voir émerger un,<br />
qui peut avoir le même rôle que celui proposé : maximiser les chances de voir des<br />
associations réalisées entre neurones.<br />
De plus, aucune démonstration biologique d’un comportement chaotique propre d’un<br />
seul neurone isolé n’a été réalisée.<br />
4. Apprentissage par forçage<br />
Durant la thèse, la théorie du forçage neuronal s’est progressivement imposée<br />
comme principe central du modèle. Au départ, le forçage avait pour but d’améliorer les<br />
apprentissages dérivés de RTRL, par accélération de l’apprentissage et<br />
resynchronisation du signal appris sur le signal forçant. Puis, par l’étude des<br />
phénomènes induits par ce forçage, celui-ci a été progressivement interprété en termes<br />
de perturbation pour le système, ce qui a permis d’interpréter l’apprentissage comme la<br />
recherche d’une maximisation de l’autonomie du système en interaction avec un<br />
environnement dynamique.<br />
Le forçage de dynamique a donc été systématiquement employé lors du couplage du<br />
modèle connexionniste avec son environnement (limité dans la plupart de nos<br />
expérience à un ‘monde’ de sinusoïdes simples !).<br />
Afin d’intégrer ce forçage au modèle neuronal, nous avons donc ajouté en sortie du<br />
neurone, une entrée provenant de l’extérieur, qui remplace la sortie si l’entrée est forcée,<br />
soit :<br />
5. Système déterministe<br />
x () t = I () t si i est forcé<br />
i i<br />
Nous nous sommes limités dans cette thèse à des modèles déterministes, afin de<br />
pouvoir affirmer que les comportements observés ne sont pas le seul fruit du hasard,<br />
mais véritablement la manifestation de comportements émergents du réseau. En effet,<br />
comme certaines des propriétés observées ne l’ont été que dans un seul réseau, il était<br />
souhaitable d’être sûr que cette propriété n’était pas due à la composante aléatoire du<br />
réseau.<br />
DEUXIEME PARTIE : DEVELOPPEMENT