Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
34<br />
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
2.2.4 Intérêts de l’encodage par les dynamiques<br />
1. Moins d’étapes entre l’objet et son encodage<br />
Cette notion à été présentée dans l’introduction du chapitre : l’évolution en parallèle<br />
de la description des modèles connexionnistes et des modèles du monde réel peut nous<br />
permettre d’envisager un support commun et partagé d’information.<br />
Il est donc possible d’espérer obtenir une plus grande gamme des propriétés<br />
observées dans les systèmes naturels, grâce à l’abandon d’une couche intermédiaire de<br />
traitement entre le réseau et son environnement. Toute couche intermédiaire entre un<br />
système perceptif et son environnement a pour effet de diminuer la quantité<br />
d’information transmise. Ce faisant, toute couche intermédiaire appauvrit l’information<br />
extérieure, et risque donc de faire perdre a priori des données nécessaires au système.<br />
Ainsi, le choix de descendre à un niveau assez bas, à la fois dans la description du<br />
modèle connexionniste, et dans celle du réel peut permettre d’avoir un couplage optimal<br />
entre les deux, en ne décidant pas a priori de l’information pertinente qui doit être<br />
transmise.<br />
2. Plus grand nombre de systèmes potentiels<br />
Les premiers modèles Hopfieldiens [[96]][[97]] qui relancèrent le connexionnisme<br />
étudient des réseaux où l’encodage est réalisé par les points fixes du réseau,<br />
correspondant à des minima d’énergie. Afin que les réseaux étudiés convergent vers ces<br />
points fixes, il est nécessaire d’imposer de fortes contraintes au système 12 .<br />
La contrainte la plus forte garantissant la convergence du réseau vers un point fixe<br />
est celle de symétrie des connexions, qui impose que deux neurones soient reliés l’un à<br />
l’autre par des connexions de même force, soit :<br />
" i, " jw , = w<br />
ij ji<br />
Ou, contrainte moins forte, prouvée par Almeida [[2]] :<br />
$ a / " i, " j, a w = a w<br />
i j ij i ji<br />
La perte de la nécessité de ces contraintes donne accès à un bien plus grand nombre de<br />
réseaux, dont on ne connaît pas bien encore toutes les propriétés. Le champ<br />
d’investigation devient donc plus vaste. Malheureusement, hors de ces contraintes, il<br />
existe peu de théorèmes généraux, ce qui nous contraint à une approche presque<br />
exclusivement expérimentale.<br />
3. Meilleur encodage sans couches cachées<br />
Un autre intérêt de l’encodage par les dynamiques du réseau est d’augmenter la taille<br />
de l’espace d’état du réseau : ainsi, dans l’exemple ci dessous, la même dynamique d’un<br />
réseau peut être interprétée de deux façons. La première ne tient compte que de l’état<br />
final du réseau, tandis que la deuxième utilise plusieurs paramètres de la dynamique<br />
pour l’encodage.<br />
12 Une synthèse de ces contraintes peut être trouvée dans [[148]]<br />
PREMIERE PARTIE : ANALYSE