23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

34<br />

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

2.2.4 Intérêts de l’encodage par les dynamiques<br />

1. Moins d’étapes entre l’objet et son encodage<br />

Cette notion à été présentée dans l’introduction du chapitre : l’évolution en parallèle<br />

de la description des modèles connexionnistes et des modèles du monde réel peut nous<br />

permettre d’envisager un support commun et partagé d’information.<br />

Il est donc possible d’espérer obtenir une plus grande gamme des propriétés<br />

observées dans les systèmes naturels, grâce à l’abandon d’une couche intermédiaire de<br />

traitement entre le réseau et son environnement. Toute couche intermédiaire entre un<br />

système perceptif et son environnement a pour effet de diminuer la quantité<br />

d’information transmise. Ce faisant, toute couche intermédiaire appauvrit l’information<br />

extérieure, et risque donc de faire perdre a priori des données nécessaires au système.<br />

Ainsi, le choix de descendre à un niveau assez bas, à la fois dans la description du<br />

modèle connexionniste, et dans celle du réel peut permettre d’avoir un couplage optimal<br />

entre les deux, en ne décidant pas a priori de l’information pertinente qui doit être<br />

transmise.<br />

2. Plus grand nombre de systèmes potentiels<br />

Les premiers modèles Hopfieldiens [[96]][[97]] qui relancèrent le connexionnisme<br />

étudient des réseaux où l’encodage est réalisé par les points fixes du réseau,<br />

correspondant à des minima d’énergie. Afin que les réseaux étudiés convergent vers ces<br />

points fixes, il est nécessaire d’imposer de fortes contraintes au système 12 .<br />

La contrainte la plus forte garantissant la convergence du réseau vers un point fixe<br />

est celle de symétrie des connexions, qui impose que deux neurones soient reliés l’un à<br />

l’autre par des connexions de même force, soit :<br />

" i, " jw , = w<br />

ij ji<br />

Ou, contrainte moins forte, prouvée par Almeida [[2]] :<br />

$ a / " i, " j, a w = a w<br />

i j ij i ji<br />

La perte de la nécessité de ces contraintes donne accès à un bien plus grand nombre de<br />

réseaux, dont on ne connaît pas bien encore toutes les propriétés. Le champ<br />

d’investigation devient donc plus vaste. Malheureusement, hors de ces contraintes, il<br />

existe peu de théorèmes généraux, ce qui nous contraint à une approche presque<br />

exclusivement expérimentale.<br />

3. Meilleur encodage sans couches cachées<br />

Un autre intérêt de l’encodage par les dynamiques du réseau est d’augmenter la taille<br />

de l’espace d’état du réseau : ainsi, dans l’exemple ci dessous, la même dynamique d’un<br />

réseau peut être interprétée de deux façons. La première ne tient compte que de l’état<br />

final du réseau, tandis que la deuxième utilise plusieurs paramètres de la dynamique<br />

pour l’encodage.<br />

12 Une synthèse de ces contraintes peut être trouvée dans [[148]]<br />

PREMIERE PARTIE : ANALYSE

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!