Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
36<br />
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
Cette idée d’utilisation de dynamiques à la place de paramètres cachés se retrouve dans<br />
le modèle d’Aityan [[1]], qui a obtenu la modélisation d’une fonction XOR dans un réseau<br />
à une seule couche, grâce à l’utilisation de périodes réfractaires (4.Modèles réfractaires,<br />
p.67)<br />
D’une certaine façon. il est possible d’assimiler un réseau feed-forward à N couches<br />
comme une première approximation d’un réseau dynamique pendant N itérations. Ceci<br />
est l’approche utilisée dans l’algorithme d’apprentissage BPTT, qui déplie dans le temps<br />
un réseau récurrent afin d’obtenir son équivalent feed-forward (4.4.2 .Back-propagation<br />
through time, p.85).<br />
4. Prise en compte du passé<br />
Dans un réseau d’architecture feed-forward, une même entrée provoque la même<br />
sortie, et il y a eu apprentissage d’association entrée-sortie. Ceci représente une grave<br />
limite à ce type de réseau, car, comme le remarquait Hebb [[88]] :<br />
If mind is a brain process [...] we could not hear the clock strike twelve;<br />
the brain gets the same message twelve times, so, if that is all there is,<br />
what one would hear is the clock striking one over and over again [...]<br />
Ainsi, le fait d’associer une entrée à une sortie, comme cela est réalisé dans la plupart<br />
des modèles connexionnistes actuels à architecture feed-forward, ne permet pas de<br />
différencier le même événement qui se succède, car la nouvelle entrée efface l’état du<br />
réseau. Ceci représente une limite sur plusieurs plans.<br />
Sur un plan architectural : les réseaux qui cherchent uniquement à réaliser des<br />
associations entrée-sortie ne sont pas à même de pouvoir compter la répétition<br />
temporelle d’un même événement. Ce type de remarque permettra d’éliminer la plupart<br />
des architectures à couches non récurrentes (2 Architectures récurrentes, p.71).<br />
Sur le plan comportemental : dans un réseau feed-forward, toute nouvelle entrée efface<br />
l’ensemble des activités précédentes des neurones. Dans des réseaux dynamiques, la<br />
prise en compte du passé est naturelle, et peut permettre l’interprétation de l’état du<br />
réseau en termes de trajectoire [[219]], d’attracteur [[180]] ou encore de réverbération<br />
[[4]]. En effet, l’information extérieure vient s’ajouter à la dynamique du réseau, à son<br />
histoire. L’état du réseau à chaque instant dépend donc de son passé, et des<br />
modifications dues à l’extérieur.<br />
Ainsi, un tel réseau peut posséder la capacité d’énumérer le même événement, car il n’y<br />
a pas de raison qui fasse que la dynamique au douzième coup d’horloge soit la même<br />
que celle du premier ou deuxième coup.<br />
5. De nouveaux supports pour l’information<br />
Malgré l’introduction de la notion de réseau uni à son environnement (p.28), se pose<br />
toujours le problème du critère de reconnaissance : comment peut-on savoir que le<br />
réseau a reconnu l’objet qu’on lui présentait ? L’idéal fonctionnaliste serait que l’objet soit<br />
nommé par le réseau grâce à un apprentissage associationniste, sans ce soucier de sa<br />
mécanique interne : sa réussite dans les tâches présentées serait le garant de son<br />
efficacité. Nous retrouverions là l’idée initiale de cette thèse consistant à valider un<br />
PREMIERE PARTIE : ANALYSE