23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

36<br />

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

Cette idée d’utilisation de dynamiques à la place de paramètres cachés se retrouve dans<br />

le modèle d’Aityan [[1]], qui a obtenu la modélisation d’une fonction XOR dans un réseau<br />

à une seule couche, grâce à l’utilisation de périodes réfractaires (4.Modèles réfractaires,<br />

p.67)<br />

D’une certaine façon. il est possible d’assimiler un réseau feed-forward à N couches<br />

comme une première approximation d’un réseau dynamique pendant N itérations. Ceci<br />

est l’approche utilisée dans l’algorithme d’apprentissage BPTT, qui déplie dans le temps<br />

un réseau récurrent afin d’obtenir son équivalent feed-forward (4.4.2 .Back-propagation<br />

through time, p.85).<br />

4. Prise en compte du passé<br />

Dans un réseau d’architecture feed-forward, une même entrée provoque la même<br />

sortie, et il y a eu apprentissage d’association entrée-sortie. Ceci représente une grave<br />

limite à ce type de réseau, car, comme le remarquait Hebb [[88]] :<br />

If mind is a brain process [...] we could not hear the clock strike twelve;<br />

the brain gets the same message twelve times, so, if that is all there is,<br />

what one would hear is the clock striking one over and over again [...]<br />

Ainsi, le fait d’associer une entrée à une sortie, comme cela est réalisé dans la plupart<br />

des modèles connexionnistes actuels à architecture feed-forward, ne permet pas de<br />

différencier le même événement qui se succède, car la nouvelle entrée efface l’état du<br />

réseau. Ceci représente une limite sur plusieurs plans.<br />

Sur un plan architectural : les réseaux qui cherchent uniquement à réaliser des<br />

associations entrée-sortie ne sont pas à même de pouvoir compter la répétition<br />

temporelle d’un même événement. Ce type de remarque permettra d’éliminer la plupart<br />

des architectures à couches non récurrentes (2 Architectures récurrentes, p.71).<br />

Sur le plan comportemental : dans un réseau feed-forward, toute nouvelle entrée efface<br />

l’ensemble des activités précédentes des neurones. Dans des réseaux dynamiques, la<br />

prise en compte du passé est naturelle, et peut permettre l’interprétation de l’état du<br />

réseau en termes de trajectoire [[219]], d’attracteur [[180]] ou encore de réverbération<br />

[[4]]. En effet, l’information extérieure vient s’ajouter à la dynamique du réseau, à son<br />

histoire. L’état du réseau à chaque instant dépend donc de son passé, et des<br />

modifications dues à l’extérieur.<br />

Ainsi, un tel réseau peut posséder la capacité d’énumérer le même événement, car il n’y<br />

a pas de raison qui fasse que la dynamique au douzième coup d’horloge soit la même<br />

que celle du premier ou deuxième coup.<br />

5. De nouveaux supports pour l’information<br />

Malgré l’introduction de la notion de réseau uni à son environnement (p.28), se pose<br />

toujours le problème du critère de reconnaissance : comment peut-on savoir que le<br />

réseau a reconnu l’objet qu’on lui présentait ? L’idéal fonctionnaliste serait que l’objet soit<br />

nommé par le réseau grâce à un apprentissage associationniste, sans ce soucier de sa<br />

mécanique interne : sa réussite dans les tâches présentées serait le garant de son<br />

efficacité. Nous retrouverions là l’idée initiale de cette thèse consistant à valider un<br />

PREMIERE PARTIE : ANALYSE

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!