Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
70<br />
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
1. Architectures Feed-Forward<br />
La première architecture envisageable suppose qu’à chaque entrée correspond une<br />
seule et même sortie associée.<br />
Ce type d’architecture fait partie des premières développées, et correspond au<br />
perceptron multi-couches [[136]], et fut encouragée par l’hypothèse de la présence de<br />
circuits cognitifs de type perception-action : la perception correspond à l’entrée du<br />
réseau, et sa sortie donne l’action associée à l’entrée. De cette façon, le réseau perçoit<br />
son environnement, le traite, puis génère en réponse une action. Malheureusement,<br />
dans le cadre de cette thèse, plusieurs résultats viennent contrarier ce modèle. Cette<br />
architecture n’est pas biologiquement plausible : le caractère exclusivement feed-forward<br />
n’apparaît pas dans le système cérébral. Ce type d’architecture engendre un<br />
déterminisme total : à même environnement, même action. C’est l’environnement qui<br />
agit. De plus, un système feed-forward ne possède pas de dynamique libre non<br />
stationnaire.<br />
Figure 3-4 : Equivalence du modèle à entrée-sortie<br />
Il est possible de ‘déplier’un réseau de type feed-forward, en un réseau de type hopfieldien,<br />
sans différentiation entrée-sortie. Ainsi, l’approche perception-action des premiers modèles<br />
peut être généralisée à une approche interaction-association, plus générale.<br />
Dernier point, la différentiation entrée-sortie dans ce type de réseau n’est pas<br />
nécessaire. Ces réseaux peuvent être vus comme de simples réseaux à entrée,<br />
retrouvant celle-ci par présentation d’une entrée apprise bruitée. En effet, l’apprentissage<br />
de l’association d’une sortie S à une entrée E, en vue d’un rappel de la sortie désirée S,<br />
lors de la présentation de l’entrée associée E, peut correspondre à l’apprentissage d’une<br />
entrée E’=E Å S, et d’un rappel par la présentation E, troncature de E’. Selon cette<br />
interprétation (Figure 3-4), l’architecture feed-forward est un cas particulier d’un modèle<br />
plus général de mémorisation.<br />
Cette généralisation consiste à faire mémoriser au réseau des entrées qui lui sont<br />
présentées, afin de permettre un rappel lors de la présentation de l’une de ces entrées<br />
PREMIERE PARTIE : ANALYSE