Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
32<br />
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
de la méconnaissance a priori que le concepteur a de son système 11 . Ainsi l’intérêt que<br />
nous trouvons dans la nature émergente d’une propriété résulte plus d’une certaine<br />
approche épistémologique que d’une caractéristique véritable de cette propriété. Notre<br />
méthode consistera donc à observer les propriétés du système a posteriori, en postulant<br />
que la même méthode doit être appliquée à leur comparaison aux ‘propriétés naturelles’<br />
; ceci, en admettant que la plupart de nos comportements sont émergents, car ils<br />
résultent d’une observation a posteriori, et non d’une loi spécifique à chacun d’entre eux<br />
[[61]].<br />
2. Support d’information distribuée<br />
Une des notions qui découle de l’utilisation d’un modèle connexionniste est celle de<br />
distribution de l’information : une information n’est plus encodée par la valeur d’un<br />
neurone, mais par l’organisation de la population neuronale. Cette modification de la<br />
nature de l’encodage amène trois éléments principaux, confortant l’approche choisie<br />
dans cette thèse :<br />
a. Unification mémoires/organes de traitement<br />
La comparaison des machines de Turing au système cérébral fit longtemps partie<br />
des arguments suffisants de l’intelligence artificielle : le cerveau était une machine,<br />
traitant de l’information externe, grâce à des capteurs, et agissant sur son<br />
environnement, via des effecteurs. Le cerveau pouvait être assimilé à un organe de<br />
traitement de l’information. Les modèles connexionnistes remettent en cause ce point<br />
de vue en rassemblant la partie de traitement et le support de la mémoire dans un<br />
même système. Ce point de vue, relevé par [[4]], permet de voir l’un des principaux<br />
avantages du connexionnisme : le neurone est à la fois support et intermédiaire de<br />
traitement, il est paramètre et fonction. Cette vision s’accorde avec l’idée d’un<br />
système plongé dans son environnement, selon l’hypothèse du tout dynamique,<br />
présentée précédemment.<br />
b. Récupération par le contenu<br />
Pour retrouver une information enregistrée, l’encodage par représentant scalaire<br />
fixe nécessite la connaissance de l’emplacement du représentant pour aller lire sa<br />
valeur (par exemple, contenu de la mémoire 0x6AC4). Dans le cas d’un système<br />
distribué, il suffit de « décrire ce qui est cherché », pour que le système le retrouve (si<br />
un apprentissage efficace a été réalisé). Cette constatation courante peut être<br />
complétée par trois autres qui s’inscrivent dans l’approche utilisée dans cette thèse.<br />
Premièrement, la « description de ce qui est cherché » peut être vue comme une<br />
perturbation du système : on modifie ses entrées pour modifier son comportement.<br />
Cette constatation permet de s’approcher de la notion de clôture du système, qui sera<br />
abordée lors de la description de notre modèle. En effet, une des voies envisageables<br />
pour l’apprentissage peut être de chercher à minimiser la perturbation induite par<br />
l’environnement.<br />
11 Il suffit ainsi de concevoir un système au hasard, sans rien chercher à connaître a priori, pour pouvoir<br />
qualifier chacune de ses propriétés d’émergente.<br />
PREMIERE PARTIE : ANALYSE