Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
120<br />
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
biologiquement 45 . Selon l’approche proposée, il n’est plus nécessaire de réaliser ces<br />
deux phases. En effet, la perturbation résiduelle est fonction de l’erreur réalisée par le<br />
système, et la diffusion de cette perturbation est fonction de son intensité. Ainsi, plus le<br />
réseau approche de la solution, plus son erreur est faible, et moins le nombre de<br />
neurones qui voient leurs paramètres modifiés est élevé.<br />
Evidemment, le même phénomène peut être observé dans un simple réseau à<br />
rétropropagation du gradient : plus l’erreur est faible au niveau des neurones de sorties,<br />
et moins les modifications dues à l’apprentissage sont rétropropagées dans les couches<br />
précédentes ; et pourtant, il est nécessaire de réaliser une phase d’apprentissage et une<br />
phase de généralisation dans le réseau. Dans le modèle proposé, la mémoire est un<br />
principe actif du système, qui lui permet d’anticiper l’évolution de son environnement : il<br />
est plongé dans le présent, et ne requière donc pas de référence au passé (à la phase<br />
d’apprentissage) pour effectuer sa tâche de reconnaissance : le système proposé ne<br />
nécessite donc pas de phases d’apprentissage et de généralisation distinctes,<br />
contrairement à un réseau multicouches à rétropropagation, qui doit retrouver des<br />
associations entrées-sorties préalablement acquises.<br />
5.3 Principes du modèle connexionniste<br />
5.3.1 Pour le neurone<br />
1. Modèle à différences finies<br />
Après avoir étudié dans un premier temps des réseaux à itérations discrètes, et après<br />
s’être intéressé aux synchronismes du réseau, il s’est avéré difficile de suivre<br />
simplement les dynamiques des réseaux discrets. Celles-ci semblaient souvent trop<br />
désordonnées, et trop peu propices à l’apprentissage de dynamiques lentes et régulières<br />
Nous nous sommes alors orientés vers les réseaux à différences finies. Ceux-ci offrent<br />
le net avantage de posséder des dynamiques plus lisses, dont on peut à loisir modifier la<br />
vitesse, par modification du pas de temps dt. De cette façon, l’analyse des fréquences<br />
principales du réseau devient plus précis : les fréquences principales ne sont plus toutes<br />
réunies sur un petit intervalle de hautes fréquences, comme cela était le cas dans les<br />
réseaux discrets. Il apparaît un plus grand nombre de pics de fréquences qui peuvent<br />
permettre de mieux quantifier les déphasages entre sites voisins.<br />
Autre avantage, il est possible ainsi de réguler ainsi la vitesse de la dynamique de<br />
l’environnement. Nous avons pris pour nos résultats des pas de temps de même<br />
grandeurs pour les itérations de l’environnement, et pour celles du réseau.<br />
Malheureusement, le choix de réseaux à différences finies s’est fait un peu tard, et nous<br />
n’avons pas pu vérifier à nouveau l’ensemble de nos résultats pour ce type de réseau. Il<br />
45 Ceci ne signifie pas que l’apprentissage ne peut pas être réalisé à des degrés divers durant l’évolution de<br />
l’organisme, mais qu’il n’y a pas de superviseur, extérieur à l’organisme, qui fasse varier la force de<br />
l’apprentissage en fonction de la qualité de la réponse du système.<br />
DEUXIEME PARTIE : DEVELOPPEMENT