23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

120<br />

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

biologiquement 45 . Selon l’approche proposée, il n’est plus nécessaire de réaliser ces<br />

deux phases. En effet, la perturbation résiduelle est fonction de l’erreur réalisée par le<br />

système, et la diffusion de cette perturbation est fonction de son intensité. Ainsi, plus le<br />

réseau approche de la solution, plus son erreur est faible, et moins le nombre de<br />

neurones qui voient leurs paramètres modifiés est élevé.<br />

Evidemment, le même phénomène peut être observé dans un simple réseau à<br />

rétropropagation du gradient : plus l’erreur est faible au niveau des neurones de sorties,<br />

et moins les modifications dues à l’apprentissage sont rétropropagées dans les couches<br />

précédentes ; et pourtant, il est nécessaire de réaliser une phase d’apprentissage et une<br />

phase de généralisation dans le réseau. Dans le modèle proposé, la mémoire est un<br />

principe actif du système, qui lui permet d’anticiper l’évolution de son environnement : il<br />

est plongé dans le présent, et ne requière donc pas de référence au passé (à la phase<br />

d’apprentissage) pour effectuer sa tâche de reconnaissance : le système proposé ne<br />

nécessite donc pas de phases d’apprentissage et de généralisation distinctes,<br />

contrairement à un réseau multicouches à rétropropagation, qui doit retrouver des<br />

associations entrées-sorties préalablement acquises.<br />

5.3 Principes du modèle connexionniste<br />

5.3.1 Pour le neurone<br />

1. Modèle à différences finies<br />

Après avoir étudié dans un premier temps des réseaux à itérations discrètes, et après<br />

s’être intéressé aux synchronismes du réseau, il s’est avéré difficile de suivre<br />

simplement les dynamiques des réseaux discrets. Celles-ci semblaient souvent trop<br />

désordonnées, et trop peu propices à l’apprentissage de dynamiques lentes et régulières<br />

Nous nous sommes alors orientés vers les réseaux à différences finies. Ceux-ci offrent<br />

le net avantage de posséder des dynamiques plus lisses, dont on peut à loisir modifier la<br />

vitesse, par modification du pas de temps dt. De cette façon, l’analyse des fréquences<br />

principales du réseau devient plus précis : les fréquences principales ne sont plus toutes<br />

réunies sur un petit intervalle de hautes fréquences, comme cela était le cas dans les<br />

réseaux discrets. Il apparaît un plus grand nombre de pics de fréquences qui peuvent<br />

permettre de mieux quantifier les déphasages entre sites voisins.<br />

Autre avantage, il est possible ainsi de réguler ainsi la vitesse de la dynamique de<br />

l’environnement. Nous avons pris pour nos résultats des pas de temps de même<br />

grandeurs pour les itérations de l’environnement, et pour celles du réseau.<br />

Malheureusement, le choix de réseaux à différences finies s’est fait un peu tard, et nous<br />

n’avons pas pu vérifier à nouveau l’ensemble de nos résultats pour ce type de réseau. Il<br />

45 Ceci ne signifie pas que l’apprentissage ne peut pas être réalisé à des degrés divers durant l’évolution de<br />

l’organisme, mais qu’il n’y a pas de superviseur, extérieur à l’organisme, qui fasse varier la force de<br />

l’apprentissage en fonction de la qualité de la réponse du système.<br />

DEUXIEME PARTIE : DEVELOPPEMENT

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!