Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
108<br />
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
1. Simplification des dynamiques apprises<br />
Comme cela a été proposé dans les premiers principes dégagés lors de l’étude de<br />
l’utilisation d’un système à dynamique chaotique (2.3.3 Synthèse d’un modèle<br />
préliminaire, p.58), certaines expériences tendent à montrer que le phénomène de<br />
reconnaissance se traduit dans les systèmes naturels par une diminution de l’attracteur<br />
cérébral. Nous avons vu, de plus, que la complexification de la dynamique s’il n’y a pas<br />
reconnaissance peut être expliqué par un phénomène de couplage d’un processus non<br />
linéaire à un signal extérieur (1 Complexification des dynamiques, p.99).<br />
Le modèle proposé ici, suppose que le système cherche à anticiper les perturbations<br />
induites par la modification de son environnement. Il cherche donc à forcer les<br />
dynamiques de ses neurones modifiées par son environnement, et à suivre les<br />
dynamiques forçantes. Il suffirait donc que ces dynamiques forçantes soient de plus<br />
faible complexité que les dynamiques libres cérébrales, pour que puisse être observée<br />
une diminution de la complexité des dynamiques apprises. Il semblerait que ce soit bien<br />
le cas : les premiers étages de traitement de l’information réalisent bien souvent des<br />
filtrages préliminaires qui tendent à simplifier les dynamiques qui sont ensuite transmises<br />
au système central : la cochlée sépare un signal sonore par paquets de fréquences, la<br />
rétine prétraite l’image reçue, et bien souvent les capteurs physiques se spécialisent en<br />
transmettant ainsi une information appauvrie. De cette façon, l’environnement est présegmenté.<br />
Pour reprendre l’exemple du système ‘ressort+masse’, présenté précédemment, le<br />
système devrait chercher, lors de l’apprentissage, à modifier ses paramètres pour que<br />
l’extrémité libre du ressort suive le signal forçant, qui est une simple sinusoïde : il y<br />
aurait bien simplification des dynamiques du système.<br />
2. Vers une maximisation de l’autonomie<br />
Ce modèle de mémoire dans un système cherche à minimiser l’influence externe sur<br />
les dynamiques internes du système, puisque, si l’apprentissage par cœur est atteint, le<br />
système suit fidèlement les modifications extérieures, sans avoir recours à celles-ci.<br />
Dans le cas d’un système dynamique défini par son état X, les variables de contrôle<br />
U 40 , et de loi f, nous définirons l’autonomie d’un système par :<br />
( , , )<br />
L f XU<br />
If( X)<br />
=<br />
I ( U)<br />
Cette influence If(x) représente la sensibilité de f à une variation des états X. Une idée<br />
pour la mesurer (dans les cas où f est ‘bien choisie’), peut être par exemple d’employer :<br />
+ T<br />
æ 1<br />
ö<br />
If( X)<br />
= åçlim<br />
J f , X( Xi). dXi÷<br />
T®¥<br />
i è T ò<br />
,<br />
2 -T<br />
ø<br />
40 Nous entendons par paramètre de contrôle, tout paramètre participant à l’évolution du système, ne faisant<br />
par partie des paramètres internes du système. Ils contrôlent le système, car c’est une intervention<br />
extérieure qui modifie son évolution, et la contrôle.<br />
DEUXIEME PARTIE : DEVELOPPEMENT<br />
f