23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

108<br />

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

1. Simplification des dynamiques apprises<br />

Comme cela a été proposé dans les premiers principes dégagés lors de l’étude de<br />

l’utilisation d’un système à dynamique chaotique (2.3.3 Synthèse d’un modèle<br />

préliminaire, p.58), certaines expériences tendent à montrer que le phénomène de<br />

reconnaissance se traduit dans les systèmes naturels par une diminution de l’attracteur<br />

cérébral. Nous avons vu, de plus, que la complexification de la dynamique s’il n’y a pas<br />

reconnaissance peut être expliqué par un phénomène de couplage d’un processus non<br />

linéaire à un signal extérieur (1 Complexification des dynamiques, p.99).<br />

Le modèle proposé ici, suppose que le système cherche à anticiper les perturbations<br />

induites par la modification de son environnement. Il cherche donc à forcer les<br />

dynamiques de ses neurones modifiées par son environnement, et à suivre les<br />

dynamiques forçantes. Il suffirait donc que ces dynamiques forçantes soient de plus<br />

faible complexité que les dynamiques libres cérébrales, pour que puisse être observée<br />

une diminution de la complexité des dynamiques apprises. Il semblerait que ce soit bien<br />

le cas : les premiers étages de traitement de l’information réalisent bien souvent des<br />

filtrages préliminaires qui tendent à simplifier les dynamiques qui sont ensuite transmises<br />

au système central : la cochlée sépare un signal sonore par paquets de fréquences, la<br />

rétine prétraite l’image reçue, et bien souvent les capteurs physiques se spécialisent en<br />

transmettant ainsi une information appauvrie. De cette façon, l’environnement est présegmenté.<br />

Pour reprendre l’exemple du système ‘ressort+masse’, présenté précédemment, le<br />

système devrait chercher, lors de l’apprentissage, à modifier ses paramètres pour que<br />

l’extrémité libre du ressort suive le signal forçant, qui est une simple sinusoïde : il y<br />

aurait bien simplification des dynamiques du système.<br />

2. Vers une maximisation de l’autonomie<br />

Ce modèle de mémoire dans un système cherche à minimiser l’influence externe sur<br />

les dynamiques internes du système, puisque, si l’apprentissage par cœur est atteint, le<br />

système suit fidèlement les modifications extérieures, sans avoir recours à celles-ci.<br />

Dans le cas d’un système dynamique défini par son état X, les variables de contrôle<br />

U 40 , et de loi f, nous définirons l’autonomie d’un système par :<br />

( , , )<br />

L f XU<br />

If( X)<br />

=<br />

I ( U)<br />

Cette influence If(x) représente la sensibilité de f à une variation des états X. Une idée<br />

pour la mesurer (dans les cas où f est ‘bien choisie’), peut être par exemple d’employer :<br />

+ T<br />

æ 1<br />

ö<br />

If( X)<br />

= åçlim<br />

J f , X( Xi). dXi÷<br />

T®¥<br />

i è T ò<br />

,<br />

2 -T<br />

ø<br />

40 Nous entendons par paramètre de contrôle, tout paramètre participant à l’évolution du système, ne faisant<br />

par partie des paramètres internes du système. Ils contrôlent le système, car c’est une intervention<br />

extérieure qui modifie son évolution, et la contrôle.<br />

DEUXIEME PARTIE : DEVELOPPEMENT<br />

f

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!