Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
* Quels sont les paramètres principaux d’une dynamique neuronale ?<br />
* Quelles règles d’apprentissage portent sur ces paramètres ?<br />
* Quels sont les critères d’une plausibilité biologique ?<br />
* Pouvons nous imaginer des règles d’apprentissage vérifiant ces critères ?<br />
La réponse à ces questions nous permettra de dégager quelques modèles, qui seront<br />
simulés et analysés, en effectuant en parallèle un retour au biologique dès que cela s’avère<br />
possible. Nous essayerons de montrer qu’une synthèse entre ces modèles est possible, amenant<br />
un type de réseau dynamique biologiquement plausible, qui sera construit au fur et à mesure du<br />
déroulement de cette thèse.<br />
1.2.1 Analyse<br />
La première partie de cette thèse est consacrée à l’analyse de ces différentes questions,<br />
et tente d’y apporter quelques solutions. Il a fallu tout d’abord définir ce qui caractérise les<br />
dynamiques neuronales, qu’elles soient naturelles ou artificielles, et l’intérêt qu’elles présentent<br />
pour l’encodage d’information. Nous tenterons de justifier leur emploi dans cette thèse et de<br />
rassembler les outils mathématiques utiles à leur analyse (Chap.2, Encodage dynamique,<br />
mémoire et chaos. p23). Cette première approche nous permettra d’entrevoir les méthodes<br />
possibles d’encodage de l’information par les dynamiques neuronales d’un modèle connexionniste<br />
: encodage par synchronisme, par population, par mémorisation des dynamiques ou de leurs<br />
paramètres.<br />
Tout naturellement, une telle étude nous a orientés vers les modèles connexionnistes à<br />
dynamique chaotique, actuellement beaucoup étudiés, en s’appuyant essentiellement sur les<br />
travaux de Blabloyantz et al. [[9]][[10]], Freeman & al. [[180]][[218]][[36]], Renals [[164]], Chapeau-<br />
Blondeau [[40]][[43]]. L’une des premières observations durant cette phase fut de remarquer la<br />
diversité des approches réalisées, tant dans les modèles que dans l’interprétation du rôle du<br />
chaos. Il fut donc nécessaire de synthétiser les méthodes d’encodage de l’information par des<br />
dynamiques chaotiques, et d’en dégager quelques encodages principaux, en accord avec les<br />
connaissances neurophysiologiques actuelles.<br />
Une fois déterminées ces méthodes d’encodage, nous nous intéresserons aux modèles<br />
neuronaux et aux architectures pouvant répondre à nos besoins (Chap. 3, Modèles<br />
connexionnistes dynamiques, p.65). Ce chapitre tentera de hiérarchiser les modèles proposés, afin<br />
de déterminer quels sont les paramètres et les contraintes essentiels du réseau que nous<br />
souhaitons réaliser, et quels sont les modèles pouvant présenter les dynamiques retenues dans le<br />
chapitre précédent. C’est à ce niveau que sera posé le choix d’une architecture récurrente, à<br />
voisinage local. La même analyse sera alors réalisée pour les algorithmes d’apprentissage utilisés<br />
dans les architectures récurrentes [Chap. 4, Apprentissage dans les réseaux récurrents. p79] Ce<br />
chapitre rassemblera les principales idées avancées, et recensera l’ensemble des algorithmes<br />
utilisés dans les modèles connexionnistes récurrents. Malheureusement, les algorithmes<br />
développés à ce jour pour les architectures récurrentes ne sont pas biologiquement plausibles<br />
(non on-line, non locaux). Il nous a donc fallu imaginer et développer de nouvelles règles<br />
répondant à ces contraintes de plausibilité biologique.<br />
PRESENTATION GENERALE 19