23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

* Quels sont les paramètres principaux d’une dynamique neuronale ?<br />

* Quelles règles d’apprentissage portent sur ces paramètres ?<br />

* Quels sont les critères d’une plausibilité biologique ?<br />

* Pouvons nous imaginer des règles d’apprentissage vérifiant ces critères ?<br />

La réponse à ces questions nous permettra de dégager quelques modèles, qui seront<br />

simulés et analysés, en effectuant en parallèle un retour au biologique dès que cela s’avère<br />

possible. Nous essayerons de montrer qu’une synthèse entre ces modèles est possible, amenant<br />

un type de réseau dynamique biologiquement plausible, qui sera construit au fur et à mesure du<br />

déroulement de cette thèse.<br />

1.2.1 Analyse<br />

La première partie de cette thèse est consacrée à l’analyse de ces différentes questions,<br />

et tente d’y apporter quelques solutions. Il a fallu tout d’abord définir ce qui caractérise les<br />

dynamiques neuronales, qu’elles soient naturelles ou artificielles, et l’intérêt qu’elles présentent<br />

pour l’encodage d’information. Nous tenterons de justifier leur emploi dans cette thèse et de<br />

rassembler les outils mathématiques utiles à leur analyse (Chap.2, Encodage dynamique,<br />

mémoire et chaos. p23). Cette première approche nous permettra d’entrevoir les méthodes<br />

possibles d’encodage de l’information par les dynamiques neuronales d’un modèle connexionniste<br />

: encodage par synchronisme, par population, par mémorisation des dynamiques ou de leurs<br />

paramètres.<br />

Tout naturellement, une telle étude nous a orientés vers les modèles connexionnistes à<br />

dynamique chaotique, actuellement beaucoup étudiés, en s’appuyant essentiellement sur les<br />

travaux de Blabloyantz et al. [[9]][[10]], Freeman & al. [[180]][[218]][[36]], Renals [[164]], Chapeau-<br />

Blondeau [[40]][[43]]. L’une des premières observations durant cette phase fut de remarquer la<br />

diversité des approches réalisées, tant dans les modèles que dans l’interprétation du rôle du<br />

chaos. Il fut donc nécessaire de synthétiser les méthodes d’encodage de l’information par des<br />

dynamiques chaotiques, et d’en dégager quelques encodages principaux, en accord avec les<br />

connaissances neurophysiologiques actuelles.<br />

Une fois déterminées ces méthodes d’encodage, nous nous intéresserons aux modèles<br />

neuronaux et aux architectures pouvant répondre à nos besoins (Chap. 3, Modèles<br />

connexionnistes dynamiques, p.65). Ce chapitre tentera de hiérarchiser les modèles proposés, afin<br />

de déterminer quels sont les paramètres et les contraintes essentiels du réseau que nous<br />

souhaitons réaliser, et quels sont les modèles pouvant présenter les dynamiques retenues dans le<br />

chapitre précédent. C’est à ce niveau que sera posé le choix d’une architecture récurrente, à<br />

voisinage local. La même analyse sera alors réalisée pour les algorithmes d’apprentissage utilisés<br />

dans les architectures récurrentes [Chap. 4, Apprentissage dans les réseaux récurrents. p79] Ce<br />

chapitre rassemblera les principales idées avancées, et recensera l’ensemble des algorithmes<br />

utilisés dans les modèles connexionnistes récurrents. Malheureusement, les algorithmes<br />

développés à ce jour pour les architectures récurrentes ne sont pas biologiquement plausibles<br />

(non on-line, non locaux). Il nous a donc fallu imaginer et développer de nouvelles règles<br />

répondant à ces contraintes de plausibilité biologique.<br />

PRESENTATION GENERALE 19

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!