Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
2. Exposants de Lyapunov.............................................................................................................. 51<br />
2.3.2 TYPE D’ENCODAGE PAR LES DYNAMIQUES CHAOTIQUES 52<br />
1. Etat transitoire de non-reconnaissance ....................................................................................... 52<br />
2. Filtre de nouveauté..................................................................................................................... 53<br />
3. Source de ‘dépersévération’ pour le système ............................................................................... 53<br />
4. Catégories isochrones. ............................................................................................................... 54<br />
5. Mémorisation par l’attracteur..................................................................................................... 55<br />
6. Mémorisation par les mesures de l’attracteur ............................................................................. 57<br />
7. Encodage Formel ....................................................................................................................... 57<br />
2.3.3 SYNTHESE D’UN MODELE PRELIMINAIRE 58<br />
2.4 CONCLUSION 61<br />
2.5 BIBLIOGRAPHIE 62<br />
3. MODELES CONNEXIONNISTES DYNAMIQUES 65<br />
3.1 INTRODUCTION 65<br />
3.2 MODELES A COMPORTEMENT DYNAMIQUE 65<br />
3.2.1 MODELE DE NEURONE SANS DYNAMIQUE PROPRE 65<br />
1. Modèle non linéaire à seuil ........................................................................................................ 65<br />
2. Modèles à délais ........................................................................................................................ 66<br />
3. Modèle à mémoire ..................................................................................................................... 66<br />
4. Modèles réfractaires ................................................................................................................... 67<br />
3.2.2 MODELE DE NEURONE A DYNAMIQUE PROPRE 68<br />
1. Modèle à rétroaction .................................................................................................................. 68<br />
2. Modèle à dynamique chaotique propre ....................................................................................... 69<br />
3.2.3 ARCHITECTURE DU RESEAU 69<br />
1. Architectures Feed-Forward ....................................................................................................... 70<br />
2. Architectures récurrentes ........................................................................................................... 71<br />
3. Architectures modulaires ........................................................................................................... 71<br />
3.3 EXEMPLES DE MODELES CHAOTIQUES 72<br />
3.3.1 WAN ET AUSSEM 72<br />
3.3.2 RENALS 73<br />
3.3.3 CHAPEAU BLONDEAU 73<br />
3.3.4 DOYON, CESSAC, QUOY 74<br />
3.3.5 BABLOYANTZ DESTEXTHE 74<br />
3.3.6 FREEMAN 75<br />
3.3.7 KOHONEN LOGISTIQUE 75<br />
3.4 CONCLUSION 76<br />
3.5 BIBLIOGRAPHIE 76<br />
4. APPRENTISSAGE DANS LES RESEAUX RECURRENTS 79<br />
4.1 INTRODUCTION : REPRODUIRE UN ETAT PASSE 79<br />
4.2 APPRENTISSAGE HEBBIEN 80<br />
4.3 MAXIMISATION DE L'ENTROPIE DE SORTIE 80<br />
4.4 DESCENTE DU GRADIENT DE L’ERREUR 81<br />
4.4.1 RECURRENT BACK-PROPAGATION 83<br />
4.4.2 BACK-PROPAGATION THROUGH TIME 85<br />
4.4.3 REAL TIME RECURRENT LEARNING 86<br />
1. Dans le cas discret ..................................................................................................................... 86<br />
TABLE DES MATIERES VII