Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
204<br />
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
Soit :<br />
h¢<br />
64444744448 é æ öù<br />
2<br />
xi ( t + dt) - xi ( t + dt) = êhdt.<br />
xi() t fç x j()<br />
t ~<br />
å ÷ úxi<br />
( t<br />
ëê<br />
è j øûú<br />
dt) xi ( t dt)<br />
TROISIEME PARTIE : RESULTATS<br />
( + - + )<br />
Cette dernière équation montre que, dans le cas où h¢ est positif, le nouvel l’état, après<br />
apprentissage, est plus proche du second réseau. Il est donc nécessaire d’utiliser des réseaux à<br />
sortie positive. Les essais réalisés selon cette approche n’ont pas permis de réaliser le moindre<br />
apprentissage. L’erreur vient sans doute des approximations réalisées qui supposent que les x et<br />
les ~ x sont proches, ce qui ne peut être le cas que si le forçage est négligeable. Peut-être faudraitil<br />
alors s’orienter vers un forçage progressif ? Cette idée commence à apparaître, mais nous<br />
n’avons pas pu la mettre en application dans cette thèse.<br />
8.6 Conclusion<br />
La raison a tant de formes, que nous ne savons à laquelle nous prendre,<br />
l’expérience n’en a pas moins.<br />
Montaigne. Les essais.<br />
Au départ, cette thèse devait être consacrée à l’étude des capacités de synchronisme de<br />
grands réseaux biologiquement plausible, et dans ce but, nous avons développé un outil puissant<br />
qui nous a permis de simuler un grand nombre de modèles connexionnistes différents. Dans ce<br />
nombre, certains nous ont révélé des comportements qui, mis bout à bout, semblaient permettre<br />
d’échafauder un modèle théorique de mémoire qui nous a semblé encourageant, car plausible<br />
biologiquement. Les principes énoncés semblaient bons, et il suffisait de trouver un réseau qui<br />
garderait de chacun des réseaux expérimentés les propriétés souhaitées : modularisation,<br />
anticipation, dynamiques chaotiques, et synchronisme.<br />
Malheureusement, chaque réseau a conservé le privilège de ses propriétés : les réseaux à<br />
délais augmentent la taille des zones d’activité, les modèles à mémoire s’organisent par clusters,<br />
les modèles à fonction de transfert en sortie diffusent le forçage. Il semblerait donc que le modèle<br />
général proposé puisse cumuler les propriétés observées dans chacun de ses sous-modèles.<br />
Mais, la complexification croissante du modèle augmente le nombre de paramètres, tous<br />
potentiellement modifiables par apprentissage. Dans ces modèles complexes, seuls des<br />
dynamiques simples ont pu être apprises, grâce à des apprentissages locaux, on-line, non<br />
supervisés.<br />
Pourtant, ces apprentissages, inspirés de RTRL et BPTT, simplifiés à l’extrême,<br />
permettent de réaliser des apprentissages par coeur, aussi efficaces que ceux réalisés par<br />
certains auteurs [[152]][[153]], où la validation des règles d’apprentissage se limite à<br />
l’apprentissage de cycles simples (ellipse ou boucle en huit). Ainsi, il semblerait que ces fonctions<br />
à apprendre soient trop simples pour valider ces règles d’apprentissage.