23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

204<br />

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

Soit :<br />

h¢<br />

64444744448 é æ öù<br />

2<br />

xi ( t + dt) - xi ( t + dt) = êhdt.<br />

xi() t fç x j()<br />

t ~<br />

å ÷ úxi<br />

( t<br />

ëê<br />

è j øûú<br />

dt) xi ( t dt)<br />

TROISIEME PARTIE : RESULTATS<br />

( + - + )<br />

Cette dernière équation montre que, dans le cas où h¢ est positif, le nouvel l’état, après<br />

apprentissage, est plus proche du second réseau. Il est donc nécessaire d’utiliser des réseaux à<br />

sortie positive. Les essais réalisés selon cette approche n’ont pas permis de réaliser le moindre<br />

apprentissage. L’erreur vient sans doute des approximations réalisées qui supposent que les x et<br />

les ~ x sont proches, ce qui ne peut être le cas que si le forçage est négligeable. Peut-être faudraitil<br />

alors s’orienter vers un forçage progressif ? Cette idée commence à apparaître, mais nous<br />

n’avons pas pu la mettre en application dans cette thèse.<br />

8.6 Conclusion<br />

La raison a tant de formes, que nous ne savons à laquelle nous prendre,<br />

l’expérience n’en a pas moins.<br />

Montaigne. Les essais.<br />

Au départ, cette thèse devait être consacrée à l’étude des capacités de synchronisme de<br />

grands réseaux biologiquement plausible, et dans ce but, nous avons développé un outil puissant<br />

qui nous a permis de simuler un grand nombre de modèles connexionnistes différents. Dans ce<br />

nombre, certains nous ont révélé des comportements qui, mis bout à bout, semblaient permettre<br />

d’échafauder un modèle théorique de mémoire qui nous a semblé encourageant, car plausible<br />

biologiquement. Les principes énoncés semblaient bons, et il suffisait de trouver un réseau qui<br />

garderait de chacun des réseaux expérimentés les propriétés souhaitées : modularisation,<br />

anticipation, dynamiques chaotiques, et synchronisme.<br />

Malheureusement, chaque réseau a conservé le privilège de ses propriétés : les réseaux à<br />

délais augmentent la taille des zones d’activité, les modèles à mémoire s’organisent par clusters,<br />

les modèles à fonction de transfert en sortie diffusent le forçage. Il semblerait donc que le modèle<br />

général proposé puisse cumuler les propriétés observées dans chacun de ses sous-modèles.<br />

Mais, la complexification croissante du modèle augmente le nombre de paramètres, tous<br />

potentiellement modifiables par apprentissage. Dans ces modèles complexes, seuls des<br />

dynamiques simples ont pu être apprises, grâce à des apprentissages locaux, on-line, non<br />

supervisés.<br />

Pourtant, ces apprentissages, inspirés de RTRL et BPTT, simplifiés à l’extrême,<br />

permettent de réaliser des apprentissages par coeur, aussi efficaces que ceux réalisés par<br />

certains auteurs [[152]][[153]], où la validation des règles d’apprentissage se limite à<br />

l’apprentissage de cycles simples (ellipse ou boucle en huit). Ainsi, il semblerait que ces fonctions<br />

à apprendre soient trop simples pour valider ces règles d’apprentissage.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!