23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

afin d’en dégager les principes qui peuvent nous orienter dans la mise au point de règles<br />

d’apprentissage implantables dans les réseaux récurrents, qui conservent ces critères de<br />

plausibilité biologique (4.5 Limites, p.89). Nous tenterons dans ce chapitre de dégager les<br />

quelques idées qui nous serons utiles pour la phase d’apprentissage, en nous permettant de<br />

dégager un algorithme plus plausible biologiquement que ceux de RTRL ou de BPTT.<br />

4.2 Apprentissage Hebbien<br />

Cette règle date de 1949 [[88]], et l’on oublie souvent l’interprétation première de Hebb,<br />

qui y voyait l’un des principes permettant le rappel et le renforcement d’une activité cérébrale :<br />

80<br />

Let us assume that the persistence or repetition of a reverbatory activity<br />

tends to induce lasting cellular changes that add to its stability [...]<br />

When an axon of cell A is near enough to excite a cell B and repeatedly<br />

or persistently takes part in firing it, some growth process or metabolic<br />

change takes place in one or both cells such that A’s efficiency, as one<br />

of the cells firing B, is increased.<br />

Ce terme de réverbération revient dans d’autres propos de Hebb :<br />

PREMIERE PARTIE : ANALYSE<br />

Hebb. The organisation of behaviour. (1949)<br />

It seems that short term memory may be a reverberation in the closed<br />

loops of the cell assembly and between cell assemblies, whereas long<br />

term memory is more structural, a lasting change of synaptic<br />

connections.<br />

Hebb & Donderi. (1987)<br />

Il semble donc que Hebb interprétait ses règles d’apprentissage en terme de dynamique.<br />

Pourtant cette règle, dans son formalisme courant, est une règle qui symétrise les poids<br />

synaptiques, et qui conduit le réseau vers des dynamiques à point fixe 28 . En effet, la règle<br />

hebbienne, telle qu’elle est couramment formalisée suit une loi du type :<br />

dwij =axx<br />

i j<br />

qui vérifie dwij=dwji, ce qui finit par amener wij=wji, et donc à figer les dynamiques du<br />

réseau. Un tel phénomène peut se voir sur la Figure 8-2, page 187, où l’attracteur finit par<br />

converger vers un point fixe. Il est donc nécessaire. Si l’on souhaite rappeler des dynamiques<br />

passées, il s’avère nécessaire de trouver une règle qui puisse modifier les attracteurs du réseau,<br />

sans les ramener pour autant à de simples points fixes.<br />

4.3 Maximisation de l'entropie de sortie<br />

Ce résultat, dû à Chapeau-Blondeau [[42]], permet de justifier l’approche de<br />

l’apprentissage hebbien, par la maximisation de l’entropie de sortie de chaque neurone. En effet,<br />

dans le cas d’un neurone possédant une fonction sigmoïde du type :<br />

28 Faut-il voir là un phénomène similaire à celui qui se manifeste chez les personnes agées, qui tendent à<br />

réitérer les mêmes comportements ?

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!