Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
66<br />
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
développés. Il dérive directement des premiers modèles proposés [[53]], et possède un<br />
rôle similaire : séparer l’espace des entrées du réseau par des hyperplans.<br />
L’équation classique de ce modèle est du<br />
type :<br />
æ<br />
ö<br />
xi() t = sçåwijxj( t-D t)<br />
÷ ,<br />
è<br />
ø<br />
j<br />
avec s une fonction sigmoïde, continue et<br />
monotone, et qui vérifie :<br />
lim s ( x)<br />
= 0et lim s ( x)<br />
= 1<br />
x®-¥<br />
x®¥<br />
Certains modèles généralisent celui-ci, en<br />
remplaçant la fonction sigmoïde s par une<br />
fonction radiale, appliquée à chacun des xj.<br />
Figure 3-1 : Modèle classique<br />
Dans ce cas, le réseau ne segmente plus<br />
l’espace d’état des entrées par des hyperplans, mais par des intersections de fonctions<br />
en ‘cloche’.<br />
2. Modèles à délais<br />
La première complexification possible du modèle de neurones non línéaire à seuil<br />
considère que l’évolution du neurone à l’instant t dépend non plus de l’état du réseau à<br />
l’instant précédent t-Dt, mais d’états antérieurs.<br />
æ<br />
ö<br />
xi() t = sçåwijxj( t-Mj. Dt)<br />
÷<br />
è<br />
ø<br />
PREMIERE PARTIE : ANALYSE<br />
j<br />
Ce type de réseau ajoute à la crédibilité biologique du modèle, puisque les distances<br />
d’un neurone à l’autre varient, provoquant des délais dans les transmissions de<br />
l’information neuronale, auxquels s’ajoutent des variations dans les vitesses de<br />
transmission. D’autre part, ce type de neurone permet de créer une dépendance à long<br />
terme des dynamiques neuronales, ce qui facilite la production de dynamiques d’ordre<br />
élevé.<br />
3. Modèle à mémoire<br />
Un neurone possède de la mémoire si son comportement dépend de chacun des<br />
états passés du réseau, et non plus uniquement d’un seul état antérieur. Soit si :<br />
est remplacé par une équation du type :<br />
x () t = F( x ( t-Dt), x ( t-Dt),..., x ( t-Dt)) i 1 2<br />
N<br />
24 Qui peut être résumé par le mécanisme : chaque nouveau problème engendre un nouveau réseau, et<br />
chaque nouveau réseau engendre un nouveau problème...