13.07.2015 Views

Actes - Climato.be

Actes - Climato.be

Actes - Climato.be

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

25 ème Colloque de l’Association Internationale de <strong>Climato</strong>logie, Grenoble 2012sortie à l’instant (t+1) est lié au vecteur d’entrée aux instants précédents en utilisant le modèlenon linéaire suivant :x(t+1) = g (x(t), x(t-1), x(t-2),…, x(t-k+1)) + e(t) (1)Dans cette équation, x représente le taux mensuel de précipitations pour la station x, g ( ), unefonction de transfert non linéaire, e(t), l’erreur à minimiser et k, le nombre d’entréescontribuant à la prévision des précipitations à l’instant futur.Comme l'illustre la figure 1, 1e TDNN est constitué de deux parties principales: La partieextraction correspondant aux couches basses, elle consiste à implémenter les convolutionssuccessives permettant de transformer progressivement les caractéristiques du signal(plusieurs valeurs basses entre deux pics par exemple) en grandeurs de plus en plussignificatives. La partie classifieur correspond à un MLP classique (figure 2) et sa topologiefait que ce réseau est de type convolutif. Il comporte une fenêtre glissante correspondant à unchamp de vision restreint du signal global. C’est un réseau 'feedforward' dynamique oùl’information se propage de l’entrée vers la sortie sans retour en arrière et la dynamique sesitue dans la couche d’entrée sous forme de retard. Le TDNN se singularise de la versionclassique d’un réseau de neurones tel que le réseau multicouche (MLP), par le fait qu’il prenden compte une certaine notion du temps, c’est à dire qu’au lieu de considérer simultanémenttous les neurones de la couche d'entrée, il sélectionne une fenêtre du signal, puis il effectue unbalayage temporel en se basant sur trois concepts, à savoir : les poids partagés où on aplusieurs neurones qui calculent la même fonction sur des entrées différentes et le concept defenêtre temporelle qui implique que chaque neurone de la couche (l + 1) n’est connecté qu’àun sous ensemble de la couche l. En plus des deux contraintes précédentes, nous avonsintroduit des délais entre deux fenêtres successives pour une couche donnée. Le but du TDNNn'est pas d'apprendre le signal temporel selon les procédures classiques, mais il revient àextraire les caractéristiques de ce signal. Avec la contrainte des poids partagés, le mêmeneurone est dupliqué dans la direction du temps pour détecter la présence ou l’absence de lamême caractéristique à différentes places le long de la trajectoire du signal. En mettant enœuvre plusieurs neurones à chaque position temporelle, le réseau de neurones effectue ladétection des différentes caractéristiques du signal (Wai<strong>be</strong>l, 1989).Figure 1 : Structure générale du TDNN.118

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!